Kirjoittaja
Julkaistu 17.4.2026
Miltä turvallisuustutkinnan maailma näyttää kolmenkymmenen vuoden päästä?
Tutkisimmeko tapauksen, jossa robotin käsivarsi olisi murskautunut teollisuuslaitoksessa tai kun kaksi autonomista liikennevälinettä ovat törmänneet toisiinsa? Tällaiset kysymykset herättelivät pohtimaan sitä, muuttaako teknologinen kehitys tapoja, joilla tarkastelemme onnettomuuksia, niiden syitä ja niistä tehtäviä johtopäätöksiä.
Tämänhetkisessä tekoälykeskustelussa kuljetaan ääripäiden välillä: Toiset näkevät kauhukuvia, joissa koneet ottavat vallan ihmiskunnasta. Toiset unelmoivat teknologiasta, joka pelastaa maailman ja auttaa ymmärtämään maailmankaikkeutta entistä paremmin. Todellisuus todennäköisesti sijaitsee näiden välissä, mutta erityisesti tekoälyn etiikan ympärillä käyty keskustelu paljastaa syvällisiä haasteita, jotka eivät ratkea pelkällä teknisellä kehityksellä. Tekoäly saattaa olla teollisuuden neljäs vallankumous, mutta sen vaikutukset eivät ole mustavalkoisia. Uusista teknologioista on todennäköisesti enemmän hyötyä ihmiskunnalle kuin haittaa.
Kun järjestelmien tekoälykomponentit saavat yhä enemmän autonomiaa päätöksenteossa, ne joutuvat kohtaamaan tilanteita, joissa ei ole olemassa selkeää oikeaa tai väärää vastausta. Tällöin järjestelmän täytyy tehdä valintoja, jotka perustuvat ennalta määriteltyihin arvoihin ja painotuksiin, mutta kuka päättää, mitkä valinnat ovat oikeita.
Eettiset kysymykset muuttuvat entistä monimutkaisemmiksi, kun tekoälyä käytetään kriittisissä infrastruktuureissa tai esimerkiksi sosiaali- ja terveydenhuollossa. Ajatellaanpa tilannetta, jossa autonomisen ajoneuvon on valittava kahden vaihtoehdon välillä. Kumman elämä on arvokkaampi – kuljettajan vai jalankulkijan? Miten algoritmi painottaa eri ihmisten turvallisuutta? Nämä eivät ole enää vain filosofisia pohdintoja, vaan konkreettisia valintoja, joiden ratkaiseminen vaatii yhteiskunnallista keskustelua ja konsensusta. Tulemme turvallisuustutkinnassa todennäköisesti ratkomaan kysymystä siitä, oliko järjestelmän päätöslogiikka eettisesti perusteltu ja onko sen taustalla virheellistä suunnittelua, valvonnan heikkouksia tai onko päätöksen tekoon käytetty harhaanjohtavaa tietoa.
Erilaisiin automaatiojärjestelmiin liittyy myös päätöksenteon jakautumisen ongelma. Kun järjestelmässä tapahtuu virhe, herää kysymys siitä minkälainen päätöksentekoprosessi johti siihen. Tapahtumaan saattaa liittyä järjestelmän kehittäjä, järjestelmän käyttäjä, organisaatio, joka otti teknologian käyttöön tai itse tekoäly? Tämä kysymys korostuu erityisesti silloin, kun tekoäly oppii ja muuttaa toimintaansa datan perusteella. Jos algoritmi luo itsenäisesti uusia toimintatapoja, jotka johtavat onnettomuuteen, onko kyseessä ennakoitava riski vai täysin uusi ilmiö?
Pääsemme ulos teknologian kuplasta, kun muistamme, kuka nämä järjestelmät suunnittelee ja kenelle niitä tehdään. Ihminen on edelleen keskiössä. Järjestelmiä rakennetaan ihmistä varten – helpottamaan työtä, nopeuttamaan prosesseja, tekemään toisteisia tehtäviä helpommiksi, auttamaan päätöksenteossa ja analysoimaan suuria tietomääriä. Turvallisuustutkinnassa meidän on varmistettava, että järjestelmän päätöksentekoprosessit ovat läpinäkyviä ja ymmärrettäviä. Läpinäkyvyys on edellytys, sillä ilman sitä emme voi arvioida, toimiiko järjestelmä ihmisten hyväksi vai vastoin ihmisten etua.
Teknologiasta riippumatta taustalla on aina ihminen. Ihminen määrittelee järjestelmän käyttötarkoituksen ja vaatimukset. Ihminen suunnittelee mekaanisen rakenteen, ohjelmistot ja tekoälykomponentit. Ihminen tekee testaukset, suunnittelee käyttöönoton ja vastaa järjestelmän jatkuvasta kunnossapidosta sekä toiminnan seurannasta. Mutta ihmisen vastuulla on myös varmistaa, että teknologian kehitys ja käyttö noudattavat yhteisesti sovittuja periaatteita. Tämä vaatii jatkuvaa yhteiskunnallista vuoropuhelua teknologian kehittäjien, käyttäjien ja lainsäätäjien välillä. Ja kun jotain tapahtuu, on Onnettomuustutkintakeskuksella merkittävä rooli uusien teknologioiden arvioinnissa.
Vastaus alkuperäisiin kysymyksiin on savolaisittain kyllä ja ei. Tutkimme robotille tapahtuneen onnettomuuden, jos seurauksena on ihmisten loukkaantumisia, menehtymisiä tai niistä aiheutuu selkeää vaaraa ihmisille. Samoin toimimme autonomisesti toimivien järjestelmien kohdalla. Turvallisuustutkinta ei tulevaisuudessakaan rajoitu vain teknisiin vikoihin, vaan sen on tarkasteltava asioita laajemmin: Oliko tekoälyn käyttöönotto perusteltua? Oliko riskien arviointi riittävää? Olivatko järjestelmän eettiset periaatteet yhteensopivia yhteiskunnan arvojen kanssa? Olivatko määräykset ja säädökset ajan tasalla? Miten viranomaisten toiminta oli vaikuttanut kokonaisuuteen?
Turvallisuustutkinnan keskiössä tulee olemaan tulevaisuudessa, aivan kuten nytkin, ihminen ja ihmisten toiminta osana organisaatiota, suunnittelua, päätöksentekoa ja valvontaa. Teknologia kehittyy, mutta ihmisen rooli vastuunkantajana ja päätöksentekijänä ei katoa mihinkään. Me ihmiset olemme ohjaimissa, ja niin meidän tulee pysyäkin. Tehtävämme on varmistaa, että tekoälyn kehitys palvelee ihmiskuntaa eettisesti kestävästi, eikä se johda tilanteisiin, joissa ihminen menettää hallinnan omista päätöksistään. Tulevaisuuden turvallisuustutkinnan on pystyttävä vastaamaan niihin kysymyksiin, joita uusi teknologia asettaa, ja varmistettava, että teknologian hyödyt eivät tule ihmisten kustannuksella.
Kysymykset, joita turvallisuustutkinnassa esitetään tulevat pysymään samankaltaisina: Onko turvallisuus huomioitu riittävästi organisaatiossa ja järjestelmässä? Ovatko toimintaa ohjaavat järjestelmät kunnossa? Onko ihmisen ja koneen välinen vuorovaikutus selkeä ja ihmisen toimintaa avustava?
Taustalla piilee kuitenkin syvempi eettinen kysymys: Olemmeko valmiita luovuttamaan päätöksentekovaltaa koneille, ja jos olemme, millä ehdoilla?
Reilun kolmenkymmenen vuoden aikana kehitetty turvallisuustutkinnan prosessi on osoittanut vahvuutensa. Turvallisuustutkinnan menetelmillä voidaan tutkia mikä tahansa tapahtuma, vaaratilanne tai yhteiskuntaan kohdistunut häiriö. Turvallisuustutkinnan prosessi on tulevaisuudessakin meidän vankka myllynkivemme, jonka läpi voidaan jauhaa tulevaisuuden tuomat uudet ilmiöt ja saada ulos johtopäätökset ja suositukset, joilla tavoitellaan meidän tulevaisuuden näkymää – onnettomuuksista oppivaa, turvallista Suomea.