Vastuu ja vastuullisuus

Vastuullisuuden periaate löytyy useista tekoälyn eettisistä ohjeistuksista. Sillä viitataan ajatukseen, että toimijoiden tulisi toimia velvollisuuksiensa mukaisesti ja olla valmiita selittämään ja oikeuttamaan toimintaansa muille. Tässä mielessä vastuun ja vastuullisuuden kysymykset tekoälyn kontekstissa koskevat yhtäältä vastuun jakautumista ja toisaalta vastuullisuuden osoittamista.

Robotitko vastuuseen?

Ajatus, että robotti tai tekoälyjärjestelmä voisi olla vastuussa teoistaan kuulostaa hurjalta. Tätä mahdollisuutta on kuitenkin tutkittu filosofisessa ja oikeustieteellisessä kirjallisuudessa.

Yleisesti ajatellaan, että vain moraalisilla toimijoilla, jotka ovat moraalin kannalta jollain tapaa merkityksellisesti autonomisia, on lähtökohtainen velvollisuus toimia moraalisten normien mukaisesti. Täten toimijoita, kuten useimpia aikuisia ihmisiä, voidaan yleisesti pitää vastuussa teoistaan, mikäli ne eivät toimi normien mukaisesti. Periaatteessa, jos kone todella ajattelisi, tuntisi ja toimisi, se voisi olla vastuullinen toimija. Tekoälysovellukset nykyisellään eivät tällaisia vaatimuksia täytä. Useimmat ovatkin ajatelleet, että tekoälyjärjestelmiä ei voida pitää vastuussa teoistaan, kuten ei esimerkiksi tuulta, kiviä tai eläimiäkään. Vaikka tekoälyjärjestelmätkin voivat ”aiheuttaa asioita” kausaalisessa mielessä, niiden ei ole pääosin katsottu täyttävän moraalisen toimijuuden kriteerejä. (Yleisesti ajatellaan, että tällaisia ovat muun muassa tietoisuus ja tuntoisuus, kuten yllä mainittiin.) Tekoälyn kontekstissa näyttäisikin, että vastuu on ymmärrettävä ihmisten vastuuna tekoälyn toiminnasta ja siitä seuraavista vaikutuksista.

Vastuun jakautumisen haaste: ”monien käsien” ongelma

Vastuun asianmukaisen jakautumisen kysymykseen voidaan oikeudellisessa mielessä vastata asettamalla muillekin kuin luonnollisille henkilöille, esimerkiksi yrityksille, vastuita. Tekoälyjärjestelmien toiminnan seurauksiin vaikuttavat useat käsiparit softwaren ja hardwaren kehittäjistä (loppu)käyttäjiin. Kysymys herää: kuka tarkalleen esimerkiksi organisaation sisällä (tai sen ulkopuolella?) on vastuussa, kun tekoälyjärjestelmä tekee esimerkiksi kohtalokkaan virheen? Intuitiivinen ajatus näyttäisi osoittavan johdon, kehittäjien tai käyttäjien suuntaan, mutta vastuun reilua jakautumista hankaloittaa kuitenkin tämä “monien käsien ongelma”.

Monien käsien ongelma seuraa siitä, että tekoälyjärjestelmät ovat modulaarisia – ne koostuvat useista yhteen linkittyvistä osista, kuten datasta, algoritmeista ja käyttöliittymistä sekä laitteistosta eli hardwaresta. Tekoälysovellusten ja niitä hyödyntävien laitteiden osat saattavat olla eri toimijoiden kehittämiä ja tulla useista eri lähteistä. Ne saattavat esimerkiksi käyttää dataa, joka on kerätty organisaation omien toimien yhteydessä tai internetistä valmiiksi pakattujen datajoukkojen muodossa. Valmiina tuotteina ja palveluina niitä voidaan myös väärinkäyttää loppukäyttäjien toimesta. Tekoälyjärjestelmiä myös asennetaan osaksi erilaisia laitteita, kuten autoja ja lentokoneita. Tekoälyn toiminta on näiden komponenttien yhteisvaikutuksen tulosta, mikä vaikeuttaa vastuun osoittamista virheiden tai tapaturmien yhteydessä.

Vastuun jakautumisen ongelmaa havainnollistaa Boeing 737 Max -lentokoneonnettomuuden tapaus. Vuosina 2018 ja 2019 kaksi Boeing 737 Max –lentokonetta tippui taivaalta johtaen yhteensä 346 henkilön kuolemaan. Kukaan lentokoneiden matkustajista ei selvinnyt. Onnettomuuteen liittyi olennaisesti koneeseen asennettu tekoälypohjainen MCAS-lennonvakautusjärjestelmä. MCAS-järjestelmä hyödynsi nokkaan asennettuja sensoreita, jotka mittasivat tulevan ilmavirran kulmaa. Mikäli ilmavirta ei tullut oikeassa kulmassa, MCAS-järjestelmä korjasi koneen asentoa. Lentotapaturmissa pilotit eivät olleet saaneet tietoa koneen todellisesta nopeudesta ja lentokorkeudesta. Pilottien yrittäessä korjata koneen asentoa manuaalisesti MCAS oli jatkuvasti korjannut koneen asentoa vastakkaiseen suuntaan, johtaen syöksyyn maata kohden.

Tapaturma ilmentää osaltaan “monien käsien” ongelmaa sikäli, kun turma oli monien teknisten ja inhimillisten tekijöiden summa: MCAS olisi tarvinnut kaksi sensoria, joista koneeseen oli asennettu vain yksi. Koneiden pilotteja ei ollut koulutettu järjestelmän käyttöön, eikä heillä ollut mahdollisuutta ohittaa järjestelmää, koska tällaista toimintoa ei ollut rakennettu järjestelmään. Tapaturman taustalla oli myös Boeingin ongelmallinen toimintakulttuuri: Boeing oli esimerkiksi esittänyt MCAS-järjestelmän lisäyksen sekä keulaan siirretyn moottorin muokkauksina vanhaan 737-malliin välttääkseen testaamiseen ja kouluttamiseen liittyviä lisäkustannuksia, jotka seuraisivat, jos 737 Max olisi esitetty täysin uutena lentokonemallina.

Vastuullisuus ”tilivelvollisuutena”

Vastuullisuus voidaan ymmärtää myös niin kutsutun ”tilivelvollisuuden” kautta. Vastuullinen toimija on tilivelvollinen muille ja täyttääkseen vastuullisuuden kriteerit hänen on toimittava läpinäkyvästi sekä vastattava tekojensa seurauksista. Tilivelvollisuuden näkökulmasta merkityksellistä on tällöin selvittää ja selventää muille toimijoille, kuka on vastuussa ja mistä (esim. tekoälyjärjestelmien kehittämisen aikana tehdyistä päätöksistä ja käytön seurauksista). Vastuullisuuden periaatteen toteutuminen edellyttää, että suunnittelu-, kehitys- ja käyttövaiheissa tehdyistä päätöksistä vastuussa olevat toimijat ovat saatavissa selville. Tämä on välttämätöntä sellaisten tilanteiden ehkäisemiseksi, joissa tekoälyjärjestelmät aiheuttavat haittaa ilman selkeää tietoa vastuullisista osapuolista. Läpinäkyvyys palvelee tässä mielessä vastuullisuutta: toimijoiden, kuten julkisorganisaatioiden, tulee osoittaa vastuullisuutensa yleisölle, kuten kansalaisille, joille toimijat ovat vastuussa.

Tilivelvollisuus edellyttää myös, että tekoälyjärjestelmistä vastaavat henkilöt ja/tai organisaatiot ovat sidosryhmiensä ja yhteisöjensä ”kehun ja kepin” tavoitettavissa . Toisin sanoen niiden on oltava yleisen mielipiteen tavoitettavissa ja oikeudellisten seuraamusten piirissä. Tekoälyn etiikan tutkijat ovatkin painottaneet, että läpinäkyvyys ja avoimuus eivät ole riittäviä varmistamaan, että tekoälyn kehittäjät ja käyttäjät toimivat vastuullisesti, vaan näiden täytyy olla tilivelvollisia myös oikeudellisessa mielessä lain ja säännösten muodossa. (Lue läpinäkyvyyden ja vastuullisuuden suhteesta englanniksi täältä.)