Voivatko robotit tai tekoälyjärjestelmät tulevaisuudessa olla moraalisia toimijoita tai moraalisten toimijoiden neuvonantajia? Jos niin on, millaista moraalikoodistoa niiden tulisi noudattaa? Monet huolenaiheet liittyen robotiikkaan tai tekoälyihin ovat täysin riippumattomia näistä kysymyksistä: järjestelmät voivat saada aikaan vahinkoa, vaikka eivät olekaan moraalisia toimijoita.
Tällä hetkellä painavimmat huolet koskien tekoälyä eivät lainkaan riipu siitä, ovatko tai voivatko robotit tai tekoälyjärjestelmät tulevaisuudessa olla moraalisen toimijuuden ehdot täyttäviä.
Mutta voivatko robotit tai tekoälyjärjestelmät tulevaisuudessa olla moraalisia toimijoita? Hieman yksinkertaistaen voidaan erottaa kaksi näkökulmaa robotteihin: yhtäältä toimijoiden kokemuksellinen ja osallistuva arkinäkökulma sekä toisaalta selityksiin tähtäävä tieteellinen näkökulma. Näistä näkökulmista keinotekoisten kognitiivisten systeemien ja ihmisten ero näyttäytyy hyvin erilaisena. Hans Jonas (1966) kutsuu näitä näkökulmia fenomenologiseksi ja kyberneettiseksi. Näkökulmien kiistely sinänsä on hedelmätöntä, ne tulisi molemmat ottaa huomioon. Wilfrid Sellars (1962) näkeekin filosofian tehtäväksi luoda stereoskooppista kuvaa, jossa arkinen ”ilmikuva” ja tieteelinen maailmankuva tuodaan yhteen. On kuitenkin tärkeä erottaa, kumman näkökulman edellyttävillä käsitteillä milloinkin operoidaan.
Arkinäkökulmasta ihmisen ja robotin välinen ero vaikuttaa selvältäTulevaisuuden visio roboteista, jotka olisivat moraalisia toimijoita, edellyttää tästä näkökulmasta radikaalia laadullista hyppyä, ja on epäselvää, voivatko koneet tulevaisuudessakaan saada näitä piirteitä – esimerkiksi tuntea kipua tai moraalisia tuntemuksia. Toisesta näkökulmasta laadullista hyppyä ei tarvita. Ihmiset ja koneet ovat jo nyt, vaikkakin yksityiskohdissaan hyvin erilaisia, periaatteessa samanlaisia systeemejä. Monien mielestä tästä näkökulmasta kuitenkin hukataan aito moraalinen toimijuus – tarvitaan koettua fenomenologista näkökulmaa, jotta edes tavoitetaan kyseinen ilmiö.
Entä voisiko tekoäly olla inhimillisten toimijoiden moraalinen neuvonantaja? Tekoäly voi jo nyt toimia oikeusapulaisena, käydä läpi oikeustapauksia, niissä esitettyjä argumentteja ja päätöksiä: auttaa ihmisiä päättämään, mitä tehdä. Voisiko sama toimia moraalissa: moraalisen dilemman kohdatessa ”kilauta keinoälylle” tai tee haku kuvitteellisella ”Google Morals”-ohjelmalla? Jos voisi, millaisia periaatteita sen pitäisi käsitellä? kiistattomampia ovat keskitason prima facie -velvollisuudet koskien yksittäisiä tekoluokkia. Pluralistisia keskitason velvollisuuksien listoja ovat esimerkiksi Raamatun 10 käskyä, W.D. Rossin (1930) lista tai bioetiikan raamatun, Tom Beauchampin ja James Childressin (2013) neljä periaatetta (autonomia, vahingoittamisen kielto, hyvinvoinnin edistäminen, oikeudenmukaisuus). Näistä kannattanee tietokannan rakentaminen aloittaa (ks. Anderson ja Leigh Anderson 2011). Yksinään tarkasteltuina, ottamatta konflikteja ja tilannekohtaisia painoarvoja huomioon, nämä periaatteet eivät useinkaan ole kiistanalaisia: oikeudenmukaisuus on hyvä asia, epäoikeudenmukaisuus on paha asia. Mutta etiikka on käytännöllistä vasta tilannekohtaisten arvostelmien tasolla, ja niissä eri periaatteiden painoarvot tulee ottaa huomioon. Paras apu, mitä tekoälyltä voi saada tilannekohtaisissa arvostelmissa, saattaa olla mahdollisesti relevanttien piirteiden tarkastuslista, kuten ”Kohdellaanko kaikkia yhdenvertaisesti?”, ”Onko kyse jonkun luottamuksen pettämisestä?” ja ”Onko otettu huomioon ympäristövaikutukset?” jne.
***
[Tähän blogiin on lyhennetty aiheesta julkaistua tekstiä täällä.]
Viite:
Laitinen, A. (2018). Robotit ja tekoäly moraalisina huolenaiheina, toimijoina ja neuvonantajina. Tieteessä Tapahtuu, 36(1). Noudettu osoitteesta https://journal.fi/tt/article/view/69280