Hypätään heti syvään päätyyn. Mitä AI-etiikalla tarkoitetaan?
OTTO: Tämä on filosofinen kysymys jo itsessään, ja tätä voidaan lähestyä eri tavoin. Tutkimuksen näkökulmasta voidaan tarkastella sitä, etiikka ja eettiset kysymykset oikeasta ja väärästä ja hyvästä ja pahasta liittyvät teknologiaan ja tekoälyyn. Toisaalta aihetta voidaan lähestyä käytännön näkökulmasta, eli miten arvoja rakennetaan (ja miten niitä voidaan rakentaa) teknologiaan esimerkiksi järjestelmien ominaisuuksien ja teknisten vaatimusten muodossa. Toisaalta yhä enemmän on kyseenalaistettu sitä, että tekoälyn etiikka koskisi kapeassa mielessä vain teknologiaa. Eettiset kysymykset kytkeytyvät myös liiketoiminnan etiikkaan sekä organisaatioiden ja instituutioiden toimintaan. Mietitään vaikka järjestelmää, joka tunnistaa ihmisiä maiden rajoilla. Jos tätä teknologiaa käytetään tällaisessa viranomaistoimenpiteessä, niin sen sisältämiä eettisiä seurauksia ja arvoja voi olla vaikea ymmärtää vain teknologiaa tarkastelemalla. Ne pitää kontekstualisoida. Siinä mielessä AI-etiikka ei ole tavallista etiikkaa kummempaa, mutta se ottaa huomioon tekoälyn ominaispiirteet kuten adaptiivisuuden ja suuret datamäärät.
PERTTI: Insinöörinä nousee mieleen vasaran etiikka. Eli vasaraa voidaan käyttää väkivaltaan, vaikka sitä harvemmin tapahtuu. Emme näe yleensä vasaraa pahan objektina vaan teknisenä työkaluna, jota käytämme erilaisiin tarkoituksiin. Insinöörien koulutuksessa tai maailmankuvaa rakentaessa ennemmin tai myöhemmin kaikille tulee vastaan nämä esimerkit, missä tilanteessa tekniikkaa voidaan käyttää väärin: ydinvoima, dynamiitti, aseet, ruuti ja niin edelleen. Tekoäly on saman aiheen jatkumo. Nyt kun tekoälyä käytetään ihmisten arkipäiväistä elämää koskeviin asioihin, ja tekoäly tekee ihmisiä koskevia päätöksiä, tästä keskustelusta on tullut relevanttia.
OTTO: Onkin yleinen näkökulma, että tekoälyä lähestytään hyvin instrumentaalisesti. Sillä voidaan tehdä hyvää tai pahaa. Eihän algoritmi itsessään ei ole mitään, ellei sitä pistetä johonkin käyttökontekstiin. Sillä ei itsessään ole moraalisia ominaisuuksia. Mutta tekoälysovellusten moninaiset käyttötavat eivät ole moraalisesti tai eettisesti neutraaleja. Tässä onkin mielenkiintoinen dualismi: toisaalta tekoäly on väline mutta yhden ja samankin tekoälysovelluksen käyttökontekstit sisältävät selkeitä eroja myös niiden eettisissä ulottuvuuksissa.
Kenen pitäisi huolehtia etiikasta ja teknologian eettisestä käytöstä?
PERTTI: Käytännössä kiire hallitsee kehitystä. Pyritään nopeisiin ratkaisuihin epävarmuuden ja paineiden vallitessa. Mutta väitän, että jokaisella insinöörillä, suunnittelijalle ja softan tekijällä on jonkinlainen vastuu. Esimerkiksi Jenkeissä toimii kansainvälinen tekniikan alan järjestö IEEE. He ovat laatineet tällaisen ammattietiikan oppikirjan, jossa listataan erilaisia periaatteita insinööreille. Se on yksi työkalu, jota voidaan käyttää. Mutta kaikki ihmiset päätöksentekoketjussa ovat vastuussa ja velvollisia pohtimaan, mitä teknologiaa kehitetään, mitä otetaan käyttöön, mitä viedään tuotteisiin ja kenelle teknologiaa annetaan käyttöön.
OTTO: Tämä yhteisen moraalisen vastuun kysymys on kiinnostava: se on kaikilla, mutta toisaalta se on hyvin jäsentymätön asia. Itse näen näillä eettisillä ohjeistuksilla suuren arvon, mutta kentällä ja tutkimuskentässä niitä kritisoidaan siitä, että ne antavat kyllä ohjeistuksia mutta eivät ole sitovia. Niitä ei käsittääkseni juurikaan valvota. Katse kääntyy siis lainsäädäntöön, koska vastuut pitää pystyä konkreettisesti osoittamaan. Jotta voidaan löytää syylliset tarpeen tullen mutta myös osoittaa arvostusta heille, jotka sitä ansaitsevat. Hyvästä työstä palkitseminen on toinen osa moraalista toimintaa.
PERTTI: Lainsäädäntö on aina myöhässä tekniikan kehittyessä. Aina. Ellei ruveta tekemään spekulatiivista lainsäädäntöä ja siihen harva on valmis. Toisaalta EU yrittää nyt luoda jonkinlaista eettistä normistoa tekoälylle, joka voi aikanaan muuttua lainsäädännöksi.
OTTO: Tekoälysäädös on kovaa vauhtia tekeillä ja siinä pyritään setvimään juuri näitä vastuun kysymyksiä. Esimerkiksi yrityksissä valta jakautuu usein epätasaisesti. Siellä on ihmisiä, joilla on lopullinen päätäntävalta. Ja useimmiten on hyvä, että jollakin on ratkaiseva ääni. Mutta se luo myös ongelmia julkisen vastuun jakautumisen suhteen.
PERTTI: Niin, aika pahojakin ongelmia. Mitä enemmän on hierarkiaportaita, sitä enemmän informaatio valinnoista, niiden plussista ja miinuksista, vesittyy ylöspäin mentäessä. Lopulta on pelkkiä plussia. Mieleen muistuu avaruussukkula Challengerin onnettomuus vuonna 1986, jossa kahden raketin osan välinen tiivisterengas oli kumista tehty. Pakkasessa kumista hävisi kimmoisuus ja se alkoi vuotaa. Tämä oli tiedossa niin tiivisteen toimittajalla kuin kehitystiimillä, mutta sanoma vesittyi johtoportaassa ylöspäin mentäessä. Raketti käynnistettiin pakkasesta huolimatta, ja huonosti kävi. Tämä on klassinen esimerkki siitä, miten päätöksentekoa koskeva informaatio muuttuu väliportaiden kautta. Jenkeissä on tähän tarpeeseen käytössä ’Whistleblower Protection Act’. Eli kuka tahansa voi puuttua asiaan, vetää ns. pillistä, jos näkee vaaraa tai riskejä. Tällaisia pitäisi tavalla tai toisella rakentaa tekoälyn ympärille.
OTTO: Hyvä että otit tämän esille. “Whistleblowing” on todella kuuma peruna myös tekoälyn etiikassa. Tekoälyn etiikan johtavia tutkijoita on potkittu pois Googlelta, koska he nostivat esiin epäkohtia niin yrityksen työympäristössä kuin siellä kehitetyssä teknologiassakin. “Big tech” -yrityksillä on muutenkin mahdollisuudet epäeettisen toiminnan peittelyssä, ja tämä vaikuttaa myös tutkimusyhteisöön ja mediaan. Pertin anekdootista tuli mieleen myös suhteellisen tuore Boeing-lentokoneturma vuonna 2019. Lentokoneeseen lisättiin uusi ohjausohjelmisto johdon määräyksestä. Uudistus esitettiin siten, ettei lentokoneen mallia tarvitsisi muuttaa. Mallimuutokseen liittyy ilmeisesti lisäkustannuksia, koulutusta ja muuta byrokratiaa, joka haluttiin välttää. Tämä tekoälykomponentti kuitenkin muutti koneiden toimintaperiaatetta, mikä vaikutti lentokoneen ohjaukseen. Piloteilla ei ollut annettu koulutusta, eikä heillä ollut osaamista ottaa konetta hallintaan uuden ohjelmiston avulla. Tämä on se toinen toimintatapa: käsky tulee ylhäältä, ja ruohonjuuritaso pidetään pimennossa.
Tekniikan etiikka ei ole uusi aihe. Siitä on puhuttu jo vuosia. Miten ja miksi tekoäly muuttaa tätä keskustelua?
PERTTI: Meillä ei ole aiemmin ollut sellaisia työkaluja, jotka tekisivät meidän puolestamme meitä koskevia päätöksiä yhteiskunnallisesti merkittävissä asioissa. Nyt on. AI voi tehdä päätöksiä, joita aiemmin ovat tehneet esimerkiksi poliisit, juristit, sosiaaliviranomaiset ja vakuutusvirkailijat.
OTTO: Samaa mieltä. Se on teknologian käyttöönoton lisääntymisen myötä tullut muutos. Tekoälyn kohdalla uutuuksia ovat myös tietynlainen kontrollin luovuttaminen, adaptiivisuus, ja päätöksenteko, joka pohjaa ihmisten tuottamaan (historialliseen) dataan.
PERTTI: Toisaalta meillä on aina ollut teknologioita, jotka tekevät asioita puolestamme. Esimerkiksi terveydenhuollossa, turvajärjestelmissä ja niin edelleen. Taskulaskimien tuonti kouluihin synnytti aikanaan moraalista pelkoa ja paniikkia. Mikä oli tietyllä tavalla tyhmää, koska tietokone on tietysti paljon parempi laskutoimitusten tekijä kuin ihminen. Mutta silloin pelättiin, että ihminen menettää jonkin taidon.
OTTO: Keskustelu tekoälystä herättääkin paljon tunteita tässä suhteessa. Ehkä ne toimenpiteet, mitä koneelle tavallaan luovutetaan, ovat merkityksellisempiä kuin ennen? Tämä pistää pohtimaan, mitä valtaa voidaan luovuttaa ja millä ehdoilla, ja millaista arvoa siitä saadaan.
PERTTI: Lisäksi kyse on nopeasti muuttuvasta maalista. Tekoäly kehittyy nopeammin kuin yksikään toinen teknologia mitä olen eläessäni nähnyt.
Mitä pitäisi tehdä? Pitäisikö meidän muuttaa tapaa, miten teknologiaa kehitetään?
PERTTI: Näen tätä ennen kaikkea ihmisyytenä. Toivoisin, ettei kehitettäisi putkinäköinsinöörejä, jotka näkevät tekniikkaa vaan annettaisiin mahdollisuus kehittyä samaan aikaan ihmisenä. Koulutuskysymys, mutta ei pelkästään sellainen. Siihen tarvitaan ihmisyyttä ja ihmisenä olemisen kokemusta.
OTTO: Hyvin sanottu. Jaottelu “eetikko vs. Insinööri” onkin vähän keinotekoinen. Ei meillä ole “kylmiä koneita” tekemässä päätöksiä teknologian suunnittelussa vaan ihmisiä. Mutta se on kasvatuksellinen ja koulutuksellinen haaste myös toiseen suuntaan. Kun tehdään humanistista tai ihmistieteellistä analyysia teknologian vaikutuksista, tarvitaan tietoa myös teknologiasta. Toisaalta esimerkiksi Piilaaksoon liiketoimintakulttuuri ei ole välttämättä sellainen, että se tukisi eettistä harkintaa. Vaikka siellä olisikin aidosti etiikasta välittäviä ihmisiä.
PERTTI: “Money talks”. Raha on tapa ohjata moraalisia ja eettisiä kysymyksiä suurten yritysten kohdalla.
Miten yhteistyötä ja ymmärrystä etiikan ja teknologian kehityksen välillä voidaan rakentaa, jo mainitun koulutuksen lisäksi?
PERTTI: Monikulttuurisilla työtiimeillä, joissa on monenlaisia ihmisiä eri aloilta. Yleisesti tuoden yhteen erilaisia ihmisiä eri lähtökohdista erityisesti kuluttajatuotteiden suunnittelussa. Tämä on tietenkin hankala toteuttaa käytännössä.
OTTO: Samaa mieltä. Yleensä dialogia ja ymmärrystä syntyy, kun pistetään erilaisia ihmisiä samaan tilaan keskustelemaan. Monialainen yhteistyö on erittäin hyvä tapa tuoda erilaisia näkökulmia pöytään. Ja laajemmassa mittakaavassa voisi ajatella, että myös yksittäisten alojen saavutettavuutta ja niiden sisäistä moninaisuutta tulisi parantaa.
PERTTI: Mutta käytännössä suurin osa niistä ihmisistä, jotka erilaisia softia ja laitteita suunnittelevat, ovat insinöörejä. Kovin montaa humanistia ei siellä vieressä istu. Pitää olla huomattavan valistunut manageri, joka rekrytoidessa tähtää monialaisiin tiimeihin.
OTTO: Kyllä. Se on ehkä osa sitä tarvittavaa kulttuurista muutosta: jotta nähdään, että moninaisuus on myös laatua lisäävä tekijä.
Mikä on loppukäyttäjän rooli tekoälyn eettisessä kehityksessä? Onko sitä?
Loppukäyttäjällä tarkoitetaan tässä henkilöä, joka operoi tiettyä laitetta tai joka on käytön vaikutusten alainen.
OTTO: Näen montakin roolia loppukäyttäjällä. Usein AI-sovelluksia kehitetään datajoukoilla, johon loppukäyttäjäkin jotenkin osallistuu. Esimerkkinä Microsoftin TAY-botti, joka oppi twiittailemaan rasistisesti, koska Twitterin loppukäyttäjät opettivat sitä niin. Eli yleinen eettinen toiminta on osa digitalisoituvaa yhteiskuntaa ja eettistä teknologiaa. Jos teknologiaa käytetään päätöksentekoon, niin käyttäjällä pitää tietysti olla eettisiä ja laillisia velvollisuuksia. Ne ovat samoja, mitä kyseiseen toimeen yleensäkin liittyy, eikä niiden pitäisi muuttua uuden teknologian takia. Tai ainakaan hälventyä minnekään, vaikka muuttuisivatkin.
PERTTI: Tähän esimerkki Jenkeistä. Kaliforniassa on tieliikenteessä käytössä stop-merkki kuten Suomessa. Mutta siihen ei pysähdytä, vaan hiljennetään merkittävästi ja rullataan hitaasti läpi. Puhutaan Kalifornia-stopista. Tesla on opettanut autonsa tähän ihmisten tapaan, vaikka lainsäädäntö sanoo toisin. Tässä yksi esimerkki siitä, miten loppukäyttäjä voi vaikuttaa järjestelmään, sen etiikkaan ja moraaliin.
OTTO: Kyllä. Loppukäyttäjän etiikka on tietenkin myös sitä, että heille annetaan mahdollisuuksia kyseenalaistaa teknologiaa. Tietynlainen “teknologinen resistanssi” on hyvä keino tasata eettistä pelikenttää. Sen sijaan, että teknologia vaan menee eteenpäin, pyritään vaikuttamaan siihen demokraattisesti, välillä vastustamisen keinoin.
PERTTI: Tässä tulee tärkeäksi selittävä tekoäly. Se, että AI pystyisi jollain tavalla perustelemaan päätöksiään tai tuloksiaan. Tai ainakin sen, mihin dataan ne perustuvat tai millä menetelmällä se toimii. Kaikissa softissa tulisi olla kaksi nappia, joista ensimmäisessä voi kyseenalaistaa ja toisessa vastustaa.
OTTO: Voin allekirjoittaa tämän. Tuossakin tulee loppukäyttäjän rooli mielekkäästi kuvioon. Se, mitä pitäisi selittää, riippuu hyvin paljon loppukäyttäjän intresseistä. Niitähän voi olla useita erilaisia. Meillä voi olla sääntelyä tekevä tai valvova elin, joka vaatii tietynlaista tietoa. Sitten on loppukäyttäjä, joka tarvitsee sen tuloksen tai toiminnan. Selitettävyydellä ei ole mitään virkaa, ellei se tue näitä olemassa olevia intressejä.
PERTTI: Eri tahoilla on eri intressit, ja sen mukaan ne selitykset voivat olla hyvin erilaisia. Selityksiä tarvitaan eri tavoilla perehtyneille ihmisille eri tarkoituksiin.
OTTO: Sanoisin, että niiden pitää olla myös koherentteja keskenään. Eli tiedon ytimen ei pidä muuttua.
PERTTI: Myös ihmiset toimivat tällä tavalla. Annamme kummallisia selityksiä eri asioille, ja selitämme toimintaamme. Me myös valehtelemme ja tuotamme eri tasoisia valheita.
OTTO: Varmaan olennaiseksi kysymykseksi nousee lopulta se, mitä odotamme. Jos meillä on teknologia, jonka pitäisi olla ns. parempi kuin ihminen, mutta käytämme standardeina ihmisen tuottamia selityksiä. Niin se voi olla myös huono keino. Ehkä odotamme myös niiltä selityksiltä enemmän kuin ihmisiltä.
PERTTI: Todennäköisesti. Tällä hetkellä minua askarruttaa myös valtioiden väliset erot tekoälyn kehityksessä. Eurooppa yrittää pohtia tekoälyn moraalisia ja eettisiä ulottuvuuksia. Jenkeissä keskitytään liiketoimintaan. Kiina tekee mitä haluaa. Käykö niin, että Eurooppa jää tekoälyn kehityksen jalkoihin sen vuoksi, että asetamme rajoituksia tekoälyn kehitykselle? Silloin kehitys vaeltaa muualle. Tämä huolestuttaa minua aika paljon.
OTTO: En tiedä, pitääkö tästä kilpavarustelusta olla huolissaan. Aika näyttää. Toisaalta se, mikä on taloudellisesti kestävää, ei välttämättä ole sosiaalisesti kestävää. Mielestäni Euroopan lähestymistapa, puutteistaan huolimatta, rakentuu kestävämmälle pohjalla ja tarjoaa demokraattisen kontrollin paremmin näihin vaikutuksiin.
Kiitos keskustelusta – tästä on hyvä jatkaa!
Blogiteksti on toteutettu Tampereen yliopiston KITE-projektissa, jonka tarkoituksena on kehittää tekoälysovelluksia ja niiden suunnittelumenetelmiä ihmiskeskeisen teknologian tutkimusta soveltaen. Ihmiskeskeinen tekoäly korostaa loppukäyttäjien tarpeita ja huolenaiheita tekoälyn kehityksessä ja hyväksymisessä.