UNESCO:n suositus tekoälyn etiikasta avaa mahdollisuuden ihmislähtöiseen tekoälykeskusteluun

Tutkimme DIGITO-hankkeessa automatisoituja digitaalisia palveluja ja niiden tiedollista (epä)oikeudenmukaisuutta. Kysymyksemme, miten algoritminen vallankäyttö muuttaa demokratian toimintaedellytyksiä, on keskeinen niissä pohdinnoissa, joita parhaillaan maailmanlaajuisesti käydään tekoälyn eettisyyden arvioinnin ympärillä. Muiden muassa YK:n kasvatus-, tiede- ja kulttuurijärjestö UNESCO hyväksyi marraskuussa 2021 oman tekoälyn etiikan suosituksen, jonka tarkoituksena on edistää ihmislähtöisyyttä ja eettisyyttä tekoälyn kehittämistä ohjaavina arvoina.

Opetus- ja kulttuuriministeriö, valtiovarainministeriö ja Suomen pysyvä UNESCO-edustusto järjestivät 18.5.2022 webinaarin, jossa keskusteltiin UNESCO:n suosituksesta. Webinaarin puheenvuorot tarjosivat läpileikkauksen siitä ympäristöstä, johon  suositus rantautui. OKM:n Erja Heikkinen alleviivasi, että suositus huomioi myös marginaalit, mutta tarjoaa samalla globaalin näkökulman tekoälyn kehitykseen. Hän kuitenkin korosti, että teknologian sääntelyn taustalla tulee olla realistinen käsitys siitä, mitä tällaiset teknologiat käytännössä ovat. UNESCO:n edustaja Tommi Himberg esitteli suosituksen suuntaviivoja ja sisältöä korostaen kuitenkin, että suositus ei sido jäsenmaita juridisesti. Sen tarkoitus on tarjota näkökulmia ja yksityiskohtaisia toimenpide-ehdotuksia. Jäsenmailla on myös raportointivelvoite, ja tämä voisikin toimia Himbergin mukaan ihmisoikeusperustaisena ”harjoituksena” koko EU:lle. 

Webinaarin tiivis ohjelma ei mahdollistanut keskustelua, myöskään kovin kriittisiä näkökulmia ja äänenpainoja ei tullut esille. Reflektoimme webinaarin sisältöä esiin nostettujen keskeisten eettisten näkökulmien osalta ja tuomme esiin DIGITO-hankkeen tutkimus- ja kehittämiskohteita. 

Suositus suuntaviivana tekoälyn sääntelylle 

VTT:n Jaana Leikas peräänkuulutti tekoälyn moniulotteista, systemaattista tarkastelua ja muistutti sen olevan jo tällä hetkellä kiinteä osa ihmisten toimintaa. Siksi tarvittaisiin monialaista keskustelua siitä, mitä tekoäly oikeastaan on, kuinka sitä kehitetään ja kuinka sitä voidaan säädellä. Yksi tärkeä elementti tässä keskustelussa ovat erilaiset sidosryhmät. Leikas muistutti, että esimerkiksi OECD on arvostellut Suomea siitä, ettei maa ole teknologiakehityksessä ottanut tarpeeksi huomioon tärkeitä sidosryhmiä. Tällainen vaikutusmahdollisuuksien tarjoaminen olisi tärkeää esimerkiksi sosiaalisen yhtenäisyyden ja kuulumisen näkökulmasta. Leikas alleviivasikin, että tarvittaisiin lisää empiriaa, siis tutkimusta esimerkiksi siitä, millä keinoin eri tahojen tarpeita voidaan kuunnella. Muissakin seminaarin puheenvuoroissa korostettiin sidosryhmien osallistamisen merkitystä ihmislähtöisen tekoälykehittämisen edellytyksenä. Tähdennettiin myös sitä, että osallistaminen ei toteudu yksinomaan haastattelemalla näitä ryhmiä. 

DIGITO-hankkeen yhtenä tavoitteena on toteuttaa monimuotoista kanssakäymistä tutkijoiden, digitaalisten palvelujen käyttäjien ja kehittäjien välillä. Palvelujen käyttäjiä ja kehittäjiä rekrytoidaan kanssatutkijoiksi ja kehitetään menetelmiä, joilla ihmislähtöisyyttä ja kansalaisten näkemysten huomioimista voidaan lisätä sovellusten kehittämisprosesseihin. 

Elämänlaadun parantaminen ja yhteenkuuluvuuden lisääminen tavoitteiksi 

Leikas muistutti ”arvoherkkyydestä”, joka pitäisi erityisesti huomioida yritysten jokapäiväisessä liiketoiminnassa. Tällä hetkellä laajassa Suomen keskusteluilmapiirissä, jossa talous ja kilpailukyky ovat etunenässä, Unescon esiin nostama ihmislähtöisyys ymmärretään pinnallisesti. Arvot pitäisikin liittää yritysten liiketoimintaan, ettei eettinen tarkastelu jää ”tukitoimien rooliin”. Leikas nosti esiin suosituksen kohdan 14, joka korostaa tavoitteena olevan ”elämänlaadun parantamisen”. Yritysten näkökulmasta tämän elämänlaadun määritelmä tulisi pitää avoimena ja tästä tulisi keskustella yritysten sisällä. Suosituksen kohta 23 muistuttaa, että ihmisyys on kuulumista laajempiin yhteisöihin ja se ilmenee vastuuna ja huolenpitona. Yksi yhteenkuuluvuutta lisäävä toimi on erilaisten ”digikuilujen” poistaminen. Erityisryhmät ja marginaalit huomioiva, käyttöympäristöjen moninaisuuden huomioonottava kehittämisote tukisi pyrkimystä käyttää tekoälyä oikeudenmukaisen ja rauhanomaisen yhteiskuntakehityksen turvaamiseen.  

Uudenlaisten ratkaisujen kehittäminen tuottaa dynaamisia, monitahoisia vaikutuksia. Ympäristöt tai käyttökontekstit, kuten Leikas esitti, ovat jatkuvasti muutoksessa, joten on valppaasti vältettävä esimerkiksi ihmisen esineellistämistä. Leikas myös kysyi, kuinka voimme kuulla kaikkia ja reagoida heidän viesteihinsä? Hänen mukaansa tähän tarvittaisiin uusia keinoja. Hän myös alleviivasi eettisten ratkaisuiden potentiaalia ja niiden kanavoimista: onko kyseessä pelkkä ”vahinkojen välttäminen”, vai voitaisiinko tavoitella ja löytää eettisesti positiivisia ratkaisuja? Rajautuuko etiikka siihen, että tuotetaan teknologiaratkaisuja, jotka oikeastaan vain sujuvoittavat toimintaa ja panostavat kilpailukykyyn? Vai voisiko näitä valjastaa tietoisesti hyvän tekemiseen? Tekoälyratkaisut voitaisiin valjastaa yhteiseen hyvään ja sen kehittämiseen, ja näin tavoitella ihmisarvoista kilpailukykyä huomioimalla kansalaisten ja yhteiskunnan tarpeet. Yksi tapa valjastaa tekoäly ”yhteiseen hyvään” voisi olla, kuten Leikas hyvin kuvasi, että sen kehitys sidottaisiin kestävän kehityksen tavoitteisiin.  

Mikäli tekoälyn ja muiden uusien teknologioiden luonne, vaikutukset ja toimintaperiaatteet halutaan ymmärtää – ja ennen kaikkea, jos niitä halutaan hallita ja säädellä, tulisi eettisiä ulottuvuuksia pohtia myös filosofisesti. Etiikka on palautettava analyysin piiriin myös käytännössä, ei vain filosofien nojatuolien varjostamissa ajatuskokeissa. Eettisyyden arviointi on aina jatkuvasti käynnissä oleva prosessi, joka muovautuu kehitysprosessin mukana ja siinä toimivien tahojen ja ryhmien vuorovaikutuksessa. Yksi DIGITO:n tavoitteista onkin ”kanssatutkijuuden” hyödyntäminen. Kanssatutkijoina toimivat palveluiden käyttäjät ja kehittäjät tuottavat tietoa yhteistyössä tutkijoiden kanssa. Vuorovaikutuksen tavoitteena on ymmärryksen lisääminen digitaalisista palveluista.  

Tekoäly syö dataa ja vie energiaa 

VTT:n ja FCAI:n edustaja Heikki Ailisto kävi läpi tekoälyn tai koneoppivien algoritmien ja datan suhdetta. Hän alleviivasi huolellisuutta datan valinnassa. Ailiston mukaan, jos halutaan esittää tasapuolisen kohtelun vaatimus koneoppiville järjestelmille, edellyttää se ymmärrystä siitä, että tällainen järjestelmä ”syö dataa”, joka taas puolestaan heijastuu tuloksiin. Datassa on siis ”vinoumia” (bias), jotka algoritmi sitten oppii. Tässä tapauksessa vinoumat eivät ole itse teknologian, siis algoritmin tuottamia, vaan siirtyvät datasta – eli ”historiasta”, kuten Ailisto totesi. Tässä viitekehyksessä data siis heijastaa esimerkiksi jotain yhteiskunnassa ollutta ongelmaa, kuten epätasa-arvoa.  

Ailisto alleviivasi myös yksityisyyden suojan olennaisuutta. Hänen mukaansa suurten datamäärien yhdistelyn riskinä on, että algoritmi voi paljastaa yksityisyyden suojan piiriin kuuluvia asioita, vaikka henkilötunnisteet olisi poistettu ja data anonymisoitu. Kaikesta huolimatta data on tietysti olennaista niin koneoppimiselle kuin tutkijalle. Yksityisyyden suojan kysymykset kietoutuvat myös tutkimustavoitteiden kanssa: Onko oikeus kieltäytyä tietämästä? Miksi kaikki asiat pitäisi tietää? Kenen arvot vallitsevat? Mihin hyödynnettyä teknologiaa käytetään? 

Ailisto nosti esiin kestävään kehityksen vaateen huomauttaen, että tutkijatkaan eivät voi sivuuttaa kestävän kehityksen näkökulmia. Järjestelmien kehitys vaatii massiivisia resursseja, mikä vuorostaan haittaa ilmastokehitystä ja toisaalta vie resursseja pois muusta käytöstä. Ailiston mukaan esimerkiksi yksi kielenkääntämisohjelman opetuskerta vie noin 25 000 KWh:ta energiaa, joka vastaa sähkölämmitteisen omakotitalon vuosikulutusta. Tällaisilla teknologioilla on myös muita vaikutuksia: se voi esimerkiksi viedä kääntäjältä työt. Erityisen ongelmallisia ovat tulonjaon ja vallan keskittymät tilanteissa, joissa ”yksi firma hallitsee”. Ailiston mukaan tekoälykeskustelu kaipaa ”demystifiointia”. Tekoäly on sateenvarjokäsite, joka pitää sisällään monenlaiset teknologiat, kuten algoritmit ja koneoppimisen, jotka ovat aina osa jotain järjestelmää. Samalla tällainen konkreettinen tietokoneohjelmisto palvelee jotain tarkoitusta. 

Digitalisaatio muuttaa valtion ja kansalaisten suhdetta 

Anna-Mari Rusanen valtiovarainministeriöstä toi esiin tekoälyn etiikan arvioinnin haasteita. Ensinnäkin olisi päästävä eteenpäin näkemyksestä, että eettisyyden vaatimus koetaan jonkinlaisena pullonkaulana AI:n kehittämiselle. Sen sijaan on tärkeätä sitoutua olemassa oleviin hyvän hallinnon periaatteisiin perustana eettiselle etenemiselle. Lisäksi kehittämistyössä on huomioitava kontekstien moninaisuus ja sovellusten käyttötarkoitus. Toiseksi, kuten Unescon suosituksessa esitetään, on tärkeätä sanoittaa ja punnita teknologian tuomat hyödyt ja haitat. Kolmantena kohtana Rusanen nosti esiin valtion roolin ihmisoikeuksien toteuttajana Suomessa. Digitalisaation edetessä on tärkeää huomioida, miten valtion ja kansalaisen suhde muuttuu, kun algoritmit valjastetaan osaksi tätä suhdetta.  

Myös Rusanen peräänkuulutti keskustelua erityisesti päätöksentekijöiden, palveluiden kehittäjien, palveluntarjoajien sekä näitä palveluita hyödyntävien kansalaisten kesken. Jotta keskustelu on mahdollista, tarvitaan osaamista ja ymmärrystä digitalisaatiosta ja digitaalisuudesta. DIGITO tutkii millaista algoritmista vallankäyttöä automatisoituun päätöksentekoon ja digitaalisiin palveluihin liittyy haavoittuvassa asemassa olevien kansalaisten näkökulmasta. Tavoitteena on saada tietoa siitä, miten demokratian kaventuminen voidaan estää ja haavoittuvassa asemassa olevien aktiivinen kansalaisuus turvata. Hankkeessa tutkitaan ja kehitetään uudenlaisia kohtaamisen keinoja tieteellisestä tiedosta kiinnostuneiden kansalaisten kanssa. Empiirisen tutkimuksen tulokset, tieteellinen ajattelutyö, tutkijat ja kanssatutkijat saatetaan vuoropuheluun keskenään ja laajemman yleisön kanssa. 

Lopuksi 

Webinaari tarjosi hyviä puheenvuoroja ja laajahkon läpileikkauksen siitä ympäristöstä, johon Unescon suositus rantautui – ja tietysti myös itse suosituksesta. Tapahtuman luonne oli perinteinen esittelytilaisuus, jossa ei oikeastaan keskustelua käyty, vaikka muutamia lyhyitä kysymyksiä lopussa esitettiinkin. Tämä sulki ulos myös mahdolliset kriittiset näkökulmat, vaikka jotkin puheenvuorot olisivat sellaisia ehkä kaivanneetkin. Tärkeintä kuitenkin oli, että esimerkiksi jo edellä muutamaan otteeseen mainittu sidosryhmien huomioiminen tuli nostetuksi keskiöön. Tietysti se, mitä tällainen lopulta käytännössä tulee tarkoittamaan ja jääkö se vain puheen tasolle on toinen asia. 

Samanlaista huomiota ei kuitenkaan osoitettu esimerkiksi itse etiikalle: mitä se oikeastaan tarkoittaa tällaisten suositusten yhteydessä ja ennen kaikkea suositusta soveltavien viitekehyksessä. Etiikka näyttäytyi oikeastaan jonain, joka oli tavalla tai toisella jo annettu. Sen monimuotoisuudesta ja monimutkaisuudesta ei huomautettu, ja se näyttäytyi lopulta oikeastaan vain mahdollisuutena luetella toimintaehdotuksia. Etiikka on tietysti huomattavasti laajempi kokonaisuus, ja sitä tulisi pohtia myös filosofisesti, jos tekoälyn ja muiden uusien teknologioiden luonne, vaikutukset ja toimintaperiaatteet halutaan ymmärtää – ja ennen kaikkea, jos niitä halutaan hallita ja säädellä oikealla, ”eettisellä” tavalla. Etiikka on palautettava analyysin piiriin empiirisellä tasolla, ei vain filosofien nojatuolien varjostamissa ajatuskokeissa. Se on lopulta myös aina vasta muodostumassa, jotain, joka muovautuu eri sidosryhmien välisissä keskusteluissa sekä suunnittelu- ja kehitysprosessien vaiheissa aina itse käyttöön asti. Prosessien eri tasot ja vaiheet saattavat myös vaatia erilaisia etiikoita: suhtautumistapoja, näkökulmia, kysymyksiä ja vastauksia.  

Myös itse kehityksenalaisen tekoälyteknologian määritelmä saattaa muuttua prosessin kuluessa. Se alkaa abstraktista innovaatiosta, joka voi olla hyvinkin kaukana konkreettisesta tilanteesta, mutta jota ohjaa kuitenkin tietyn ilmiön rajat sekä ajattelu, joka pyrkii käsitteellistämään ilmiön. Tässä vaiheessa teknologia ei ole vielä osa konkreettista tilannetta tai kontekstia, eikä samalla tavalla uppoutunut etiikkaan, kuin konkreettinen, toiminnassa oleva tekninen järjestelmä. Toisaalta etiikan on jo nyt astuttava kuvaan, siitäkin huolimatta, että erityisesti taloudellisia hyötyjä tavoittelevat kehittäjätahot pyrkivät estämään innovaatiotoiminnan säätelyn. Tällainen ”Collingridge-dilemma”, jossa ajatellaan, että innovaatiotoimintaa ei saisi alusta pitäen säädellä, on kuitenkin usein abstraktio, sillä teknologia tulee välttämättä konkretisoitumaan kehitysprosessin aikana, muutenhan olisi kyse vain ajatuskokeesta. Lisäksi on selvää, että monia teknologioita (esim. terveys- tai sotateknologiat) on säädeltävä jo prosessien ensiaskeleista lähtien. 

Kirjallisuutta 

Collingridge, David (1980) The Social Control of Technology. Frances Pinter Ltd., London. 

Simondon, Gilbert (2017) On the Mode of Existence of Technical Objects. University of Minnesota Press, Minneapolis. 

UNESCO (2022) Recommendation on the Ethics of Artificial Intelligence. URL: https://unesdoc.unesco.org/ark:/48223/pf0000381137. 

Tutkijat

Paula Alanen

  • Apurahatutkija
  • post doc (KT)
  • Kasvatustieteiden ja kulttuurin tiedekunta
  • Tampereen yliopisto
  • +358 50 4139820
  • paula.alanen@tuni.fi
Lisätietoja

Juho Rantala

Lisätietoja