Läpinäkyvyys eettisenä arvona voidaan ymmärtää tietynlaisena avoimuutena ja rehellisyytenä. Tekoälyn kontekstissa usein puhutaan algoritmien toiminnan ymmärrettävyydestä ja ihmisten informaatiotarpeista ja -oikeuksista.
Läpinäkyvyys on mielekästä ymmärtää välineellisenä arvona: edellytyksenä muiden eettisten periaatteiden toteutumiselle. Läpinäkyvyys palvelee muita arvoja, kuten turvallisuutta ja oikeudenmukaisuutta. Vasta, kun riittävä läpinäkyvyys on taattu, voimme varmistaa, että nämä keskeiset arvot toteutuvat tekoälyn suunnittelussa ja käytössä. Tekoälysovelluksen turvallinen käyttö saattaa edellyttää, että käyttäjä tuntee, kuinka sovellus toimii. Läpinäkyvyys tukee myös legitimiteettiä ja oikeudenmukaisuutta. Ei riitä, että tekoäly toimii oikeudenmukaisesti, vaan demokraattisessa yhteiskunnassa on olennaista, että oikeudenmukaisuuden myös ”nähdään tapahtuvan”.
Tekoälyn läpinäkyvyyteen liittyy kaksi merkittävää haastetta. Ensimmäinen haaste liittyy niin kutsuttuun “selitettävyyteen” tai “selitettävään tekoälyyn”. Tekoälyjärjestelmät voivat käyttää valtavia määriä dataa ja sisältää useita tuhansia muuttujia ja kertoimia. Erityisesti nk. syväoppivat järjestelmät ovat tunnettuja monimutkaisuudestaan. Yhtäältä tämä monimutkaisuus usein palvelee suurempaa tarkkuutta ja suorituskykyä (joskaan ei aina), mutta toisaalta se vaikeuttaa tekoälyjärjestelmien ja niiden toiminnan ymmärtämistä käyttäjän näkökulmasta. Vaikeutta (tai jopa mahdottomuutta) yhtäältä selittää ja toisaalta myös ymmärtää tekoälyjärjestelmien toimintaa kutsutaan ”mustan laatikon” ongelmaksi.
Toinen läpinäkyvyyttä koskeva haaste liittyy ”musta laatikko -organisaatioihin”. Tällä viitataan avoimuuden puutteeseen tekoälyä kehittävien tai käyttävien yritysten toiminnan suhteen. Tekoälytuotteiden ja -palveluiden tuotanto- ja käyttöketjut ovat usein todella monihaaraisia, ja suhteet eri toimijoiden välillä voivat olla epäselviä. Salassapitovelvollisuuksiin, liikesalaisuuksiin ja datan tai mallien tietosuojaan ja luottamuksellisuuteen liittyvät seikat saattavat estää kuluttajia ja kansalaisyhteiskuntaa saamasta merkityksellistä tietoa esimerkiksi käytetyistä tekoälyjärjestelmistä. Yritykset, kuten Facebook, saattavat myös aktiivisesti estää alustojen ja niillä kerätyn ja tuotetun datan käytön tutkimustarkoituksiin (lue lisää englanniksi täältä).
Avoimuus ja läpinäkyvyys myös tekoälyn käytössä on digitalisoituvan yhteiskunnan perusedellytyksiä. Helsingin kaupunki onkin esimerkiksi näyttänyt oivaa esimerkkiä avoimuuden parantamiseksi ottamalla käyttöön tekoälyrekisterin, josta voi tarkastella kaupungin käyttämiä tekoälysovelluksia.