Reiluus ja yhdenvertaisuus

Yhdenvertaisuus ja syrjinnän kielto

Yhdenvertaisuus tarkoittaa, että kaikki ihmiset ovat samanarvoisia lain edessä ja että heillä on samat perusoikeudet. Yksi tällainen oikeus on oikeus syrjimättömyyteen. Yhdenvertaisuuslaissa asetetaan, että ketään ei tule syrjiä iän, sukupuolen, etnisyyden tai muun henkilökohtaisen ominaisuuden perusteella. Tekoälyn kontekstissa niin kutsutut “algoritmiset vinoumat”, joista kerromme alla, voivat kuitenkin joissakin tapauksissa johtaa syrjintään.

Suomen yhdenvertaisuuslaki tunnustaa kaksi syrjinnän muotoa: Välittömästä syrjinnästä on kyse, kun ihmistä kohdellaan epäsuotuisasti kielletyn syrjintäperusteen, kuten iän tai sukupuolen, perusteella. Välillisestä syrjinnästä on kyse, kun näennäisesti neutraali sääntö tai käytänne asettaa tietyn ihmisryhmän systemaattisesti huonompaan asemaan. Moniperusteisesta syrjinnästä on kyse, kun ihmistä syrjitään kahden tai useamman kielletyn syrjintäperusteen perusteella.

Yhdenvertaisuuslaki sisältää paljon muitakin velvollisuuksia kuin syrjinnän kiellon, kuten viranomaisten, koulutuksentarjoajien ja työnantajien velvollisuuden edistää aktiivisesti yhdenvertaisuutta ja arvioida ennalta toiminnan yhdenvertaisuusvaikutuksia.

Voit lukea lisää Yhdenvertaisuus.fi -sivustolta ja Syrjinta.fi -sivustolta.

Algoritmiset vinoumat

”Algoritmisella vinoumalla” viitataan yleisesti tekoälysovelluksen taipumukseen kohdella jonkin ihmisryhmän edustajia epäsuotuisasti. Vinoutunut algoritmi siis tuottaa systemaattisesti epäsuotuisia ennusteita tai suosituksia jonkin ihmisryhmän edustajien kohdalla tai toimii huonommalla tarkkuudella, kun sitä käytetään kyseisen ihmisryhmän edustajiin. Esimerkiksi, mikäli kasvojentunnistusalgoritmi ei tunnista tummaihoisia ihmisiä yhtä usein (tai yhtä suurella tarkkuudella) kuin valkoihoisia, voidaan algoritmia pitää ihonvärin suhteen vinoutuneena.

Algoritmiset vinoumat voivat johtaa syrjiviin vaikutuksiin sekä yleisesti ottaen epäreiluihin lopputulemiin, kun algoritmeja käytetään esimerkiksi jakamaan hyödykkeitä tai määrittämään pääsyä palveluihin.

Syrjiviksi tai muutoin ongelmallisiksi vinoumiksi voidaan mieltää myös sellaiset tapaukset, joissa tekoälysovelluksen toiminta uusintaa rakenteita, jotka ovat esimerkiksi rasistisia tai sukupuolittuneita. Joissakin tapauksissa tekoälysovelluksen ennusteet voivat olla esimerkiksi tilastollisessa mielessä tarkkoja, koska ne kuvaavat historiallisia ja nykyisiä yhteiskunnan epäoikeudenmukaisuuksia – ”tarkkaakin” algoritmia käyttämällä voidaan tulla uusintaneeksi siis erilaisia rakenteellisia epäoikeudenmukaisuuden muotoja. Esimerkiksi, mikäli kielenkääntäjä-algoritmi opetetaan verkkoalustan datalla, johon sisältyy ”slurreja” tai muuta halventavaa kielenkäyttöä, se voi oppia uusintamaan tällaisia valitettavia kielenkäytön tapoja.

Algoritmisia vinoumia on kuitenkin hankala määritellä yksiselitteisesti. Vinoumia on useanlaisia. Niiden muoto riippuu algoritmin tehtävästä ja käyttämästä datasta (esim. onko kyse luonnollisen kielen prosessoinnista vaiko suosittelualgoritmeista). Niiden määrittely puolestaan riippuu siitä, käytetäänkö ”vinouman” mittapuuna esimerkiksi tilastollisia, juridisia vaiko eettisiä standardeja. Osittain tästä johtuen myös vinoumien tunnistaminen tekoälysovelluksissa on merkittävä haaste.

Syrjiviä vinoumia voi rakentua tekoälysovelluksiin esimerkiksi, jos malliin lisätään muuttuja, kuten sukupuoli . Rekrytointiyritys voisi esimerkiksi antaa työnhakijoiden arviointiin käytettävässä mallissa eri sukupuolille erilaisia painoarvoja, jolloin malli kohtelisi hakijoita eri tavoilla sukupuolen perusteella (vrt. välitön syrjintä).

Koneoppimisjärjestelmät voivat kuitenkin oppia syrjiviä vinoumia myös datasta, josta ei löydy suoraa tietoa kielletyistä syrjintäperusteista. Näille mahdollisesti välillisesti syrjiville vinoumille on yleisesti ottaen kahdenlaisia syitä. Yhtäältä koneoppimisjärjestelmien opettamiseen käytettävä opetusdata voi olla epäedustavaa tai muutoin huonolaatuista. Tällöin algoritmi ei opi tunnistamaan, mitkä tekijät datassa ennustavat ennustettavaa asiaa, kuten hakijan pätevyyttä tai tiettyä lääketieteellistä diagnoosia, eri ihmisryhmien kohdalla. Toisaalta, kuten yllä huomautimme, tilastollisessa mielessä edustavakin opetusdata saattaa heijastaa yhteiskunnassa vallitsevia syrjiviä, esimerkiksi rodullistavia tai sukupuolittuneita käytänteitä.

Esimerkiksi Amazonin rekrytoinnissaan käyttämä ansioluetteloita seulova algoritmi hylkäsi suoralta kädeltä kaikki naisten hakemukset. Tämä johtui siitä, että Amazonin käyttämässä harjoitusdatassa vain miesoletettuja sisältyi palkattujen ihmisten joukkoon ja algoritmi oppi yhdistämään naissukupuoleen viittaavat tekijät kielteiseen päätökseen. Esimerkiksi ansioluettelot, joissa mainittiin termi “naisten shakkikerho” hylättiin. (Voit lukea lisää tapauksesta englanniksi täältä.)

Kaikki vinoumat eivät kuitenkaan ole aina (ja välttämättä) syrjiviä oikeudellisessa mielessä.

Yhdenvertaisuuslaki sallii erilaisen kohtelun tietyissä tapauksissa – esimerkiksi alle 18-vuotiaalta henkilöltä voidaan kieltää pääsy anniskeluravintolaan, koska tällä käytännöllä on perus- ja ihmisoikeuksien kannalta hyväksyttävä tavoite. Algoritmisten vinoumien arvioiminen syrjinnän näkökulmasta edellyttää täten aina myös yleisemmin sovelluksen käyttötarkoituksen ja oikeutettavuuden arviointia. Rekrytointialgoritmin voidaan sallia esimerkiksi painottavan tekijöitä, jotka ennustavat hakijan pärjäämistä työssä. Tällöin algoritmin voidaan katsoa “arvottavan” tietynlaisia tekijöitä päätöksenteossa samassa mielessä kuin ihmisrekrytoijat ja yritykset tekevät hyväksyttävien liiketoimintaintressien rajoissa. Esimerkiksi sukupuoli tai etnisyys eivät kuitenkaan ole tekijöitä, joita olisi hyväksyttävää arvottaa useimmissa tilanteissa.