Tekoäly ja yhdenvertaisuus

Yhdenvertaisuuslaki koskee myös tekoälyn hyödyntämistä. Erilaisten tekoälyjärjestelmien käyttö ja algoritminen päätöksenteko lisääntyvät jatkuvasti, jolloin myös yhdenvertaisuuskysymysten merkitys niiden hyödyntämisessä kasvaa. Tekoälyn käyttö voi aiheuttaa syrjiviä vaikutuksia, vaikka tämä ei olisi järjestelmän laatijan tai tilaajan tarkoitus. Tekoälyn hyödyntämisessä on toisaalta myös mahdollisuuksia edistää yhdenvertaisuuden toteutumista.

Mistä tekoälyn syrjivyys voi johtua?

Tekoälyn käytön kuten algoritmisen automaattisen päätöksenteon syrjivyys voi johtua monenlaisista seikoista, esimerkiksi: 

  • algoritmin opetusdatan virheistä tai puutteista
  • algoritmin huonosti valituista ennustemuuttujista tai lajittelukriteereistä 
  • algoritmi on laadittu antamaan merkitystä syrjintäperusteelle kuten iälle, kielelle tai sukupuolelle

Esimerkiksi kasvojentunnistuksessa käytettävien algoritmien on raportoitu tunnistavan paremmin valkoihoisia, koska tekoäly on opetettu valkoihoisten kasvojen avulla. Tummaihoiset joutuvat tällöin syrjivästi useammin väärien epäilysten ja turhien toimenpiteiden kohteeksi.

Lisäksi vaikka tekoälyn ei annettaisi antaa merkitystä suoraan tietylle syrjintäperusteelle ja tämä tieto poistettaisiin datasta, voi tekoäly löytää datasta sellaista henkilöä koskevaa tietoa, joka vahvasti liittyy syrjintäperusteeseen. Esimerkiksi kieltä ja asuinpaikkaa koskevat tiedot saattavat joissain tilanteissa korreloida vahvasti alkuperän kanssa. Tekoäly voi siis itsestään, ilman sen laatijan tai käyttäjän tarkoitusta tai halua, päätyä välillisesti syrjiviin ennusteisiin ja johtopäätöksiin yhdistelemällä henkilöön liittyvää tietoa.

On ihmisten vastuulla varmistaa, että tekoäly ei aiheuta syrjintää

Tekoälyjärjestelmästä vastaava ja sitä käyttävä taho kuten viranomainen, palveluntarjoaja tai työnantaja vastaa kaikissa tilanteissa siitä, että heidän toimintansa on yhdenvertaisuuslain mukaista. Syrjintävastuun kannalta ei siis ole merkitystä tekeekö päätöksen ihminen vai algoritmi.

Syrjinnän ehkäisemiseksi ja havaitsemiseksi tekoälyn toimintaa on valvottava ja testattava säännöllisesti. Yhdenvertaisuusvaikutusten arviointi, eli sen arvioiminen kuinka tekoälyn käyttö vaikuttaa eri väestöryhmiin ja vähemmistöön kuuluviin henkilöihin, on tarpeellista tehdä jo ennen käyttöönottoa. Tekoälysysteemien läpinäkyvyys on olennaista syrjinnän ennaltaehkäisyssä ja valvonnassa. 

Yhdenvertaisuuslaki velvoittaa viranomaiset, julkista hallintotehtävää hoitavat yksityiset toimijat, työnantajat ja koulutuksen järjestäjät edistämään yhdenvertaisuutta. Velvoite koskee myös tekoälyn hyödyntämistä. Käytännössä siis jo tekoälyn käyttöä suunniteltaessa on tehtävä vaikutustenarviointi yhdenvertaisuusnäkökulmasta. Edistämisvelvoite koskee myös yhteistyötä ja toimien ulkoistamista yksityisille toimijoille. Esimerkiksi viranomaisen on varmistettava, ettei se hanki ja hyödynnä yksityisen laatimaa syrjivää algoritmia. 

Tekoälyn käytön yhdenvertaisuusvaikutukset on huomioitava myös osana yhdenvertaisuussuunnittelua.

Yhdenvertaisuusvaltuutettu valvoo tekoälyyn ja algoritmeihin liittyvää syrjintää

Yhdenvertaisuusvaltuutettu valvoo syrjinnän kieltoa myös tekoälyn ja algoritmien käytössä. Valtuutetulle voi ilmoittaa tai valtuutettu voi aloitteesta selvittää, mikäli syntyy epäily syrjinnästä tekoälyn käytössä. 

Yhdenvertaisuusvaltuutettu vei automaattista päätöksentekoa luotonannossa koskevan tapauksen yhdenvertaisuus- ja tasa-arvolautakuntaan vuonna 2017. Automatisointi perustui järjestelmään, jossa luotonhakijat pisteytettiin muun muassa asuinpaikan, sukupuolen, äidinkielen ja iän perusteella. Lautakunta totesi päätöksessään luotonantajan toiminnan syrjinnäksi ja asetti merkittävän uhkasakon syrjineelle toimijalle. 

Yhdenvertaisuus- ja tasa-arvolautakunnan päätös