Artificiell intelligens och likabehandling

Diskrimineringslagen gäller också användandet av artificiell intelligens. Användningen av olika system för artificiell intelligens och beslutsfattandet med hjälp av algoritmer ökar ständigt, vilket ökar likabehandlingsfrågornas betydelse i utnyttjandet av artificiell intelligens. Användning av artificiell intelligens kan orsaka diskriminerande effekter även om detta inte är avsikten för den som utarbetar eller beställer systemet. Utnyttjandet av artificiell intelligens innebär å andra sidan också möjligheter att främja likabehandling.

Vad kan diskriminering inom artificiell intelligens bero på?

Att användningen av artificiell intelligens, såsom algoritmiskt automatiskt beslutsfattande, blir diskriminerande kan bero på många olika faktorer, till exempel: 

  • Fel eller brister i undervisningsdata som använts för algoritmen
  • Att man valt dåliga prognosvariabler eller sorteringskriterier 
  • Att algoritmen har utarbetats för att ge betydelse för diskrimineringsgrunder, såsom ålder, språk eller kön

Algoritmer som används för att identifiera ansikten har rapporterats att de bättre identifierar ljushyade människor, eftersom den artificiella intelligensen har lärts upp med hjälp av ljusa ansikten. På grund av det här drabbas mörkhyade oftare av diskriminering när det gäller falska misstankar och onödiga åtgärder. 

Även om artificiell intelligens inte direkt skulle utgå från en viss diskrimineringsgrund och sådan här information skulle tas bort ur en datamängd, kan en artificiell intelligens hitta information om en sådan person som är starkt förknippad med diskrimineringsgrunden i datamängden. Till exempel kan uppgifter om språk och bostadsort i vissa situationer korrelera kraftigt med ursprung. Artificiell intelligens kan alltså av sig själv, utan upprättarens eller användarens syfte eller vilja, leda till indirekt diskriminerande prognoser och slutsatser genom att kombinera information om en person.

Människan har ansvar för att se till att artificiell intelligens inte orsakar diskriminering

Den instans som ansvarar för och använder systemet för artificiell intelligens, såsom en myndighet, en tjänsteleverantör eller en arbetsgivare, ansvarar i alla situationer för att verksamheten är förenlig med diskrimineringslagen. Utifrån diskrimineringsansvaret har det alltså ingen betydelse om beslutet fattas av en människa eller en algoritm.

För att förebygga och upptäcka diskriminering ska artificiell intelligens övervakas och testas regelbundet. Det är nödvändigt att göra en bedömning av likabehandlingskonsekvenserna, alltså en bedömning av hur användningen av artificiell intelligens påverkar olika befolkningsgrupper och personer som hör till en minoritet, redan innan den tas i bruk. För att diskriminering ska kunna förebyggas och övervakas är det väsentligt att systemen för artificiell intelligens är transparenta. 

Diskrimineringslagen förpliktar myndigheter, privata aktörer som sköter offentliga förvaltningsuppgifter, arbetsgivare och utbildningsanordnare att främja likabehandling. Förpliktelsen gäller också utnyttjandet av artificiell intelligens. I praktiken måste man alltså redan när man planerar att använda artificiell intelligens göra en konsekvensbedömning ur ett likabehandlingsperspektiv. Skyldigheten att främja likabehandling gäller även samarbete och utlokalisering av åtgärder till privata aktörer. Till exempel ska en myndighet se till att den inte skaffar och utnyttjar diskriminerande algoritm som upprättats av en privat aktör. 

Likabehandlingskonsekvenserna av användningen av artificiell intelligens ska också beaktas som en del av likabehandlingsplaneringen.

Diskrimineringsombudsmannen övervakar diskriminering i anslutning till artificiell intelligens och algoritmer

Diskrimineringsombudsmannen övervakar förbudet mot diskriminering även i användningen av artificiell intelligens och algoritmer. Man kan anföra klagomål till ombudsmannen. Ombudsmannen kan också på eget initiativ göra en utredning om det uppstår misstankar om diskriminering i användningen av artificiell intelligens.

År 2017 förde diskrimineringsombudsmannen ett ärende om automatiskt beslutsfattande vid kreditgivning till diskriminerings- och jämställdhetsnämnden. Automatiseringen baserade sig på ett system där kreditsökandena poängsattes bland annat utifrån boningsort, kön, modersmål och ålder. Nämnden konstaterade i sitt beslut (på finska) att kreditgivarens verksamhet var diskriminering och fastställde ett betydande vite för den diskriminerade aktören.