Hoppa till innehåll

System med artificiell intelligens ska bedömas ur ett likabehandlingsperspektiv – Färskt bedömningsverktyg ger nya möjligheter till det

Utnyttjande av artificiell intelligens kan främja likabehandling, men även leda till diskriminering eller fördjupa ojämlikheten och de diskriminerande strukturerna i samhället.

Med digitalisering och användning av artificiell intelligens kan man till exempel producera tjänster som är tillgängliga oberoende av användarnas boendeort, funktionsnedsättning eller språk. Likabehandlingen vid utnyttjande av artificiell intelligens kan markant främjas genom att öka mångfalden bland dem som utvecklar system med artificiell intelligens, erbjuda utbildning om likabehandling till systemutvecklare, köpare och beslutsfattare samt säkerställa tillräcklig transparens och övervakning av system med artificiell intelligens.

Utnyttjande av artificiell intelligens kan också leda till diskriminering om man inte redan i planeringsskedet av system med artificiell intelligens fäster uppmärksamhet vid likabehandling eller inte bedömer färdiga system ur ett likabehandlingsperspektiv. Artificiell intelligens kan även förstärka strukturell diskriminering i samhällsstrukturerna och beslutsfattandet. Maskininlärande artificiell intelligens baseras ofta på inlärning utifrån redan befintlig data. Artificiell intelligens lär sig alltså av beslut som redan fattats och information som redan producerats. Samhällets ojämlikhet återspeglas i slutsatserna, rekommendationerna och besluten av datainlärande artificiell intelligens, om man inte uttryckligen strävar efter att förhindra detta.

Därför är det mycket viktigt att likabehandlingskonsekvenserna bedöms vid planering, användning och anskaffning av system med artificiell intelligens. I sin riksdagsberättelse har diskrimineringsombudsmannen gett flera rekommendationer om frågan. I sina rekommendationer efterlyser ombudsmannen omfattande och precisa skyldigheter om bedömning av konsekvenserna för likabehandling och transparens i lagstiftningen samt bestämmelser som stödjer effektiv övervakning av artificiell intelligens och automatiskt beslutsfattande.

Ny bedömningsram hjälper att främja likabehandling vid användning av AI-system

Inom ett färskt forskningsprojekt har man utvecklat en bedömningsram för utvärdering av AI-system ur ett likabehandlingsperspektiv. Bedömningsramen bygger på en livscykelmodell för artificiell intelligens. som betonar att diskriminerande effekter av artificiell intelligens kan uppstå och manifesteras i olika faser av systemdesignen, utvecklingen och införandet av systemet. Jag deltog för diskrimineringsombudsmannen i sakkunniggruppen för projektet och vill särskilt uppmärksamma följande vad gäller bedömningsramen:

 

1. Verktyget ska användas för att främja likabehandling: 
Med verktyget kan man förebygga risken för diskriminering – detta är mycket bra. Men: Verktyget är inte avsett för och ska inte användas enbart för bedömning av risken för diskriminering. Detta verktyg ska användas också för främjande av likabehandling.  

2. Verktyget stödjer genomförandet av skyldigheterna att främja likabehandling:
Enligt diskrimineringslagen har myndigheter, utbildningsanordnare och arbetsgivare en skyldighet att planmässigt främja likabehandling. Detta förutsätter konsekvensbedömning av åtgärderna. Verktygen kan användas till detta. 

3. Myndigheter och andra aktörer med skyldighet att främja likabehandling ska regelbundet utvärdera sin verksamhet: Verksamhetens diskriminerande konsekvenser eller konsekvenser som försätter människor i en ojämlik position syns ofta först i efterhand. Konsekvensbedömning av åtgärderna ska utföras kontinuerligt också vad gäller användning av artificiell intelligens. 

4. Det är särskilt viktigt att öka kunskapen om diskriminering och likabehandling: 
Vad avses med indirekt och direkt diskriminering? Vad avses med annan omständighet som gäller den enskilde som person som diskrimineringsgrund? Vad avses med strukturell diskriminering? Kunskapen om dessa frågor och bestämmelserna om likabehandling ska allmänt ökas till exempel hos myndigheter – och nu särskilt alltså vid användningen av artificiell intelligens. 

5. Verktyget ska förankras på ministerierna och förvaltningen under dem i effektiv användning. Den nuvarande regeringen har satt som mål att säkerställa att användningen av artificiell intelligens inte är diskriminerande. Jag hoppas att även den kommande regeringen sätter konkreta mål i sitt regeringsprogram.

 

Diskrimineringsombudsmannen fortsätter sitt arbete att främja likabehandling och säkerställa icke-diskriminering vid användningen av artificiell intelligens och automatiskt beslutsfattande. Betydelsen av ombudsmannens verksamhet samt vikten av att resurser tryggas för effektiv övervakning och främjande av likabehandling lyfts fram även i forskningsrapporten och dess rekommendationer.

Det är nödvändigt att fortsätta med debatten om och utvecklingsarbetet för främjande av likabehandling vid användning av AI-system. Människor har ansvaret för att artificiell intelligens inte leder till diskriminering. Den färska bedömningsramen ger en väldigt bra möjlighet att utvärdera diskrimineringsrisker och att främja likabehandling vid användning av artificiell intelligens.

Projektet Att undvika snedvridningar vid användning av artificiell intelligens genomfördes av Demos Helsinki, Åbo universitet och Tammerfors universitet.

 

Mer information om likabehandling vid användning av artificiell intelligens:

Diskrimineringsombudsmannens berättelse till riksdagen: ombudsmannens rekommendationer om artificiell intelligens på sidan 61 (pdf)

Om artificiell intelligens samt diskrimineringsombudsmannens utlåtanden om artificiell intelligens på ombudsmannens webbplats

Undersökning: Effektivast att ingripa i algoritmisk diskriminering nu medan användningen av artificiell intelligens i Finland fortfarande är på en måttlig nivå – meddelande från statsrådets kansli

Algoritmisk diskriminering och främjande av jämlikhet: Bedömningsram för icke-diskriminerande AI – Slutrapport från projektet Att undvika snedvridningar vid användning av artificiell intelligens (på finska)

Regulating for an Equal AI: A New Role for Equality Bodies – publikation av Equinet (pdf)

Regulating for European AI that Protects and Advances Equality – Equinets ställningstagande till EU:s förhandlingar om en AI-förordning

Getting the future right – Artificial intelligence and fundamental rights. European Union Agency for Fundamental rights

Artificial Intelligence, Big Data and Fundamental Rights – European Union Agency for Fundamental rights (pdf)