Hoppa till innehåll

Diskrimineringsombudsmannens iakttagelser om hur användningen av artificiell intelligens påverkar likabehandling

Diskrimineringsombudsmannen har svarat på social- och hälsovårdsministeriets (SHM) enkät om etiken i anslutning till artificiell intelligens. Enkäten utgör en del av SHM:s utredningsarbete ”Etiikka algoritmien aikakaudella” (etiken i algoritmernas tidevarv). 

I sitt svar tar ombudsmannen upp såväl risker för diskriminering i anslutning till utnyttjandet av artificiell intelligens som de möjligheter artificiell intelligens har att främja verkställandet av likabehandling. Ombudsmannen lyfter även fram behovet av föregripande bedömning av konsekvenser och övervakning i användningen av artificiell intelligens. Utnyttjandet av olika slags system med artificiell intelligens och beslut som fattas av algoritmer ökar hela tiden, varvid även betydelsen av frågor om likabehandling i utnyttjandet av dem växer. 

Digitalisering och utnyttjande av artificiell intelligens har potential att främja likabehandling

Digitalisering, artificiell intelligens och exempelvis automatiskt beslutsfattande är starkt förknippade med frågan om konsekvenserna på likabehandling och jämställdhet. Digitaliseringen och utnyttjandet av artificiell intelligens har potential att främja likabehandling, till exempel främja likabehandling i beslutsfattandet, utveckla lösningar som stöder förverkligandet av olika gruppers, exempelvis personer med funktionsnedsättning och äldres rättigheter samt mer allmänt upptäcka faktorer från data som är väsentliga för främjandet av likabehandling i syfte att inrikta verksamheten. Samtidigt är det nödvändigt att beakta att den artificiella intelligensen kan orsaka diskriminering och i betydande skala stärka den strukturella diskriminering som idag sker i samhällsstrukturerna och beslutsfattandet. 

Myndigheterna, arbetsgivarna och de som anordnar utbildning har en lagstadgad skyldighet att utveckla utnyttjandet av artificiell intelligens uttryckligen med tanke på att främja likabehandling (diskrimineringslag 5–7 § skyldigheter att främja). Exempel: Satsar man på artificiell intelligens i syfte att säkerställa att personer som är berättigade till olika slag av samhällsstöd kan ansöka och även ansöker om stöd, om de vill eller använder man artificiell intelligens till att övervaka stödanvändning som strider mot bestämmelserna. 

Enligt 5 § i diskrimineringslagen ska myndigheterna främja likabehandling och bedöma hur likabehandling uppnås i deras verksamhet.  En myndighet ska eftersträva att i sin verksamhet avlägsna hindren för uppnående av likabehandling och ändra på sådana förhållanden (RP 19/2014, s. 61).  

Skyldigheten att främja likabehandling förutsätter att en effektiv bedömning av konsekvenserna på likabehandling görs i samband med planeringen och anskaffningen av ett system med artificiell intelligens och även under användningen.  

Användning av artificiell intelligens är även förknippad med risker för diskriminering och negativa konsekvenser på likabehandling 

Riskerna för diskriminering och potentiella negativa konsekvenser på likabehandling, jämställdhet och övriga mänskliga rättigheter i anknytning till artificiell intelligens behandlas i ett flertal internationella och europeiska rapporter (rapporter från FN-organ, EU-kommissionen, Europarådet och EU:s byrå för grundläggande rättigheter). 

Orsakerna till de negativa konsekvenser på likabehandling som system med artificiell intelligens har och särskilt diskriminering i automatiskt beslutsfattande kan vara många, exempelvis snedvridningar i data som används eller dåligt valda egenskaper hos modellen. Ju mindre genomskinlig och mer komplex den artificiella intelligensens/algoritmens funktion blir desto svårare är det att förebygga diskriminering och att upptäcka och korrigera diskriminerande konsekvenser. Diskriminering kan även vara indirekt. Även om artificiell intelligens som utgår från regler kan omfatta diskriminering är det lättare att förebygga riskerna och lättare att upptäcka diskriminering som skett än i situationer med s.k. lärande artificiell intelligens. Av den orsaken är det även med tanke på grundläggande rättigheter och likabehandling nödvändigt att ha en kontinuerlig bedömning av konsekvenserna som en grundprincip för användning av s.k. lärande artificiell intelligens.    

De negativa konsekvenserna av artificiell intelligens på likabehandling kan även ha ett samband med sättet på vilket användningen av artificiell intelligens inriktas och med vem eller vilka grupper som drar nytta av användningen av systemet som grundar sig på artificiell intelligens. 

I samband med planering och anskaffning av system med artificiell intelligens för olika kontexter är det nödvändigt att bedöma systemets konsekvenser på diskriminering och likabehandling. Det är även mycket viktigt att kontinuerligt bedöma konsekvenserna under användningen. Med beaktande av 5 § i diskrimineringslagen och 22 § och 6 § i grundlagen ska en myndighet inte heller utveckla och tillämpa automatiskt beslutsfattande på ett sätt som står i strid med skyldigheten att säkerställa de grundläggande och mänskliga rättigheterna eller skyldigheten att främja likabehandling.  

I enlighet med diskrimineringslagen har även arbetsgivare och utbildningsanordnare en skyldighet att främja likabehandling och därmed genom effektiva åtgärder förhindra eventuella negativa konsekvenser som artificiell intelligens har på likabehandling (Diskrimineringslag 6 och 7 §).

Diskrimineringsombudsmannens åsikt är att likabehandling, jämställdhet och icke-diskriminering är mycket viktiga etiska aspekter som bör beaktas i tillämpandet av artificiell intelligens.  Det finns även rättspraxis om ämnet. I Finland finns till exempel diskriminerings- och jämställdhetsnämndens avgörande om beslutsfattande vid kreditbeviljande som utgår från statistiska faktorer som grundar sig på diskrimineringsgrunder.

Funktionen hos artificiell intelligens måste övervakas och testas regelbundet i syfte att förebygga och upptäcka diskriminering

Det finns ett behov i Finland för en bredare utvärdering och samhällsdebatt kring vilken typ av reglering som ska skapas såväl för den offentliga som den privata sektorn i syfte att säkerställa förverkligandet av de mänskliga och grundläggande rättigheterna, likabehandling medräknad. Vid utvecklandet av lagstiftningen är det till exempel nödvändigt att göra en bedömning av mer omfattande och exakta förpliktelser gällande konsekvensbedömning och transparens.

Artificiell intelligens bör inte tas i bruk, om risker för diskriminering observeras i systemet eller i dess användningskontext eller -sätt. Diskrimineringsombudsmannen betonar vikten av konsekvensbedömning på förhand och kontinuerlig övervakning. Även om diskrimineringslagen föreskriver för myndigheter, arbetsgivare och utbildningsanordnare en allmän skyldighet att bedöma konsekvenserna på likabehandling i deras verksamhet, bör innehållet i skyldigheten och kretsen som den omfattar göras överskådligare uttryckligen i fråga om tillämpandet av artificiell intelligens och eventuellt utvidgas i den övriga lagstiftningen. Det finns inte heller tillräckligt med insikt och kunskap om diskrimineringslagens tillämpning på användningen av artificiell intelligens.   

Transparens i utnyttjandet av artificiell intelligens är väsentlig för att bedöma konsekvenserna på likabehandling och förebygga och ingripa i diskriminering och för effektivt genomförande av övervakning. Förverkligandet bör säkerställas genom reglering.  

Det är även viktigt att säkerställa att aktörer som tar i bruk eller planerar system som grundar sig på artificiell intelligens har tillräcklig information och kunskap för att göra en bedömning av konsekvenserna på likabehandling. Det är särskilt viktigt att detta säkerställs hos myndigheterna. 

En väsentlig fråga med tanke på likabehandling och jämställdhet är inte enbart huruvida ett visst sätt att utnyttja artificiell intelligens och dess användningskontext är juridiskt diskriminerande. Utnyttjandet av artificiell intelligens ska gynna alla likvärdigt. Användningen av artificiell intelligens kan stärka maktstrukturer och bristen på likabehandling som redan existerar i samhället. Dess konsekvenser i olika användningskontexter måste granskas särskilt hos myndigheterna ur en bredare synvinkel på social likabehandling än enbart den smala aspekten med juridisk diskriminering. 

Alla ska säkerställas tillräckliga grundläggande insikter i och utbildning om artificiell intelligens på grund av dess omfattande konsekvenser. 

Vid utvecklingen av artificiell intelligens är det viktigt att säkerställa en mångfald av experter.  

Diskrimineringsombudsmannens synpunkter presenteras närmare i utlåtandet till justitieministeriet. (på finska)

09.02.2021