Jobcenter_computere_S__ren_Bidstrup_Ritzau_Scanpix
Når jobcentre og andre offentlige myndigheder anvender kunstig intelligens, er der risiko for alvorlig diskrimination af fx ledige Foto: Søren Bidstrup/Ritzau Scanpix

Ny rapport advarer om jobcenter-robotter: Øger risiko for diskrimination

12. mar 2021, 13:05
Der anbefales større gennemsigtighed af kommunernes brug af profileringsværktøjer og andre AI-teknologier.

Denne artikel er oprindeligt bragt på HK Kommunal.dk og bliver publiceret på A4 som en del af et samarbejde. Artiklen er redaktionelt udvalgt og bearbejdet af A4.

Når kommuner for eksempel bruger kunstig intelligens (AI) til at beregne risikoen for langtidsledighed hos enkelte borgere, skabes der en risiko for alvorlig diskrimination, skriver HK Kommunal.dk.

Det konkluderer Institut for Menneskerettigheder i en ny rapport, der netop ser nærmere på det offentliges brug af profileringsmodeller og anden AI-teknologi i deres sagsbehandling af borgere.

LÆS OGSÅ: Frank sendte 100 ansøgninger og fik én samtale: 'Kunstig intelligens vil forstærke aldersdiskrimination'

Risikoen for diskrimination opstår, fordi profileringsmodellerne er baseret på komplekse algoritmer, der sammenholder en lang række forskellige kendetegn, egenskaber og oplysninger fra borgerne. Ud fra de oplysninger kan de blandt andet beregne, hvorvidt borgere har ret til en bestemt ydelse.

Profileringsmodeller kan altså føre til diskrimination af en borger eller gruppe, fordi modellen bruger borgerens specifikke kendetegn i dens analyse. Eksempelvis kan modellen lægge vægt på borgerens køn eller etnicitet, som så vil blive brugt som en enten positiv eller negativ faktor i dens vurdering.

- Forbuddet mod diskrimination er en af de mest grundlæggende menneskerettigheder, vi har. Derfor er det også meget problematisk, at den her risiko for diskrimination er til stedet i kommunernes sagsbehandling, siger Marya Akhtar, der er jurist og chefkonsulent på Institut for Menneskerettigheder.

Anbefaler offentligt register

For at komme risikoen for diskrimination til livs ude i kommunerne, anbefaler Marya Akhtar, at alle offentlige myndigheder, der bruger profileringsmodellerne, forpligter sig til at teste løbende for mulig diskrimination i modellernes vurderinger.

LÆS OGSÅ: Advarer om masseovervågning af ledige: 'Man skal tænke mennesket først'

Og så er det også vigtigt, at kommunerne sikrer kvaliteten af data, så oplysninger, der eventuelt kunne lede til diskrimination, fjernes fra modellen.

- Det er vigtigt, at vi har fokus på den retssikkerhedsmæssige problemstilling, som profileringsmodellerne skaber, når de tages i brug. Men vi har også generelt brug for mere gennemsigtighed, når det kommer til kommunernes brug af kunstig intelligens, når der træffes afgørelser om borgere, siger Marya Akhtar.

Derfor foreslår Institut for Menneskerettigheder også, at der oprettes et offentligt register over, hvilke typer af kunstig intelligens, der bliver brugt i kommunerne og i hvilken sammenhæng.

- Det ville skabe en langt større gennemsigtighed for borgeren. Men det vil også være et nyttigt værktøj for kommunerne, så de kan få et klarere billede af, hvordan de bruger teknologierne andre steder. For lige nu er der intet overblik over, hvilke teknologier der er i spil, siger hun.

Lignende tiltag ser man i byer som Amsterdam og Helsinki, der har en oversigt over kommunernes brug af kunstige intelligenser frit tilgængelige på deres hjemmesider.

HK: Der er store ricisi

I HK Kommunal ser man også med alvorlige øjne på brugen af kunstig intelligens i sagsbehandlingen af borgere.

- Jeg er helt enig i, at der bør være en pligt til løbende at teste systemer og modeller for risikoen for diskrimination, og jeg er også helt enig i, at der skal være transparens, fortæller Mads Samsing, der er næstformand i HK Kommunal.

LÆS OGSÅ: Jobindex bygger job-robot: Kan bekæmpe aldersdiskrimination

Han fortæller desuden, at HK Kommunal i samarbejde med HK Stat i efteråret har sendt en række input til Digitaliseringsstyrelsen i forbindelse med en udarbejdelse af en ny fælles digitaliseringsstrategi for det offentlige.

Konkret foreslog de, at alle digitale løsninger, herunder dem der baseres på kunstig intelligens, skal igennem en analyse, så konsekvenserne for borgere bliver tydelige.

- Og så bør der tilføjes nye bestemmelser til forvaltningsloven om transparens og forklarlighed, siger han.

KL: Vi kigger nærmere på forslag

Hvorvidt der i fremtiden skal arbejdes på at få oprettet et offentligt register over anvendte AI-teknologier, kan Kommunernes Landsforening ikke svare endegyldigt på.

I et skriftligt svar til HK Kommunal skriver Pia Færch, der er kontorchef i KL, at de med interesse vil kigge nærmere på forslaget fra Institut for Menneskerettigheder.

Samtidig understreger hun, at man i kommunerne allerede nu gør meget for at undersøge, hvordan der arbejdes bedst med de muligheder, som kunstig intelligens skaber inden for sagsbehandlingen.

- Kommunerne er lige nu i gang med at gennemføre flere signaturprojekter, som skal sikre en bæredygtig og transparent tilgang til brugen af kunstig intelligens. Ligesom KL har etableret en teknologitænketank som skal bidrage med råd og vejledning i forhold til, hvordan vi bruger teknologi og data. KL understøtter også med viden om AI og en ordentlig og ansvarlig tilgang for eksempel juridisk AI værktøjskasse, netværk, aktiviteter i videncenter, skriver hun.

HK Kommunal har forgæves forsøgt at få en kommentar for Digitaliseringsstyrelsen.

Find rapporten fra Institut for Menneskerettigheder her.