Ny forskning: AI på jobcentre er ikke god erstatning for mennesker
En ny forskningsartikel er kritisk i forhold til at bruge kunstig intelligens til at forudsige kontanthjælpsmodtagernes risiko for langtidsledighed.
»Hovedpointen er, at hvis vi taler kunstig intelligens i jobcentrene, så er der en masse vigtig information om, hvad det vil sige at være en borger, som ikke er tilgængelig i den data, som AI-systemerne bruger til forudsige fx langtidsledighed,« udtaler ph.d.-studerende på IT-Universitetet, Anette C. M. Petersen ifølge en meddelelse.
Hun har skrevet artiklen 'We Would Never Write That Down: Classifications of Unemployed and Data Challenges for AI', sammen med Lars Rune Christensen (IT-Universitetet), Richard Harper (Lancaster University) og Thomas Hildebrandt (Københavns Universitet). Artiklen er offentliggjort i artikelsamlingen PACM HCI i forbindelse med CSCW 2021, som er den internationalt førende konference for computer-støttet samarbejde.
Anette C. M. Petersen uddyber:
»På jobcentrene placerer sagsbehandlerne kontanthjælpsmodtagerne i nogle kategorier –eller målgrupper, som de også bliver kaldt.«
Det har stor betydning for borgerne, hvor de bliver placeret, fordi det bl.a. har indflydelse på, hvilken hjælp de modtager og hvilke rettigheder de har.
»Flere steder har der været et stærkt ønske om at bruge historiske data fra en masse kontanthjælpsmodtagere til fx at forudsige sandsynligheden for langtidsledighed for de her mennesker, og det er så det, vi har undersøgt nærmere.«
Anette C. M. Petersen lavede feltarbejdet, som undersøgelsen bygger på, i Gladsaxe. Med henblik på at undersøge, hvorvidt kunstig intelligens kunne bruges til at træffe bedre og mere effektive beslutninger, studerede hun sagsbehandlernes arbejde med kontanthjælpsmodtagerne, som officielt bliver inddelt i to kategorier: 2.2, som består af de jobparate, og 2.3, som består af de aktivitetsparate – og som ikke umiddelbart er i stand til at arbejde.
Sagsbehandlere kan ikke uden videre erstattes af kunstig intelligens
Virkeligheden er dog mere kompleks end de to kategorier antyder, konstaterer Anette C. M. Petersen:
»En sagsbehandler fortæller mig, at man nærmest skal være død for at blive placeret i målgruppe 2.3. Det er utrolig svært for dem at finde beviser på, at borgerne har udfordringer, som berettiger til den placering, og samtidig er der et politisk ønske om at flytte flere borgere over i gruppen med de jobparate for at få dem i job hurtigere. Vi opdager, at langt de fleste borgere slet ikke hører hjemme i nogle af de her to kategorier.«
Borgerne befinder sig en gråzone, hvor de ikke er raske og i stand til at varetage et job, men de kan heller ikke bevise, at de syge nok til ikke at være jobparate.
»Det håndterer sagsbehandlerne ved at skabe deres egne termer, fx at en borger kan være en let, tung eller hård 2.2'er.«
Ifølge Anette C. M. Petersen hjælper sagsbehandlernes egne termer dem til at give borgerne den rette behandling og støtte, som ikke nødvendigvis kun handler om at skaffe et job, og forskningsartiklens konklusion er, at dette arbejde ikke uden videre kan erstattes af kunstig intelligens.
»Vores resultater har medført nogle spørgsmål om, hvorvidt man ikke bare kan finde andre sammenhænge i data, der identificerer som lette eller tunge 2.2'ere, og det er selvfølgelig rigtigt nok, men sagsbehandlerne sidder stadig til møder med borgerne og kan lugte, hvis der én, som lugter af alkohol eller hvis vedkommende bliver ked af det, når der bliver spurgt ind til helbredet. Så der er en masse fysiske 'clues,' som man endnu ikke kan tage teknologisk højde for.«
Ingen tegn på at AI kan tage bedre beslutninger
Anette C. M. Petersen ser ikke tegn i sol og måne på, at man ved hjælp af kunstig intelligens kan skabe it-systemer, som kan tage bedre beslutninger end sagsbehandlerne:
»De termer, som sagsbehandlerne bruger – er ifølge dem selv – ikke velegnede i et bureaukratisk system, og det er uanset, om vi taler kunstig intelligens eller andre systemer. Der er bare en masse ting, som sagsbehandlere ikke skriver ned, fordi det er mennesker, de har med at gøre, og mennesker er komplekse og foranderlige. Og ligeså snart du bruger historisk data til at forudsige fremtiden, så opstår der jo også en risiko for, at du kommer til at forstærke forholdene for de her mennesker og gøre dem permanente. Det er sagsbehandlerne meget opmærksomme på.«
Til gengæld er der en optimisme i forhold til at bruge AI-teknologier til at hjælpe sagsbehandlerne med at opsamle den information, som de skal bruge i deres sager, på en måde, hvor vurderinger og vigtige beslutninger stadig ligger hos sagsbehandleren.
Derfor håber Anette C. M. Petersen også, at artiklen i PACM HCI vil skabe debat om, hvad kunstig intelligens kan bruges til og ikke bruges til.
Artiklen er skrevet i forbindelse med forskningsprojektet Ecoknow, som har til formål at undersøge, hvordan digitale sagsbehandlingssystemer kan gøres mere intelligente, fleksible og gennemskuelige. Projektet ledes af Thomas Hildebrandt, som er professor på Københavns Universitet.
Artiklen får selskab af en anden Ecoknow-artikel: 'Street-Level Algorithms and AI in Bureaucratic Decision-Making: A Caseworker Perspective,' der zoomer ind på sagsbehandlernes syn på anvendelse af AI til at støtte deres arbejde.
Det er Thomas Hildebrandt særdeles tilfreds med:
»Det er virkelig godt at vores arbejde i Ecoknow kommer ud, hvor den bliver set – og at der er så tydelig en interesse for forskning i AI, der ikke starter med en teknologisk løsning på et muligt problem, men starter med at observere sagsbehandlernes arbejde og tale med dem om deres syn på teknologien, så vi sammen kan identificere hvilke problemer, man bør og kan løse ved hjælp af AI,« siger Thomas Hildebrandt.

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.
Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.
Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.
Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.