Kunstig intelligens på vej til kommunerne: Nu skal algoritmer hjælpe ledige i job

Foto: Jakub Jirsak, Bigstock
Et stort dansk forskningsprojekt vil bruge AI til at gøre sagsbehandling lettere. En del af projektet bliver at finde ud af, hvordan AI’en lever op til forskellige krav om etik, anonymitet og gennemsigtighed.

Et stort tværfagligt og tværinstitutionelt projekt ved navn EcoKnow skal i fremtiden gøre den kommunale sagsbehandling lettere.

Kunstig intelligens skal kunne kigge tidligere sager igennem for at finde mønstre, så den kan foreslå et behandlingsforløb.

For eksempel ville algoritmen kunne hjælpe borgere og sagsbehandlere på et jobcenter med at kigge tidligere sager igennem for at finde fællestræk mellem tidligere sagsforløb og den jobsøgende borger.

Derefter skal algoritmen så foreslå forskellige evidensbaserede forløb, der kunne hjælpe borgeren videre på arbejdsmarkedet. Det kunne være alt lige fra uddannelse og kurser til jobsøgninger på specifikke måder. Det er i hvert fald målet for det nystartede projekt.

»Når nu vi giver folk mere valgfrihed og flere muligheder for at vælge andre veje end fastlagte ruter, så vil vi bruge AI og process mining til at hjælpe med at navigere,« siger Thomas Hildebrand, lektor på ITU og leder af projektet.

Når EcoKnow skal trække paralleller fra tidligere sager, så er det vigtigt, at det ikke bliver gennemskueligt, hvem den sammenligner med.

Algoritmen skal derfor forsøge at tage informationen fra sagerne, uden at det går på kompromis med anonymiteten.

»Man kan sammenligne med sundhedssektoren, hvor man ville kunne se, hvilke forløb en person har været igennem, uden at vide, hvem den specifikke person er. Det bliver spændende at finde ud af, om vi kan bruge data på den her måde, hvor det rent faktisk stadig vil være anonymt,« siger Thomas Hildebrandt.

En reel risiko er, at der kan være specifikke områder, hvor der er for få sager til, at det nogensinde bliver andet end pseudonymt, hvilket ikke er tilstrækkeligt for at bruge det i sagsbehandlingen.

»Det kan betyde, at vi i starten kun kan lave anbefalinger på nogle områder, hvor der er nok volumen til, at folk stadig er anonyme. En del af projektet handler om at gøre det hele etisk forsvarligt og transparent,« siger Thomas Hildebrandt.

Alt skal være gennemskueligt

Det er vigtigt at forstå, at en algoritme ikke vil lave sagsbehandlingen, men snarere laver forslag til sagsbehandlingen, som den baserer på tidligere sager. De forslag skal både sagsbehandleren og borgeren stadig forholde sig til.

»Man kan ikke sige som argument, at det er, fordi algoritmen siger det. Den måde, algoritmen fungerer på, er ved, at den finder nogle forskellige features, og så kan man rådgive ud fra dem. Det er alfa og omega, at hvis man skal bruge en AI til at komme med forslag, så skal den også kunne komme med en forklaring,« siger ITU-lektoren og tilføjer:

»En af hovedudfordringerne er at gøre det her transparent. Vi skal finde ud af, hvordan vi kan bruge AI’en, så vi kan forklare, hvordan den finder de svar, den gør. Vi skal kunne sige, hvordan algoritmen fandt frem til det specifikke svar.«

Det er dog en svær balancegang, at man på den ene side vil have total gennemsigtighed og på den anden side total anonymitet.

Spørgsmålet er, om man ikke med sådan et system risikerer, at systemer eller sagsbehandlere pludselig får adgang til private informationer, men det er Thomas Hildebrandt ikke umiddelbart nervøs for:

»Jeg ville være meget mere betænkelig ved, hvordan sagsgangen er i øjeblikket faktisk. Mit kvalificerede bud er, at med de nuværende ESDH-systemer ligger alt på dit CPR-nr., og hvis en sagsbehandler får en sag med dig, så får vedkommende adgang til alt muligt,« siger han.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Følg forløbet
Kommentarer (39)
Lars Christensen

Endelig en chance for et offentligt IT projekt med næsten garanteret succes, idet jobcentrene pr. definition står for den laveste fællesnævner mht. intelligens, konsekvent sagsbehandling, gennemsigtighed, overholdelse af lovgivning osv. osv.
AI har normalt en del at leve op til, når der er mennesker indblandet, men i forbindelse med jobcentrene kan det kun blive bedre.
Sagt med andre ord, kan AI ikke gøre tingene bedre end nu - så må vi påregne at AI er en illusion.

Ivo Santos

En ting er at hitte ud af hvad der er det rigtige forløb, et helt andet er at finde en praktik plads som rent faktisk giver en job i den anden ende, og det kan nogen gange næsten være umuligt, da en hel del personer på offentlig ydelse ikke har papir på hvad de kan.

Mikael Kristensen

Kritikken af jobcentre er jo netop at de arbejdsløse behandles som standard objekter, at der ikke tages højde for den enkeltes særlige og forholdsvis unikke situation. Mao. du kan ikke være anonym i systemet, som omtalt.

Hvis det benyttes til at finde sammenhænge som man ikke kunne se, så er det fint, men jeg kan ikke se at det kan løse unikke personlige problemer.

Vi ved alle hvad formålet med løntilskud i det offentlige er, det har intet at gøre med at få folk i job.

Jesper Frimann

Meget Enig.
Problemet er at lovgivningen er blevet så kompleks, at hverken 'klienter' eller sagsbehandlere kan finde ud af den. Løsningen er jo så ikke, at sætte en AI til at forstå lovgivningen. Løsningen er at forsimple lovgivningen og måske automatisere noget af den sagsbehandling, som ikke har med mennesker at gøre, men som er rent 'datacrunching'.

// Jesper

Finn Christensen

Jeg har sjældent hørt noget mere tåbeligt.

Ja den her slår alle tåbeligheder med flere længder.

Før kunne der nok rejses tvivl om de kommunales manglende hastighed og egnethed, samt om mængden af regler var endt i det uoverskuelige.

Nu vil enhver ansat kunne skyde skylden på en dum AI maskine.. "selv maskinen magter ikke Hr. Uhlrichs problemer". Den siger hver gang.. "Send ham hjem, og indkald ham igen om 2 mdr."

Ynkeligt.

Thomas Hildebrandt

Hej Jesper,
Synes du er lidt hurtig på debat-aftrækkeren her. Vi har selvfølgelig ikke fået penge til naivt at drysse magisk AI-støv ud over jobcentrene.
Som du udemærket ved bringes AI i anvendelse af virksomheder også i det offentlige (se bare kommentaren fra Schultz ovenfor) og i den kontekst er det vel ret relevant at forske i hvordan det kan gøres etisk korrekt?

Thomas Hildebrandt

Er helt enig i at lovgivningen er kompleks - derfor har projektet to tekniske spor: Det ene er etisk anvendelse af AI (ikke stjernestøv:-). Det andet er digitalisering af lovgivning - ikke blot ved forenkling med henblik på automatisering, men i høj grad også ved at kunne favne kompleksiteten og understøtte både den daglige sagsbehandling og forenklingsarbejdet. Og så har projektet iøvrigt stor fokus på at studere praksis og prøve teknologierne med slutbrugere.

Thomas Hildebrandt

Prøv lige at læse artiklen een gang til - selvom det er forenklet fremstillet, så står der faktisk ret klart at AI ikke vil fungere hvis man ikke kan forklare forslaget fra algoritmerne, hvilket er en af nøgleudfordringerne. "Ynkeligt" og "tåbeligt" er lige lovlig kradse udsagn at komme med så hastigt i et debatspor der burde være sagligt, er det ikke?

Jesper Frimann

@Thomas Hildebrandt.

Først, jeg har så absolut intet mod AI, BigData eller IT generelt. Det har været min Levevej de sidste 20+ år.
Men det aller vigtigste når man bruger IT, er at man skal forstå den kontekst/ det paradigme, som IT skal bruges i/på, og konsekvenserne af at bruge det.

Lad os starte med det etiske. For at en AI skal kunne lære, hvordan den skal "foreslå forskellige evidensbaserede forløb, der kunne hjælpe borgeren videre på arbejdsmarkedet. Det kunne være alt lige fra uddannelse og kurser til jobsøgninger på specifikke måder.", vil de kræve at den skal trænes i 'at forstå' den arbejdsløses individuelle situation.
Dette skal den gøre fordi, der i servicelovens § 1, stk. 3 står:
”på baggrund af en konkret og individuel vurdering ”

(Det er den som har bragt vores integrations minister i problemer husker du nok).
Det vil sige at en AI skal have adgang til rigtig rigtig meget data om borgerne, alt lige fra Sundhedsdata til intellektuel formåen etc. etc.
Det vil kræve en samkøring af data på et nærmest kafka's niveau. Ikke at dette ikke allerede sker i dag.. dog ikke i samme grad som man ville skulle gøre her.
Vi er desuden mange der mener at borgernes data tilhører borgerne, og for som jeg skrev før ville en AI skulle snage i rigtig mange data om rigtig mange borgere. Personlig ville jeg gerne frabede mig at en AI snagede i mine data.
Hvis man så endelig fik et sådan system op og køre. Så ville de jo være ekstremt frustrerende for borgerne, at få at vide. Du skal gøre X, Y og Z for at få et job, for det siger AI'en. Manglende forståelse af offentlige processer, manglende forståelse for fordelingen af offentlige ansattes ansvar (f.eks. den der fortæller dig at du ikke kan få dagpenge mere er ikke nødvendigvis den der har besluttet det) og det øgede pres på borgerne, er listet som nogle af hovedgrundene til den øgede vold vi ser mod offentlige ansatte. F.eks. sagsbehandlere.
Og hvis du som f.eks. kommunal sagsbehandler skal fortælle borgerne nogle (af borgerne anset for at være) dårlige nyheder, som en AI 'er kommet frem til'. Så vil dette kun bidrage til det problem.
Hvis man nogensinde selv har prøvet at blive 'tromlet' af en sagsbehandler, så forstår man, hvor meget det kræver af ressourcer, at 'få ret'. Og det har folk i arbejdsløshedskøen bare ikke... hvilket er en af grundene til den stigende vold.

Så kan man overveje om man overhovedet kan frembringe en AI, der kan komme med noget.. der ikke er logik for burhøns.

1) Hvis man skal kunne komme frem med noget relevant, så kræver det at man har adgang til rigtig meget data. Det er jeg ikke sikker på at man får lov til. Jeg ville personlig ikke føle mig tryg ved at skulle overlevere data.

2) Hvis man skal kunne komme med relevante forløb, kræver det også at man forstår hvilke jobmuligheder, uddannelsesmuligheder der er geografisk i området, hvor personen bor. Og have en god ide om, hvad der sker i fremtiden. Husk på det er rigtige menneskers rigtige liv vi snakker om her.
Og nej.. det vil ikke bare blive brugt som en hjælpe funktion til en sagsbehandler. Hvis det kan bruges som et 'lavere gærde' så vil det også blive brugt.

3) Beskæftigelsespolitik og lovgivning herom, er ikke en konstant størrelse. Og den er ikke entydig.

Og det vil nok også IMHO være begrænset, hvor mange sager der ligner hinanden, hvor man kan lave et forløb der giver mening. Man kan via DST lave en simpel query.

Københavns kommune har flest bruttoledige med cirka 16.000. Den største gruppe af ledige i København er... Akademikerne.. med cirka 2800 stk. Den største grupper herunder er kvinder i alderen 25-29 år med cirka 700 stk.
Og hvordan får man så dem i arbejde ?
Jo.. der er det nok svært at lave et forløb, der hjælper dem.

Men måske ville bedre daginstitutioner, fleksibel arbejdstid for deres samboende, mulighed for fædreorlov.. etc .etc..

Igen.. der er mange områder hvor BigData i kombination med AI ville kunne hjælpe borgerne. Så måske skulle man spørge borgerne .... Jeg tænker f.eks. at et område, som trafik og klima/vejr er områder hvor vi borgerne RIGTIG RIGTIG gerne så, at man brugte kræfterne.

// Jesper

Thomas Hildebrandt

Hej Jesper,

tak fordi du tog dig tid til at uddybe din kommentar - så har jeg en mulighed for at se og kommentere på hvilke antagelser du ligger til grund for, at kalde projektet tåbeligt. Det er nogle VIRKELIG relevante problemstillinger du fremhæver - men dine antagelser om vores metoder er forkerte.

Vi har i tidligere projekter lavet feltstudier i jobcentre og har både kammeradvokaten, dansk socialrådgiverforening og sagsbehandlere i kommuner med i projektet. Så vi har selvfølgelig ikke tænkt os at automatisere eller negligere den individuelle vurdering.

Som jeg forsøgte at forklare i interviewet, så vil vi netop ikke anvende gængse AI algoritmer som du synes at antage. Lad mig understrege, at der IKKE vil være tale om at algoritmerne for adgang til mere data om borgeren end sagsbehandleren har idag i sagsmappen. Den eneste data om den borger der skal rådgives som algoritmen får, vil være sagsforløbet indtil nu, som sagsbehandler også har adgang til idag, og det vil være fuldstændig transparent.

Jeg kan altså forsikre dig om, at algoritmerne vi udvikler ikke får kafkask adgang til

rigtig rigtig meget data om borgerne, alt lige fra Sundhedsdata til intellektuel formåen etc. etc.

Så med hensyn til dit punkt 1): Ja, man skal have adgang til meget data - men ikke som du beskriver meget data om DIG (eller borgeren der rådgives) - men meget ANONYM data om borgere der har været igennem sagsforløb.

Sammenlign det med din GPS: Den kan godt give dig et billede af hvilken fremtidig rute der kunne være mest effektiv for dit konkrete mål uden at vide noget som helst om dig, bortset fra dit mål - derimod kan den drage nytte af viden om hvilke ruter folk (uden at vide hvem det er!) med sammenligneligt mål har fulgt.

Så kan du - og din medpassager (sagsbehandleren) selv vurdere om ruten GPS'en foreslår giver mening i DIN situation. Dermed adresseres din anden bekymring - der er ikke tale om en automatiseret beslutning - men om at både borgere og sagsbehandlere kan se forskellige typiske tilbud i lignende situationer (baseret på data) som sagsbehandler og borger kan tage stilling til om giver mening for den enkelte.

(Jeg er som sagt udemærket klar over, at loven om aktiv beskæftigelse og rådgivning af arbejdsløse er mere komplekst end at finde vej i en bil, analogien tjener kun til at sige at der findes og er muligt at udvikle alternativer til gængs AI - og det er vores ambition, ellers ville det jo ikke være et forskningsprojekt.)

Endelig er det også NETOP et fokusområde for projektet at lovgivningen ændrer sig - og at den ikke er entydig. Derfor vil en stor del af projektet handle om at udvikle teknologier til at kunne digitalisere en foranderlig lovgivning - uden at antage at vi først kan gøre den fuldstændig "objektiv og entydig" på alle punkter.

Jeg håber at du vil give os en chance og overveje, om ikke vi kunne være lidt mindre tåbelige - trods alt har vi også +20 års erfaring og har arbejdet mange år med digitalisering (og støtte) af arbejdsgange med udgangspunkt i betydningen for de mennesker der er en del af processerne. For der er jo ikke tvivl om fra hvad du skriver at du mener at der er plads til forbedring i hvordan sagsbehandlingen foregår idag.

Thomas Hildebrandt

Og for lige at følge op på:

Københavns kommune har flest bruttoledige med cirka 16.000. Den største gruppe af ledige i København er... Akademikerne.. med cirka 2800 stk. Den største grupper herunder er kvinder i alderen 25-29 år med cirka 700 stk.
Og hvordan får man så dem i arbejde ?
Jo.. der er det nok svært at lave et forløb, der hjælper dem.

Men måske ville bedre daginstitutioner, fleksibel arbejdstid for deres samboende, mulighed for fædreorlov.. etc .etc..


Se her kunne det jo være interessant, hvis man ikke bare kunne se at" Den største grupper herunder er kvinder i alderen 25-29 år med cirka 700 stk." i København - men at man på landsplan kunne se, at det netop er de kvinder i kommuner med dårligste daginstitution tilbud, ægtefæller der ikke tager fædreorlov etc etc som har problemerne, så man med data og ikke antagelser som dine kunne pege på hvad der skulle til for at få flere i job. Ingen Kafkask skjult indsamling af data, men ren statistik på åbne (anonyme) data anvendt transparent i rådgivingen.

Bjarne Nielsen

Personlig ville jeg gerne frabede mig at en AI snagede i mine data.

Og det er sådan set kernen. Det vil jeg også på kraftigste frabede mig.

Men her tager man en gruppe, som ikke kan sige nej, og bruger dem som forsøgsdyr i en samfundseksperiment. Og selv hvis de kan, tør de så, for hvordan vil det ikke se ud, når de sådan 'nægter' at samarbejde?

En gruppe, som i forvejen i høj grad føler sig mistænkeliggjort, ydmyget og umyndiggjort, som hovedsageligt oplevet IT som et kontrol- og overvågningredskab, og hvor selv den mindste udtalelse, uanset hvor uskyldig den måtte forkomme, vil kunne blive brugt imod dig. Og hvor konsekvenserne kan være uoverskuelige.

At der ikke skulle være adgang til mere, end hvad man allerede har tilgang til, er kun en ringe trøst, for adgangen er allerede alt for vid.

Jeg kan ikke, hvordan man vil kunne gøre dette uden at det bliver endnu et overgreb imod folk, der i forvejen ligger ned.

Hvis man skal eksperimentere med mennesker, så start et andet sted. Et helt andet sted! F.eks. unge mennesker på Roskilde, som efter et informeret og reelt samtykke, selv ønsker at donere sig selv og privatlivet til videnskaben. Og start allerhelst med at holde rigtige mennesker udenfor.

Mikkel Holm

Thomas Hildebrandt "Vi har i tidligere projekter lavet feltstudier i jobcentre og har både kammeradvokaten, dansk socialrådgiverforening og sagsbehandlere i kommuner med i projektet. Så vi har selvfølgelig ikke tænkt os at automatisere eller negligere den individuelle vurdering."

Jeg er nysgerrig på at høre om du, Thomas Hildebrandt ligeledes har brugerne med i projektet? Eller har man blot taget deres personlige data ufrivilligt og brugt til forsøg?
Jeg er velviden om at du argumentere at de er anonyme og det er store mængder data. Men hvis du er så skråsikker på at din etik er i orden her, kan en samtykke vel komme på tale for dem der indtil nu, ufrivilligt har deltaget i Jeres projekt?

Indfør Borgerløn, afskedig størstedelen af sagsbehandlerne og dermed fjerne det ineffektive bureaukratiet. Hermed stopper man ganskevist nok Thomas Hildebrandt forskningsgrundlag, men det kunne åbne op for at forske i noget fornuftigt der var til gavn for befolkningen.

Thomas Hildebrandt "Sammenlign det med din GPS: Den kan godt give dig et billede af hvilken fremtidig rute der kunne være mest effektiv for dit konkrete mål uden at vide noget som helst om dig, bortset fra dit mål - derimod kan den drage nytte af viden om hvilke ruter folk (uden at vide hvem det er!) med sammenligneligt mål har fulgt."

For at understrege min pointe, tager jeg et alvorligt eksempel med her. Lad os antage at der politisk er et ønske om at nedbringe kontanthjælpsmodtager (koster penge). Man skruer derfor på forskellige parameter (lovgivning) og ser over tid at dette føre til flere selvmord, fordi folk simpelthen er blevet presset derud af systemet (spare penge).
Hvilke tanker har du gjort dig om det potentielle værktøj du ønsker at skabe?

Thomas Hildebrandt

Bjarne, der vil netop ikke blive tale om at AI-software snager i data. Softwaren vil kun se anonyme data - som man som borger (og sagsbehandler) kan bruge til at gøre det mere synligt hvad der sker - ikke mindre synligt og Kafkask.

Borgerne bliver ikke forsøgsdyr i et samfundseksperiment - men vi får et værktøj der kan hjælpe os til at se HVAD der bliver brugt i sagsbehandlingen og stille spørgsmål til om det er rimeligt. Systemet ville endda kunne fungere i en verden hvor kun borgerne kendte til sine egne data - den kamp er et længere sejt træk, som jeg også personligt støtter op om.

Kort sagt, vi eksperimenterer ikke med mennesker - men prøver at rette op på det problem du også nævner: At sagsbehandlingen og reglerne i dag er uigennemskuelige for både borger og sagsbehandler.

Thomas Hildebrandt

Mikkel, vi har ikke brugt personhenførbare data i dette projekt (som lige er startet)- det er netop pointen.

I de tidligere projekter jeg har deltaget i, hvor der har været studier af arbejdsgange i jobcentre, har borgerne der har deltaget været fuldt indforstået -og givetvis glade for, at der var nogen der rent faktisk tog sig tid til at se på hvordan sagsbehandlingen foregår og arbejder med hvordan vi kan forbedre den.

Og imens vi venter på borgerlønnen og regelforenkling synes jeg det giver god mening at sagsbehandlere og borgere kan bruge IT til at få mere gennemskuelighed i sagsbehandlingen og lovgivningen.

Mikkel Holm

Thomas Hildebrandt "(..)Systemet ville endda kunne fungere i en verden hvor kun borgerne kendte til sine egne data - den kamp er et længere sejt træk, som jeg også personligt støtter op om."

Kan du prøve at uddybe hvordan det teknisk skal løses? Det hænger ikke sammen. Enten har du og jeg kun adgang til egne data eksempelvis krypteret, eller også har et andet system krypteringsnøglen når den skal hive data ud for at anonymisere.

"I de tidligere projekter jeg har deltaget i, hvor der har været studier af arbejdsgange i jobcentre, har borgerne der har deltaget været fuldt indforstået -og givetvis glade for, at der var nogen der rent faktisk tog sig tid til at se på hvordan sagsbehandlingen foregår og arbejder med hvordan vi kan forbedre den."

Så bliver jeg nysgerrig, er der samtykke erklæring for hver borger der har deltaget og er de indforstået med mulige konsekvenser?

Jeg håber vi kan blive enige om, at selvom de data der er brugt er anonymt, bygger de jo på personlige oplysninger der er givet i tillid til systemet. Og efter min opfattelse har folk ikke givet samtykke herom. Etisk ikke i orden.

Mikkel Holm

"Og imens vi venter på borgerlønnen og regelforenkling synes jeg det giver god mening at sagsbehandlere og borgere kan bruge IT til at få mere gennemskuelighed i sagsbehandlingen og lovgivningen."

Vi skal ikke bruge AI til at løse et system der er broken by design. Vi skal derimod lave et simpelt system der giver borgeren tryghed og mulighed. Lige nu fastholder vi borgerne på kontanthjælp, så der er en syndebuk der kan skydes på. Og din forskning giver nu bedre skyts til den politiske elite. At du kan være det bekendt.

Thomas Hildebrandt

Hej Mikkel,

"Kan du prøve at uddybe hvordan det teknisk skal løses? Det hænger ikke sammen. Enten har du og jeg kun adgang til egne data eksempelvis krypteret, eller også har et andet system krypteringsnøglen når den skal hive data ud for at anonymisere."

Ja, pointen er at man ikke behøver at vide hvilke konkrete personer der ligger bag data for at kunne lave statistikker. Hvis det kun er dig der kender dine egne data, kan du sammenligne dem med statistikkerne - og f.eks. se hvilke muligheder du burde have, og dermed være klædt på inden mødet på jobcenteret. Det er ikke indenfor projektets ramme at gøre op med at data bliver gemt på CPR-numre i danmark - men jeg er også selv en forkæmper for at vi gør op med registrering af data så det kan henføres til personer, og det vi laver i det nye projekt er ikke afhængige af at systemet kender til hvilke personer der ligger bag data.

Tro det eller ej - vores mål er faktisk IT der kan hjælpe til at få det simple system som kan give borgeren tryghed og mulighed som du efterspørger -
ved at gøre det synligt hvilke data der ligger til grund for beslutninger.

Jesper Frimann

Hej Thomas.

Tak for dit svar. Igen, jeg tvivler ikke på styrken af AI kombineret med store datamængder. Jeg mener bare, at med de problemer som vores samfund står over for, så bliver dit og dine kollegaers talenter brugt forkert.
Jeg forstår godt situationen som forskere sidder i i dagens Danmark, jeg har selv professorer i familien, der selv skal finde finansiering af egen forskning. Og det er ikke altid kønt. Så ja..

Vi har i tidligere projekter lavet feltstudier i jobcentre og har både kammeradvokaten, dansk socialrådgiverforening og sagsbehandlere i kommuner med i projektet. Så vi har selvfølgelig ikke tænkt os at automatisere eller negligere den individuelle vurdering.

Jo, men tror du seriøst at en sagsbehandler, der vil sidde med en anbefaling fra en AI har anden mulighed end at følge AI'ens bud, også selv om han/hun på baggrund i sin faglighed mener, at "rådet" er forkert ?
Menige offentlige medarbejdere er i dag generelt så 'whipped', at ja..

Og hvis jeg må være så fræk at spørge, hvor mange 'klienter/kunder' har i interviewet i projektet ? Når det kommer til stykket må success kriteriet jo være at det er borgerne, ikke de offentlige ansatte og kammeradvokaten, der synes at rådgivningen er en success.
Kammeradvokaten og fagforeningernee, undskyld jeg siger det lige ud, dækker jo ikke kunderne/klienterne/borgernes ryg. Når det kommer til stykket, så er der ikke særlig mange, der lige dækker ryggen for de arbejdsløse..

Lad mig understrege, at der IKKE vil være tale om at algoritmerne for adgang til mere data om borgeren end sagsbehandleren har idag i sagsmappen. Den eneste data om den borger der skal rådgives som algoritmen får, vil være sagsforløbet indtil nu, som sagsbehandler også har adgang til idag, og det vil være fuldstændig transparent.

Det forstod jeg godt til at starte med :) Men hvis du ikke har adgang til sundhedsdata m.m. altså rå mere objektive data, hvordan vil du/I så kunne definere et succes kriterie, som har bund i virkeligheden ? Husk på at det kan da godt være at en journal siger, at sagsbehandlingen var en succes, men det behøver det jo så absolut ikke at have været for borgeren.
Det er relativt nemt, at få folk ud af statistikkerne, få afsluttet en sag med en 'god retur kode'. Men det er ressourcekrævende, i kroner og øre, virkelig at hjælpe folk. Også selv om det formodentlig (det mener jeg 100% sikkert det er) er den klart bedste ting at gøre samfundsmæssigt på langt sigt.
Hvad er f.eks vægtningen af at enable en enlig mor til fire at kunne bryde den social arv for sine børn, i forhold til at tvinge hende i arbejde med f.eks. 4 timers daglig transport ?

Jeg er som sagt udemærket klar over, at loven om aktiv beskæftigelse og rådgivning af arbejdsløse er mere komplekst end at finde vej i en bil, analogien tjener kun til at sige at der findes og er muligt at udvikle alternativer til gængs AI - og det er vores ambition, ellers ville det jo ikke være et forskningsprojekt.)

Ja, færdselsreglerne er til at overskue, mens så vidt jeg husker fylder vejledningen på dagpenge og kontanthjælps området vist nok 30.000 A4 sider hvis man printer dem ud. Og når vi så tager persondataforordningen med ind over.. og og og og .. så ja.. bliver det hurtigt komplekst.

Endelig er det også NETOP et fokusområde for projektet at lovgivningen ændrer sig - og at den ikke er entydig. Derfor vil en stor del af projektet handle om at udvikle teknologier til at kunne digitalisere en foranderlig lovgivning - uden at antage at vi først kan gøre den fuldstændig "objektiv og entydig" på alle punkter.

Jo, men insatsen skal jo gøres ved 'sourcen', altså når lovgivningen udformes, og ikke når den skal fortolkes/bruges. Det er jo netop en af de fejl vi laver i Danmark. Nemlig at lovgivningen er selvmodsigende, uklar og alt alt for omfangsrig.

Og jeg må sige at jeg stadig ikke kan se fidusen i projektet. Jeg kan derimod se en masse andre steder, hvor der er brug for 'jer' og det I kan. Igen vi står over for kæmpe udfordringer i samfundet og ja..
// Jesper

Mikkel Holm

Hej Thomas,

Ved ikke om det er bevidst du taler udenom problematikken og undgår at besvare mine bekymringer? Du forholder dig ikke til det skrevne.

Data er i første omgang personførbar og skal igennem en anonymiserings proces. Det er denne proces jeg gerne vil have du tager stilling til. Det er fint du vil gøre op med personførbar data, men så har du heller ingen data til dit projekt. Det hænger ubetinget sammen!

Du må gerne give uddybning af hvordan din forskning giver tryghed? Jeg ser det som modsætning - direkte tryghedsskabende, umyndiggørelse og mistænkeliggørelse. Kan en borger eksempelvis få indsigt i om de indgår i de anonymiserede dataset?

Thomas Hildebrandt

Hej Jesper,

tak for de relevante indspark og spørgsmål !

"Jo, men tror du seriøst at en sagsbehandler, der vil sidde med en anbefaling fra en AI har anden mulighed end at følge AI'ens bud, også selv om han/hun på baggrund i sin faglighed mener, at "rådet" er forkert ?"

Den tvivl du har er jo netop argument for at vi skal forske i det her: AI er allerede en del af sagsbehandlingssystemerne, så derfor er der akut behov for at forske i konsekvenserne og finde ud af om den kan bruges etisk korrekt. Ja, jeg tror på at vi kan finde en anvendelse af data og AI som sagsbehandleren kan bruge SAMMEN med sin faglighed og ikke i konkurrence med sin faglighed - og jeg deler din tvivl mht om nuværende algoritmer og brug af AI vil kunne det.

"Og hvis jeg må være så fræk at spørge, hvor mange 'klienter/kunder' har i interviewet i projektet ? " Ja: Projektet er lige startet, så ingen interviews endnu (i dette projekt) -men det er en del af projektet at gennemføre interviews med borgere og også at få anonym feedback så vi kan se om teknologierne faktisk opleves som en forbedring.

"Men hvis du ikke har adgang til sundhedsdata m.m. altså rå mere objektive data, hvordan vil du/I så kunne definere et succes kriterie, som har bund i virkeligheden ?": Det er vist en længere diskusison om sundhedsdata m.m. er nødvendige for at afgøre om jobcenter-indsatser er succesfulde eller ej. Vores mål er at det bliver synligt hvad kriterierne er og at man kan ændre på dem. Derved kan vi som borgere også gøre indsigelser hvis vi ikke er enige med kriterierne for success. Men vi kan vel alle være enige om at det ville være rart hvis vi fik nedsat antallet af sager hvor loven ikke er blevet fulgt til borgerens fordel, så borgeren i bedste fald har fået ret efter at have klaget og fået medhold efter et langt forløb? Det er eet af vores success-kriterier: At få nedsat antallet af sager der ikke har fulgt loven - og antallet af klager som følge af dette.

"Hvad er f.eks vægtningen af at enable en enlig mor til fire at kunne bryde den social arv for sine børn, i forhold til at tvinge hende i arbejde med f.eks. 4 timers daglig transport ?": Algoritmen vil ikke lave den vægtning, da da den ikke analyserer på den enkelte borger. Sagsbehandleren og borgeren vil stadig skulle lave denne vægtning.

"Ja, færdselsreglerne er til at overskue, mens så vidt jeg husker fylder vejledningen på dagpenge og kontanthjælps området vist nok 30.000 A4 sider hvis man printer dem ud. Og når vi så tager persondataforordningen med ind over.. og og og og .. så ja.. bliver det hurtigt komplekst."
Netop - derfor har vi fokus på at lave teknologi der kan hjælpe med at finde vej i lovgivningen - og sætte spot på hvor den ikke giver mening.

"Jo, men insatsen skal jo gøres ved 'sourcen', altså når lovgivningen udformes, og ikke når den skal fortolkes/bruges. Det er jo netop en af de fejl vi laver i Danmark. Nemlig at lovgivningen er selvmodsigende, uklar og alt alt for omfangsrig.": Tror ikke at vi er så uenige - dog finder du ikke ud af hvor lovgivningen er selvmodsigende og uklar uden at se på der hvor den fortolkes og bruges!

"Og jeg må sige at jeg stadig ikke kan se fidusen i projektet. Jeg kan derimod se en masse andre steder, hvor der er brug for 'jer' og det I kan. Igen vi står over for kæmpe udfordringer i samfundet og ja..": Jeg håber du får mere fidus til projektet med tiden - vi er kun lige gået igang - og så er teknologierne vi udvikler jo ikke specifikt til beskæftigelsesloven - de kan bruges på mange andre områder end dem vi har valgt som case - kompleks lovgiving findes jo desværre rigtig mange steder, så vi håber at vores løsninger kan hjælpe med at rydde op uden at ensrette og objektivisere uden blik for kompleksiteten der hvor loven kommer i anvendelse...!

Nu må jeg hellere hoppe i seng - min datter vågenede lige og spurgte om jeg ikke kom i seng - tak for gode indspark.
Thomas

Thomas Hildebrandt

Hej Mikkel,

et kort svar, da min datter har bedt mig komme i seng. Først og fremmest: Jeg forsøger ikke bevidst at tale uden om noget - det synes jeg er en ufin debattone.

Det jeg skriver er, at jeg gerne ser en fremtid hvor data netop ikke personhenførbare. Mit projekt er ikke afhængig af at jeg kan se HVEM der har været gennem et sagsforløb. Vi ser kun på f.eks. at hvis 99% af borgerne ikke har haft nytte af et uddannelsesforløb i at flette kurve, så har man evidens for ikke at anbefale det. Vi er fuldstændig ligeglade med hvilke borgere det er og vil heller ikke kunne se det (heller ikke den 1% der havde glæde af det). Kunne vi få et samfund hvor data i langt større grad ikke blev gemt personhenførbart - heller ikke i første omgang - ville jeg kun være glad. Men det er uden for scope af dette projekt.

Nå, nu må jeg hellere krybe til køjs. Sov godt,
Thomas

Mikkel Holm

Hej Thomas,

Jeg ser hellere et system hvor data bliver gemt personhenførbart og der føres kontrol over hvem der tilgår det. Det handler om tillid, og må sige med et projekt som dit, forsvinder tilliden desværre lidt efter lidt.

Dit projekt bygger på anonym data, hvilket er målet. Men de data er i første omgang personhenførbart. Du slipper derfor et program eller service indeholdende algoritme løs på personlig data. Set ud fra en IT-faglig synspunkt er det under al kritik at det kan forekomme - specielt uden samtykke. Det er netop det jeg beder dig forholde dig til, men igen svare du ikke herpå.

Jeg har utrolig svært ved at forstå, at du ikke forstår hvilke konsekvenser det kan have at slippe en algoritme løs på personhenførbart data. Det lyder nobelt med kurveflet og forstår godt dit ønske/formål. Men hvad hvis du i stedet måler på sygdom, socialt bedrageri, udeblivelse, lukning af social ydelse, sociale relationer (bandemiljø mv.). Det er en glidebane uden lige.

Thomas Hildebrandt

Godmorgen, Mikkel.

Hvis man, som idag, har et system der gemmer data personhenførbart er der lige præcis brug for tillid til kontroller og anvendelser langt ud over hvad teknologien kan sikre dig. Det har der desværre været en række eksempler på.

Jeg snakker ikke uden om: Fra et IT-fagligt synspunkt giver det ikke mening at sige, at vi slipper en algoritme løs på personhenførbare data. Når data er anonyme (altså ikke bare pseudonymiserede) kan de ikke henføres til personer og derfor er de fra et IT-fagligt synspunkt ikke personhenførbare.

Ud fra vores korrespondence kan man se at jeg har sovet for lidt i nat, og man kan ad andre offentliggjorte personhenførbare data finde ud af at jeg er forsker og 45 år gammel. Men hvis denne data ligger til grund for et anonymt datasæt der fortæller at 40-50 årige forskere sover en time for lidt om natten så er disse data ikke længere personhenførbare.

Jeg kan ikke ændre på, hvis du foretrækker et system, hvor data om dig bliver registreret så de kan føres tilbage til dig, og hvor det er svært gennemskueligt både for sagsbehandlere og dig selv, hvilke informationer der anvendes i din sagsbehandling - og hvor det heller ikke er muligt at vide om reglerne bliver tolket på samme måde i dit jobcenter som de bliver tolket i et andet jobcenter. Som systemet er lige nu, kan du netop ikke som borger vide om det er sygdom, socialt bedrageri, udeblivelse, lukning af social ydelse, sociale relationer (bandemiljø mv.) der havde den afgørende betydning for de tilbud eller mangel på samme du møder i "systemet". Et sådant system bygger helt ekstremt på tillid som desværre ikke altid kan efterleves og derfor ender med at avle mistillid - også til de forskere der prøver at udvikle it-systemer der kan ændre på situationen.

Hvis du derimod havde adgang til at kunne sammenligne din sag med anonyme statistikker og parametrene var helt gennemsigtige så ville du og jeg kunne klage over at vi var blevet behandlet dårligere end folk i samme situation, og vi ville kunne klage over at banderelationer var registreret og indgik i vurderingen af din sag.

Jesper Frimann

Den tvivl du har er jo netop argument for at vi skal forske i det her: AI er allerede en del af sagsbehandlingssystemerne, så derfor er der akut behov for at forske i konsekvenserne og finde ud af om den kan bruges etisk korrekt.


Det kan vi kun være 100% enige i.

Ja, jeg tror på at vi kan finde en anvendelse af data og AI som sagsbehandleren kan bruge SAMMEN med sin faglighed og ikke i konkurrence med sin faglighed - og jeg deler din tvivl mht om nuværende algoritmer og brug af AI vil kunne det.


Det tror jeg simpelt hen ikke på. Det bliver ikke SAMMEN med.. det bliver AI'ens forslag, der bliver 'sandheden'. Alle de store 'reformer' vi har set de seneste år, har kun haft et mål, nemlig at knægte fagligheden således, at den ikke står i vejen for politisk micro-management. Og meget ofte har IT været den hammer, der er blevet brugt til at slå fagligheden oven i hovedet. Lige nu ser vi det med standardiserede klick klick behandlings forløb i sundhedsplatformen, som presses ned over områder, hvor det gør mere skade end gavn.
Ikke at standardiseret IT understøttet behandling ikke er godt for det trivielle 'standard' arbejde, men for de 20% som ofte kan tage 80% af tiden, der giver det bare ikke mening.

Det er vist en længere diskusison om sundhedsdata m.m. er nødvendige for at afgøre om jobcenter-indsatser er succesfulde eller ej.


Det er vel temmelig åbenlyst, at hvis du har en klient med et alkohol problem, så kan du ikke henvise ham/hende til et job som buschauffør.
Hvis du har en klient med allergi over for tomater og pollen fra blomster, så skal vedkommende ikke i erhvervspraktik i et gartneri.
Hvis du har en ex-soldat med ptsd, så er det nok ikke en god ide at sende en i erhvervspraktik som fyrværker.
Og det kan godt være, at dette står i journalen på jobcenteret, men det er jo basalt sundhedsdata, som ikke hører hjemme i den journal, det hører hjemme i din sundheds journal. Det er simpelt hen dårlig data disciplin, og vil føre til dårlig sagsbehandling. Den eneste gang jeg sådan har været i klørene på en sagsbehandler, valgte sagsbehandleren at spille læge, og komme med lægefaglige konklusioner, for at fremme den konklusion hun allerede havde bestemt sig. Tro mig det kunne du ikke se ud af journalen, det kunne man som udenforstående kun se ved, at se i den relevante sundheds journal.
Så ... hvis ... en AI seriøst skal kunne hjælpe med henvisninger af forløb, skal den have adgang til relevante data. Og surprise.. det hele står ikke i en sagsbehandlings journal.
Igen jeg forholder mig til at der i artiklen står:

Derefter skal algoritmen så foreslå forskellige evidensbaserede forløb, der kunne hjælpe borgeren videre på arbejdsmarkedet. Det kunne være alt lige fra uddannelse og kurser til jobsøgninger på specifikke måder. Det er i hvert fald målet for det nystartede projekt.

Så skal den have adgang til at 'læse' relevante journaler ud over det der står i journal fra f.eks. jobcenteret.

Vores mål er at det bliver synligt hvad kriterierne er og at man kan ændre på dem. Derved kan vi som borgere også gøre indsigelser hvis vi ikke er enige med kriterierne for success. Men vi kan vel alle være enige om at det ville være rart hvis vi fik nedsat antallet af sager hvor loven ikke er blevet fulgt til borgerens fordel, så borgeren i bedste fald har fået ret efter at have klaget og fået medhold efter et langt forløb? Det er eet af vores success-kriterier: At få nedsat antallet af sager der ikke har fulgt loven - og antallet af klager som følge af dette.


Jo, det kan vi da være enige i. Men igen så er det symptom behandling. Og IMHO lidt af en fallit erklæring, at vi er nødt til at have en AI til at læse sagsakter igennem for at hjælpe sagsbehandlere med at følge loven. Men det er selvfølgelig ikke 'jeres' skyld.
Men jeg synes lidt det er et kortsigtet taktisk tiltag, at smide 'the best and the brightest' efter et taktisk problem, når der nu er så mange strategiske langsigtede problemer, hvor jeres tid kunne bruges bedre.

Ja: Projektet er lige startet, så ingen interviews endnu (i dette projekt) -men det er en del af projektet at gennemføre interviews med borgere og også at få anonym feedback så vi kan se om teknologierne faktisk opleves som en forbedring.


Jeg tror ikke (igen med udgangspunkt i jobcentrene, som der står i artiklen), at du får objektive data ved det. Folk er generelt pressede. Og nogle af de ordninger der officielt er gode og hjælper folk, beskrives af folk der deltager i dem som nærmest at sammenligne med kommunalt slavearbejde. Det er jo bare, at se hvordan medarbejderne roterer i det lokale supermarked. Og det er officielt en succes. Men i den virkelige verden er det det sku ikke.
Og hvis ikke tiltag har en effekt i den virkelige verden.. så ja.. er det jo 'bare' IMHO mere overhead.

Tror ikke at vi er så uenige - dog finder du ikke ud af hvor lovgivningen er selvmodsigende og uklar uden at se på der hvor den fortolkes og bruges!

Jo, det kunne man sagtens. Men det kræver, at man bringer tingene up to date, og ikke bruger metoder, processer og standarder, der hører hjemme i 1800 tallet.

Jeg er så også enig med Mikkel Holm's tanker vdr. borgernes data. Igen.. så er tanken om, at offentlige data om borgerne tilhører staten, er IMHO noget der mere hører hjemme under enevælden.
Grunden til at staten skal data om borgerne er for at kunne servicere borgerne, med borgernes samtykke. Og så er der selvfølgelig undtagelserne, som går på at beskytte andre borgere og staten mod individer, og her skal der selvfølgelig være regler med at du kan opsamle og gemme oplysninger om borgerne, som borgerne ikke har interesse i.

Jeg tror ikke vi kommer så meget videre.

Du virker som en privat-person med et godt moralsk kompas og viljen til at gøre det 'gode'. Det kommer man langt med. Så derfor vil jeg ønske dig held og lykke med din forskning.

Jeg er bare blevet endnu mere styrket i min overbevisning af, hvor vigtigt det er at fremme 'fri og uafhængig forskning'. For jeg mener, at din og dit team's tid kunne bruges andre steder, og det tror jeg også at du selv synes.. når det kommer til stykket :)

// Jesper

Bjarne Nielsen

Vi ser kun på f.eks. at hvis 99% af borgerne ikke har haft nytte af et uddannelsesforløb i at flette kurve, så har man evidens for ikke at anbefale det.

Hvis man ikke allerede er i stand til at følge op på det, og drage de nødvendige konklusioner, så er det hverken din forskning eller AI, som man har brug for.

Og, Thomas, jeg synes altså også, at du taler udenom. Du bruger ord som anonym og personhenførbar i flæng, men ignorer helt at tillidsbruddet og overgrebet allerede sker, når man føler sig observeret: i det øjeblik begynder folk at ændre adfærd. Og det bliver ikke bedre af at gå og putte med det; det bliver det kun værre af.

Jeg vil stadig mene, at der er områder, hvor din nysgerrig og viden kunne finde bedre anvendelse og med langt bedre etik. F.eks. kunne samfundet godt bruge en hånd med identificere mønstre i hvilke en-krones-selskaber ikke giver den lovede vækst, men derimod dræner kasserne.

Hvis du insisterer på at arbejde med rigtige menneskers rigtige data og kompliceret lovgivning, så ville det være mindre uetisk at kaste sig over nogle på din egen størrelse, i stedet for at føje endnu et overgreb til de andre overgreb imod en i forvejen forsvarsløs gruppe. F.eks. er jeg sikker på, at revisorerne hos Skat gerne vil have din hjælp til at kunne rådgive både de mest udfordrende af deres kunder med, hvordan de skal benytte "tilbuddene" i skattelovgivningen. Og med hvordan lovgivningen kan forbedres og forenkles, så den gør det samfundet har brug for. Så vil du godt nok komme op imod at du skal bruge "anonyme" data om folk, som skriver kronikker, og som spiller "galf" med ministeren, men det er en udfordring, som jeg er sikker på, at du har klar til at tage ... for videnskaben og samfundet!

Få det til at virke der, og så kan vi tale om, hvorvidt det kan give mening overfor langt svagere grupper.

Bjarke Jørgensen

Hej Thomas

Jeg er rigtig glad for at du har taget dig tid til at kommentere her på den foreløbige kritik af projektet. Det giver et godt indblik i tankegangen bag ting vi normalt ikke får indblik i.

Når folk snakker om kunstig intelligens i det offentlige er det oftest en to-sidet debat om konsekvenserne. Nu siger du selv at det etiske er højt prioriteret i projektet... Kan du evt. uddybe hvilken forståelse af etik du mener? (nytteetik, pligtetik osv.).

For det andet mener jeg at det er misvisende at sammenligne dette projekt med anvendelse af kunstig intelligens i sundhedssystemet. Forskellen er at vi i sundhedssystemet (i den medicinske verden) er beriget med flere tusinde års evidensbaseret forskning om den menneskelige anatomi. Det giver os rigtig mange og meget klare parametre at måle på (crunche) og høj sikkerhed for givne behandlingers effektivitet. Noget der er meget velegnet til kunstig intelligens.

Sociale systemer har, mildest talt, ikke den samme stabilitet. Tror du ikke det er usandsynligt at man vil finde klare (læs højt korrelerede) årsagssammenhænge mellem så forskellige (og ekstremt komplekse) fænomener som bandekriminalitet, uddannelse, sagsforløb osv.? Lad mig spørge på en anden måde; hvor stor mængde data skal der til for at i kan lave en anbefaling baseret på det?

Et helt andet spørgsmål: AI og kunstig intelligens handler om statistik og komplekse årsagssammenhænge på tværs af store datamængder. Som andre i debatten nævner kan de store datamængder være bekymrende ift. personhenførbarhed (en debat der kun bliver mere relevant), men lad os for argumentets skyld antage at al data bliver anonymiseret og personhenførbarhed er en by i Rusland.

Du siger selv at forklaringen er det vigtigste - hvis en AI 'kun' kan lave probabilistisk analyse af datamængderne og sige 'det er godt for dine jobchancer med et kursus i æltning' er det ikke meget værd hvis den ikke kan forklare hvorfor. Her er forskellen mellem det medicinske og det sociale, i mine øjne, klarest: Watson kan godt sige at med 98% sandsynlighed har patienten 'indsæt sygdom'. Noget som lægen, i det her tilfælde, skulle bruge flere år på at finde ud af, fordi datamængden simpelthen var for stor. Ved gennemgang af parametrene kunne lægen nok bekræfte dette - hvis han havde tid.

I jobcenterverdenen har sagsbehandleren sandsynligvis ingen mulighed for at forklare AI'ens foreslåede handling? Forklaring er måske tvetydigt her. Hvis algoritmens resultat er høj korrelation mellem to(eller tusind), umiddelbart usammenhængende parametre, er det så sandsynligt at sagsbehandleren kan forklare denne sammenhæng? (givet at sociale systemer er mere komplekse).

Og endeligt: hvad sker der hvis det viser sig at jobchancerne stiger når man kommer i et bandemiljø? (gansket givet usandsynligt, men lad os da så sige: hvis man laver frivilligt arbejde for en bestemt organisation, eller humanister der tager kursus i tømrerarbejde har bedre jobchancer?). Kunstig intelligens er et ekstremt magtfuldt værktøj, der ikke kan afskæres fra politiske agendaer (hvis det bruges på et statsligt niveau), og lige præcis med beskæftigelse bliver det velsagtens det mægtigste værktøj...? Hvad er dine tanker omkring selvforstærkende effekter?

Beklager den lange tekst, og igen, tak for at du har taget dig tid til debatten :)

Bjarne Nielsen

Og endeligt: hvad sker der hvis det viser sig at jobchancerne stiger når man kommer i et bandemiljø? (gansket givet usandsynligt ... )

Det er lidt uretfærdigt at slå ned på en enkelt del af et stort og sammenhængende indlæg, men hvorfor ikke?

Netværk er nok det som betyder mest for jobchancer, og meget kan man sige om bandemiljøer, men der er tale om et solide netværk. Og samtidig er bandemiljøer præget af yderst entreprenante personer (hvis bare man kunne styre den energi og virkelyst over i noget positivt!).

Så, hvorfor ikke?

Frithiof Jensen

Mit problem er nok at jeg mener at AI/MI er et kraftfuldt värktöj som absolut kunne göre mange vidunderlige ting for menneskeheden. Men, fordi det kun er värktöjer, uden en selvständig vilje og forståelse, så "forstärker" teknikken både de gode og de onde sider af de som anvender det.

Det er jo et problem. Jeg er netop ikke lige helt sikker på at ledelsen inden for de sociale områder i kommunerne primärt består af aktörer med samvittighed og höj trovärdighed, naturligvis baseret på deres ageren hidtil.

Sagsbehandlerne vil sikkert väre glade for al den support de kan få, men, kun to mellemledere op sidder der mennesker som kun har den opgave, med bonus-relateret KPI, at betale så lidt som muligt til så få som muligt - uanset de ubekvemme detaljer - som de natuligvis "slet ikke har fantasi til at forestille sig".

Hvis AI algoritmen finder den slags forskelsbehandling med den forklaring så er det vel også meget godt at få det frem i lyset, ikke?

Jeg vil sige, Nej, Ikke rigtigt, det er et "nulresultat", vi ved jo det findes.

http://www.ugebreveta4.dk/indvandrernavne-staar-i-vejen-for-arbejde_1980...

Det er noget man officielt har vidst siden 2014. Formodentligt uden at göre noget som helst ved det, eftersom "alle" stadigväk "skriger" både efter arbejdskraft og flere udvisninger.

Her kan man jo konstatere at et problem man ikke gör noget ved måske er en önsket tilstand eller ikke et problem - i hvert fald ikke for de som har magten og ressourcerne til at göre noget ved det.

Hvis AI/MI faktisk fungerer, så risikerer vi at give "systemet" bedre värktöjer til at udtrykke sine dårligdomme med og endda fjerne den sidste "friktion" i form af at der skal bruges alt for mange timer på at administrere en gennemfört håblös lovgivning som ingen forstår.

Vi vil se det på den måde at hvis denne her AI ikke kan levere bedre resultater inden for de rammer som systemet selv definerer - det er formodeligt de samme resultater og rammer som allerede findes i det analoge system - så er AI'en ubrugelig til formålet. Man finder en anden, "bedre" AI!

Präcis ligesom man i dag gör med "lägekonsulenterne". Som I Övrigt ikke nödvendigvis er läger af hensyn til at nå de önskede resultater. En AI/MI er formodenligt bare noget(?) billigere i drift og uden whistleblower-risiko.

Oven i det så er der noget med at algoritmerne anvendt til beslutninger om mennesker også har en tendens til at definere Udfald.

Hvis mit firma synes at de har väret rimeligt heldige med de seneste års ansättelser, så kunne de rimeligt nemt lave en algoritme som baseret på egenskaberne af de som allerede er "en success" i organisationen, klassificerer både jobsögere og nyansatte for at finde de successfulde medarbejdere. De som systemet giver gode värdier, bliver pragmatisk nok også de som vi investerer mere i, men fordi vi investerer i dem, så klarer de sig sandsynligvis også bedre og bliver sucessfulde, "systemet virker" ville vi mene.

Men samtidigt så risikerer vi jo, at de vi egentligt gjorde, det var at cementere vores indbyggede fordomme og preferencer om gode medarbejdere i IT-beton og eksternalisere disse i en "rationel proces" så vi ikke engang behöver at väre bevidste om dem längere.

Det kan vi göre et stykke tid, indtil vi bliver "disrupted" af alle de her ide-mennesker der ikke "var det rigtige match for os" fordi alle dem med de "dårlige värdier", de kan bare gå et andet sted hen. De hober sig ikke op og bliver et problem - for os.

Det er bare ikke sådan samfundet fungerer. Et civiliseret samfund må kunne håndtere alle de mennesker der nu engang findes i samfundet på en retfärdig og rimelig måde.

Men, hvis jeg nu sidder i forvaltningen i 2020 med et budget som en helt anden AI (denne gang en "Dumb AI", skrevet i Excel, siger skal reduceres 2% p/a hvert år "fordi sådan er det bare") og jeg dagligt skal välge hvem af mine klienter i porteföljen jeg skal efteruddanne og hvem jeg skal pröve på at få placeret på en eller anden ordning som ikke belaster mine KPI'ere.

Til rådighed har jeg nu et AI-system som baseret på en dyb viden om fortidens succeshistorier fortäller mig temmeligt präcist hvem jeg skal vädde mine svindende ressourcer på, hvem jeg med fordel kan pine ihjel med permanent arbejdsprövning og hvem der er ligegyldige fordi de selv finder löser mit problem med placereingen, ideelt finder et job (men, tager til Syrien, bliver skudt på Nörrebro eller noget - er jo også lösninger set fra mine KPI'ere).

Så, egentligt, med alle de smarte systemer så gör vi bare det samme som för. Bare på en automatiserat måde. Vi vil også få cirka fortidens resultater - eller problemer - bare billigere og med mindre transparens.

Med AI support behöver "vi" heller ikke at lovgive ordentligt fordi maskinen, "den äder det hele". Da vi stoler mere på algoritmerne end mennesket vil ingen som nogen tager alvorligt vurdere om maskinen rent faktisk "äder det hele" og ikke bare internaliserer hensigten og retter sine processer imod at optimere de udfald som vi allerede har defineret som önskemål. Implicit eller Explicit - MI-algoritmer er ret gode til at finde Implicitte mål.

Det blev jo noget af en rant. Men, for mig da er "effektivisering af dysfunktion" og "eksternalisering / outsourcing af fordomme" en alvorlig risiko. Isär inden for beskäftigelseområdet hvor alt for mange mange uhyrligheder og overgreb ikke bare tolereres år for år, men formentligt direkte drives frem med hjälp af höjt betalte eksperter.

Jeg ville gerne se systemer som faktisk hjalp mennesker, jeg tror bare ikke längere på at det er det der önskes af "de, der betaler musikken". Hvis det var tilfäldet, så ville man have gjort en bedre indsats i "den analoge verden".

Mikkel Holm

Hej Thomas,

Jeg snakker ikke uden om: Fra et IT-fagligt synspunkt giver det ikke mening at sige, at vi slipper en algoritme løs på personhenførbare data. Når data er anonyme (altså ikke bare pseudonymiserede) kan de ikke henføres til personer og derfor er de fra et IT-fagligt synspunkt ikke personhenførbare.

Jeg vil forsøge en sidste gang at få dig til at besvare mit spørgsmål. Den anonymiseret data der bruges i dit projekt, hvad tager det oprindeligt udgangspunkt i? Som jeg læser det tager det udgangspunkt i personhenførbar data i Jobcenteres sags journalerne om borgerne. Er det korrekt?
I så fald, vil der også, som tidligere nævnt foregå en anonymiserings proces. Om anonymiseringen er automtiseret via et program eller service, eller manuelle hænder - ændre ikke på at der gives adgang til Borgers data uden samtykke.
Det er egentlig denne problemstilling jeg ønsker du tager stilling til, nu du vægter etikken højt.

Jeg betvivler ikke at dine hensigter, men i min optik forstår du ikke det fulde omfang af konsekvenser det kan have for det enkelte individ. Jeg har også på fornemmelsen at du aldrig har været i systemet og det hele ses med akademiske og teoretiske briller? Tag det fra en der kender systemet indefra og kan fortælle at gives denne mulighed til sagsbehandler, er der overvejende chance for, at vi får et system yderlig der tyrannisere og undertrykker den svageste gruppe i samfundet. Stil dig selv spørgsmålet, kunne jeg få lov til samme projekt i Folketinget?

Anne-Marie Krogsbøll

Grænserne om individets rettigheder skrider:
https://www.business.dk/arbejdsmarked/ledige-blev-ulovligt-undersoegt-af...
Ganske vist griber borgmesteren straks ind - men at en sådan situation overhovedet kan forekomme, er udtryk for skred i respekten for individets rettigheder. Hvem har i øvrigt fostret den idé? Nogen må være ansvarlige - hvem? Og hvor kommer pengene fra til det tiltag? For det lyder som en dyr ide.

Vi er på vej mod et totalitært panoptikon:
https://en.wikipedia.org/wiki/Panopticon

Magthaverne har fuldt styr på os, og sælger os oven i købet som umælende forsøgsdyr:
"Planen er at medicinalindustrien i forbindelse med personlig medicin skal have adgang til danskernes helt private sundhedsoplysninger på individniveau, for eksempel i forbindelse med det såkaldte NEXTpartnershp projekt (1). " https://www.facebook.com/pg/BevarTavshedspligten/posts/

"NEXT offers national patient recruitment including national database platforms to support successful recruitment. It is the intention to add patient specific data to the recruitment process to support a precision medicine-approach, i.e. selection of subgroups of patients for specific trials." https://nextpartnership.dk/presse/

Det er kun et spørgsmål om tid, så vil jobcentrenes AI-planer flyde sammen med NEXT-planerne om at sælge os som forsøgsdyr.

Uanset at de folkevalgte medvirker til dette, er der tale om magtmisbrug - IMHO. Denne udemokratiske udvikling har aldrig været del af en valgkamp - og man ønsker fra politisk side ikke engang at give borgerne mulighed for samtykke - for man kunne jo risikere, at de sagde nej til at være forsøgsdyr (Camilla Hersom i deadline for nylig): https://www.dr.dk/tv/se/deadline/deadline-tv/deadline-2017-11-08

Endnu engang føler jeg trang til at udbryde: Hvad bilder de sig egentligt ind? Hvem tror de, de er? For mig at se en rendyrket herrefolksmentalitet - ikke baseret på race/nationalitet, men på magt: "Because I'm worth it", har jeg/vi ret til at fratage folk uden magt retten til privatliv, og udpege dem til "varer", forsøgsdyr, billig arbejdskraft.

Hvis man først en gang har kæmpet sig op til magten (eller har arvet den), så giver de færreste frivilligt slip på den. Magt korrumperer.

Bjarke Jørgensen

Fremragende indlæg, og tanker som alt for sjældent (læs: aldrig) får spalteplads. Magt er en væsentlig faktor i ethvert socialt system, og de magtfuldes agendaer bliver med sikkerhed cementeret når kunstig intelligens anvendes (en ting er at betvivle en politiker, en helt anden er at betvivle AI).

Det der nok må betegnes som det ultimative problem er at dem der udtænker, designer og programmerer disse systemer ikke er bevidste om disse magtforhold - for enhver der ikke indtænker magt i et socialt system kan meget let se gevinsten ved automatisering, og ser ikke det menneskelige perspektiv.

Log ind eller Opret konto for at kommentere
Pressemeddelelser

Welcome to the Cloud Integration Enablement Day (Bring your own laptop)

On this track, we will give you the chance to become a "Cloud First" data integration specialist.
15. nov 2017

Silicom i Søborg har fået stærk vind i sejlene…

Silicom Denmark arbejder med cutting-edge teknologier og er helt fremme hvad angår FPGA teknologien, som har eksisteret i over 20 år.
22. sep 2017

Conference: How AI and Machine Learning can accelerate your business growth

Can Artificial Intelligence (AI) and Machine Learning bring actual value to your business? Will it supercharge growth? How do other businesses leverage AI and Machine Learning?
13. sep 2017