

Mere end hver tredje dansker har ikke tillid til anvendelsen af kunstig intelligens i det offentliges sagsbehandling. Det viser en spørgeundersøgelse Version2 har udført i samarbejde med Ingeniørforeningen IDA.
Blandt 2000 repræsentativt udvalgte danskere mellem 18-74 år svarer 35 procent, at de er uenige eller helt uenige i udsagnet: ‘Jeg har tillid til, at man i den offentlige sektor benytter kunstig intelligens til blandt andet sagsbehandling af borgernes sager, uden at det skaber forskelsbehandling, mistænkeliggørelse eller flere fejl.’
- emailE-mail
- linkKopier link

Fortsæt din læsning
- Sortér efter chevron_right
- Trådet debat
Anvendelsen af algoritmer, ML eller AI i sagsbehandling beror på hårfine definitioner, og lige meget hvordan en afgørelse er truffet, skal sagsbehandleren, som underskriver sagen, kunne forklare hvilket grundlag sagen er afgjort på.
Der er da meget lidt styr på definitionen af AI. Det nylige udspil fra EU-kommissionen om regulering af AI går jo så langt som at lægge AI i bunke med helt almindelige deklarative regelmaskiner og RPA (som jo er den desparate løsning på at integrere systemer uden et ordentligt API)
- more_vert
- insert_linkKopier link
Jeg har tillid til, at man i den offentlige sektor benytter kunstig intelligens til blandt andet sagsbehandling af borgernes sager, uden at det skaber forskelsbehandling, mistænkeliggørelse eller flere fejl
Kan man svare på spørgsmålet, hvis man ikke ved, hvad kunstig intelligens dækker over?
Kan man forstå svaret, hvis man ikke har defineret, hvad kunstig intelligens dækker over?
Har du tillid til at et sådan survey tilvejebringer meningsfyldt statistik, når udgangspunktet er så vagt?
Jeg har i hvert fald ikke.
Anvendelsen af algoritmer, ML eller AI i sagsbehandling beror på hårfine definitioner, og lige meget hvordan en afgørelse er truffet, skal sagsbehandleren, som underskriver sagen, kunne forklare hvilket grundlag sagen er afgjort på.
Og man kan ikke bare begrunde med: "fordi AI knappen lyste rødt".
- more_vert
- insert_linkKopier link
Du kender vist ikke meget til offentlig sagsbehandling, hvor de stakkels sagsbehandlere bliver drevet til at finde besparelser inden for eget område :(I blev anvendt til at afsøge og foreslå forbedringer i forhold til borgerens situation (arbejde, uddannelse, bolig, hjælpemidler, støtte etc.)
- more_vert
- insert_linkKopier link
Der skulle så stå: Jeg kan IKKE udtale mig om hele den offentlige forvaltning :-DJeg kan udtale mig om hele den offentlige forvaltning
- more_vert
- insert_linkKopier link
Jo. Der er krav om begrundelse. Jeg sidder i "Avanceret Analyse" i SKAT, hvor vi udvikler Machine Learning modeller for hele skatteforvaltningen. Jeg kan udtale mig om hele den offentlige forvaltning, men jeg kan belyse lidt hvordan det foregår i SKAT.
For det første foretages der aldrig automatisk sagsbehandling i SKAT. Hvis modellerne benyttes til individuel sagskontrol, så er det ved at modellens score benyttes til at udvælge sager, der ryger til manuel behandling efterfølgende (man kan naturligvis sagtens have kæmpe problemer med bias alligevel, og vi forsøger det bedste vi har lært).
Vi bruger ikke black-box modeller - bl.a. for at have styr på, hvordan beslutninger fremkommer. Når folk bruger begreber som Machine Learning og AI og kunstig intelligens og computer-modeller og hvad man ellers kalder det, så skal det ikke forstås snævert. Selv standard lineære modeller som f.eks. logistisk regression el. lign. bliver ofte benævnt "AI". Så vi kaster ikke bare neurale netværk efter tilfældige data i vores Datawarehouse :-) De modeller der oftest benyttes er klassiske statistiske modeller - f.eks. xgboost eller random forest), hvor man fulstændig entydigt kan se, hvordan en scoring er fremkommet, og hvilke parametre, der har betydning for scoren.
Derudover, så er der masser af implementeringer, der hjælper med at forklare scoringer fra modeller. Vi benytter bl.a. Lime (Local Interpretable Model-agnostic Explanations) - men som nævnt, så er det ikke relevant for hovedparten af vores modeller, fordi det er nemt at forklare direkte.
- more_vert
- insert_linkKopier link
ligesom personer - og embedsmænd - så derfor er AI ikke bedre end de, der har indlagt forudsætningerne i en given AI løsning - incl. småfejl. Så tilliden til AI behøver derfor ikke nødvendigvis at være større end til mennesker.
Og husk lige: Alt, hvad der kan bruges, kan også misbruges. Og alt, hvad der kan misbruges, vil også blive misbrugt - om ikke før, så siden.
- more_vert
- insert_linkKopier link
Hvis AI udelukkende eller hovedsaligt bliver brugt til at kortrollere og sanktionere modtagerne af offentlige ydelser, så har jeg fuld forståelse for mistroen. Meget mere perspektiv ville der for borgeren være i, at AI blev anvendt til at afsøge og foreslå forbedringer i forhold til borgerens situation (arbejde, uddannelse, bolig, hjælpemidler, støtte etc.) Hvis det var der, AI blev brugt, så ville borgerne måske endda blive til at værdsætte indsatsen.
- more_vert
- insert_linkKopier link
Jeg er lidt på linje med den her. At spørge om noget der stadigvæk for mange er et lidt vagt begreb virker ikke helt retvisende.
Andre relevante spørgsmål kunne være:
- Jeg har tillid til at arbejdet i den offentlige sektor, f.eks. sagsbehandling, altid sker i borgernes interesse og at der ikke sker forskelsbehandling, mistænkeliggørelse eller fejl
- Jeg har tillid til at det offentlige altid behandler data med følsomme oplysninger på en måde der sker i overensstemmelse med gældende regler - f.eks. GDPR
- more_vert
- insert_linkKopier link
eg har endnu ikke set en implementerin....
Fuldstændig korrekt. AI i det offentlige bør kun bruges til at fx at udtage stikprøver, det skal være kontrollantens arbejde at gennemgå data og begrunde om der har været snyd med i spillet.
- more_vert
- insert_linkKopier link
Hvorfor sammenligner man ikke med 'human intelligens', tror det vil give et lignende resultat.
Så kan man begynde at tænke over hvor man vil bruge det ene eller andet, eller måske arbejde med mere operationaliserbar lovgivning, hvor der ikke er brug for så mange skøn...
- more_vert
- insert_linkKopier link
Jeg forstår ikke at det kun er så få der ikke har tillid til AI i det offentlige ?
- more_vert
- insert_linkKopier link
Er der ikke i det offentlige krav om at afgørelser skal begrundes?
Jeg har endnu ikke set en implementering af AI, der sammen med resultatet leverede en forklaring af hvordan resultatet blev fundet.
- more_vert
- insert_linkKopier link