Dataetisk formand revser KL-nedtoning af AI: »Det undrer mig, at KL taler omfanget ned«

Illustration: mast3r/Bigstock
Nuancering af citat fra avis-interview om ingen AI i kommunerne huer ikke Dataetisk Råd. Formanden undrer sig over, at »KL øjensynligt ser det som sin opgave at tale omfanget af AI ned.« Forskere er også skeptiske.

Et citat fra direktør i Kommunernes Landsforening Christian Harsløf i et interview i Politiken d. 4. oktober vakte undren blandt flere, herunder formanden for Dataetisk Råd og flere forskere.

»Debatten giver indtryk af, at vi er langt fremme med brugen af algoritmer. Men det er vi ikke. Robotter, kunstig intelligens og algoritmer findes simpelthen ikke i kommunernes sagsbehandling,« sagde Christian Harsløf i interviewet med avisen.

Læs også: Kommune-chef: Der er ingen kunstig intelligens i kommunernes sagsbehandling

Udmeldingen fik formanden for Dataetisk Råd, Johan Busse, til at kommentere således på sociale medier:

»KL er i Politiken i dag citeret for at sige, at 'Robotter, kunstig intelligens og algoritmer findes simpelthen ikke i kommunernes sagsbehandling.' Det er forkert og det ved KL godt. De findes i stort antal, gode som dårlige. Hvorfor benægte det?«

Christian Harsløf replicerede samme sted således:

»Vi har ikke kørende kunstig intelligens til sagsbehandling på social- og beskæftigelsesområdet. Alene forsøg og eksperimenter.«

Algoritmer stort set i alle systemer

Også AI-forskeren Thomas Hildebrandt, som er professor på Datalogisk Institut ved København Universitet (KU), undrede sig, med henvisning til Københavns Kommunes arbejde på området, hvor kommunen har søsat 100 RPA-løsninger, såkaldte software-robotter, og tillige benytter kunstig intelligens og algoritmer i en jobcenterløsning.

Thomas Hildebrandt påpegede også, at stort set alle sagsbehandlingssystemer benytter algoritmer.

Lektor i digital forvaltning Hanne Marie Motzfeldt fra KU mente, at der måtte være tale om en misforståelse i interviewet.

Christian Harsløf vil efterfølgende overfor Version2 gerne nuancere citatet i Politiken:

Christian Harsløf. Illustration: Tania Andersen

»For jeg kan se, at det har sat gang i en vældig debat. Jeg tror ikke, at mit synspunkt eller det Johan Busse, Thomas Hildebrandt og Hanne Marie Motzfeldt siger, er specielt divergerende.«

Han fortsætter:

»I citatet er der mange ord, der kan bøjes i elastik: Hvad er egentlig sagsbehandling, hvad er administrativt, og hvad er forberedelse osv. Jeg benægter bestemt ikke, at man benytter RPA-løsninger på beskæftigelsesområdet, og jeg er helt bekendt med, at STAR har haft et projekt med profilering på Jobnet. Når jeg ikke forholder mig til det, så er det fordi, Jobnet er en statslig løsning, og jeg udtaler mig på kommunernes vegne.«

Christian Harsløf mener også, at man må se på nuancerne i kommunernes anvendelse af teknologierne:

»Det er så diskussionen: Er det sagsbehandling, eller sagsforberedende? Jeg ved godt, at det lidt bliver en diskussion om ord, og det er sådan set ikke min hensigt. Min hensigt er at få tegnet et realistisk billede af, hvor langt vi egentlig er, med brugen af kunstig intelligens i sagsbehandlingen i Danmark. Og der er vi altså ikke særligt langt. Man får tit det modsatte billede, når man hører diskussionen.«

Det er mennesker, som træffer afgørelser i de danske kommuner, lyder synspunktet fra KL-direktøren.

»Jeg synes, vi skal hylde den danske tilgang. Vi har valgt en klog og forsigtig tilgang omkring brug af algoritmer i social- og beskæftigelsesindsatsen, hvor vi starter småt, vi tester, vi bliver klogere, og så lukker vi det ned, der ikke kan bære, og tager vi vores erfaringer med over til vores næste projekter.«

Dataetisk Råd undrer sig: KL taler omfanget af AI ned

Version2 har forelagt KL-direktørens nye udtalelse for formand i Dataetisk Råd, Johan Busse.

Johan Busse. Illustration: Tania Andersen

»Algoritmer, robotter og AI har et stort potentiale ved løsningen af samfundsopgaver. Det skal vi naturligvis udnytte. Men det bør ske på en lovlig, ansvarlig og dataetisk måde, som også regeringens digitaliseringspartnerskab har peget på i den forgangne uge,« skriver Johan Busse i en mail til Version2.

Kommunerne anvender såvel algoritmer, som robotter og AI-funktioner i forbindelse med behandlingen af borgersager og ved borgerbetjening.

»Og godt for det, men vi har brug for i hvert enkelt tilfælde at vide og diskutere, hvordan anvendelsen af disse systemer påvirker borgernes retssikkerhed, borgerbetjeningen og tilliden til kommunerne.«

Han fortsætter:

»Det er i den sammenhæng meningsløst at pille rundt i sagsbehandlingsbegrebet eller hvem, som har ressortansvaret, da algoritmer, robotter og AI-funktioner påvirker afgørelserne, borgerbetjeningen og tilliden uanset, hvor i processen, de anvendes og uanset hvem, der har tændt for dem.«

Johan Busse slutter:

»Det undrer mig, at KL øjensynligt ser det som sin opgave at tale omfanget ned.«

AI-forsker: Vi har ikke valgt en klog og forsigtig tilgang i Danmark

Professor Thomas Hildebrandt er enig med Christian Harsløf i, at debatten om AI er meget polariseret, og undertiden mudret, fordi ord som robotter, algoritmer og kunstig intelligens kan betyde mange ting for den enkelte.

Thomas Hildebrandt. Illustration: Tania Andersen

»Men jeg synes ikke, det hjælper til at gøre debatten mere klar, hvis man begynder at differentiere mellem sagsforberedelse og sagsbehandling, eller hvorvidt det er et statsligt eller et kommunalt system, der benyttes som del af sagsbehandlerens arbejde i kommunen.«

Forberedelse af en sag, herunder udvælgelsen af oplysninger og beregninger af risiko-scores for f.eks. langtidsledighed eller mistrivsel, der ligger til grund for beslutningen, påvirker selvfølgelig sagsforløbet, uanset om man kalder det forberedelse eller behandling, vurderer Thomas Hildebrandt.

»Tværtimod, så tror jeg snarere på, at man skal være helt åben om, at algoritmer, software robotter og kunstig intelligens faktisk finder anvendelse i kommunerne, og at der presses massivt fra mange sider for at øge denne anvendelse.«

Og så skal man have fokus på, at algoritmer, software-robotter og kunstig intelligens ikke nødvendigvis er dårlige teknologier, hvis de vel at mærke bruges til at løse de rigtige problemer, lyder synspunktet.

»Her er jeg ikke enig i, at vi har valgt en klog og forsigtig tilgang i Danmark omkring brug af algoritmer i social- og beskæftigelsesindsatsen. Helt konkret mener jeg, at det har været uklogt at både private og offentlige aktører har kastet sig over de prediktive algoritmer – uanset om det er til sagsoplysning eller behandling – før man ved, om det er det rigtige problem, man løser, om datagrundlaget er godt nok, algoritmernes pålidelighed og deres indflydelse på sagsbehandlingen og vores rettigheder som mennesker og borgere i samfundet.«

Jurist: Rod, hvis vi ikke holder os til den almindeligt anerkendte sprogbrug

Jurist Hanne Marie Motzfeldt, som er lektor på Københavns Universitet, er bange for, at der kan gå roderi i begreberne, hvis man skal skelne mellem ord som 'sagsbehandling' eller 'sagsforberedende', som Christian Harsløf gør det.

Hanne Marie Motzfeldt Illustration: Jacob Nielsen

»For jurister er sagsbehandling ikke en betegnelse, der kun dækker over, at ‘en forvaltningsmyndighed ensidigt ved en sproglig erklæring på et offentligretligt grundlag fastlægger, hvad der er eller skal være gældende ret i forhold til en konkret borger’ (det traditionelle afgørelsesbegreb).«

»Og vi kan altså ikke bare sådan begynde at ændre på rimeligt faste definitioner af, hvad ord betyder – især ikke når vi har en del regler, der gælder for sagsbehandling – afgørelse eller ej. Det bliver noget rod, hvis vi ikke holder os til den almindeligt anerkendte sprogbrug – navnlig da det for praktikere vanskeliggør at gennemskue de retlige rammer, som allerede er tilstrækkeligt kompliceret.«

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Følg forløbet
Kommentarer (7)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
#2 Børge Svingalius

Jeps. Jeg har på tapetet at snakke med kommunen om AULA, specifikt deres DPO og høre hvor/hvordan data faktisk bliver opbevaret og hvad de bliver brugt til - og hvis det ikke er forsvarligt/lovligt, så ser jeg mig nødsaget til at kræve at det ikke er et system jeg eller mine nærmeste skal involveres i.

Så må vi se hvad de siger.

Angående artiklen, er det så ikke bare et røgslør, fordi de godt ved at den brede befolkning er ved at få øjnene op for AI/ML og hvordan det 'at best' kan siges at være i en moralsk gråzone, når emnefeltet er samfundets borgere? - Så vil de jo bare kalde det noget andet, for ikke at skræmme folk. Det rigtig skræmmende kommer jo først når de får et brev om tilsyn fra kommunen, når deres algoritme har rodet i 70 forskellige registre og antydet at deres barn måske bliver [indsæt X, hvor X er noget kommunen ser som et problem]

  • 6
  • 1
#3 Bjarne Nielsen

Jeg synes godt nok efterhånden, at vi ofte ser spidsfindige formuleringer fra teknokraterne, som hvis man kniber øjnene sammen og ser dem i det rette lys, teknisk set ikke er direkte usande, men som godt nok er velegnede til at blive misforstået.

Et af de store eksempler var STILs løfte om anonymitet i Trivselsundersøgelserne, som endte med at vise sig ikke at være det papir værd, som den var skrevet på, for man havde jo ikke (host, host) lovet "anonymitet i juridisk forstand". Gudfaderbevares!

Men det er ikke kun fra det offentlige, at man skal læse det med småt meget grundigt. En såkaldt "alkoholfri øl" er jo som oftest ikke fri for alkohol (men indeholder som regel op til 5 promille alkohol), hvilket er et reelt problem for alle, som af medicinske årsager ikke kan tåle det; en bedre betegnelse havde været "alkoholfattig øl".

Det er en svøbe, og det gør det vanskeligt at tale ordentligt sammen. Og hver gang man som almindeligt mennesker kan konstatere, at man har ladet sig snyde af teknisk finurlige vendinger, som viser sig at dække noget noget helt andet end man, som almindeligt tænkende menneske, skulle tro, så dør der en lille smule tillid.

Og tillid er det mest værdifulde vi som nation har, så pas godt på den lille smule, som er tilbage. Hører I efter, KL, STIL og alle andre med hang til teknisk finurlig udenomssnak?

  • 7
  • 0
#4 Anne-Marie Krogsbøll

"I citatet er der mange ord, der kan bøjes i elastik: "... siger Harsløf som undskyldning for sine - ja, jeg har lyst til at kalde det løgne, men skal vi i det mindste kalde det "usandheder"?

Det er jo præcis det, der gør mange af os hammerutrygge ved magt- og indflydelseshavernes (såsom Harsløfs) tilgang: At man formulerer sig så tåget og uklart, for ikke at sige direkte usandfærdigt, at man - i hvert fald i egne øjne - altid kan gemme sig i noget spin. Og Harsløfs udtalelser er netop det: En gevaldig gang tech-spin i en grad, så man undrer sig over, hvem der egentlig har formuleret det. Er det blevet til i samarbejde med tech-lobbyisterne, som kæmper for at få plastret landet ind i tech og algoritmer, inden befolkningen for alvor fatter, hvad der har ramt dem? Har der været holdt en masse "samarbejdsmøder" med lobbyisterne (på dyre restauranter og konferencehoteller)? Harsløfs usandfærdige spin lyder til netop at være forsøg på det: Vi må ikke få øje på sandheden, før det er for sent at sige "Nej". Er Harsløf en af de mange topembedsfolk, som har været på dyre kultrejser til Silicon Valley? Sådan kunne det i hvert fald lyde.

Ja, det er gætterier fra min side, det vil jeg understrege - men det er jo, hvad man risikerer, når man pakker følsomme emner ind i spin grænsende til åbenlyse løgne. Så mister folk tilliden, og begynder at spekulere på, hvad der mon gemmer sig i skyggerne, siden det er nødvendigt at spinne på den måde. Alene af den grund er det så vigtigt, at man faktisk ER troværdig, transparent, ærlig, og for enhver pris undgår bullshitbingospin - det andet, hvor man regner befolkningen - og mange eksperter - for idioter, undergraver tilliden.

Så meget for åbenhed, transparens, ærlighed i det offentliges uærlige digitaliseringsstormløb. Ikke andet en tomme ord. Hvor mange af topfolkene i det offentliges digitalisering har mon efterfølgende fået jobs i tech-industrien? Eller kommer derfra?

  • 5
  • 3
#5 Anne-Marie Krogsbøll

..pig - it's still a pig...

Du kan kalde algoritmer og AI for "signaturprojekter" (som man forsøger sig med i KL)... det er stadig algoritmer og AI og privatlivsvoldtægt....

Jeg tror roligt, man kan gå ud fra, at hvis noget kaldes "signaturprojekt", så er det meget ofte noget algoritmesnavs, som ikke tåler dagens lys...

  • 5
  • 3
#7 Anne-Marie Krogsbøll

Måske skulle KL og digitaliseringsmafiaen skynde sig at læse den nye bog om sundhedsplatformen? Dette interview med jes Søgaard om bogen giver i hvert fald mistanke om, at der er nogle generelle pointer omkring beslutningsgangene i forbindelse med det hærgende digitaliseringsgalskab, som man bør skrve sig bag øret i mange andre digitaliseringssammenhænge: https://www.sundhedspolitisktidsskrift.dk/nyheder/5375-professor-i-opsig...

Når først beslutningstagerne kommer for meget i nærkontakt med tech-lobbyisterne, så går forstanden ud i takt med, at lobbyistløfterne (og drinksene - den slags får man jo ofte på konferencerne) går ind. Og en veritabel indspist digitaliseringsmafia opstår med medlemmer fra både tech-branche offentlige institutioner. Jeg har bemærket det på de konferencer af denne type, jeg har deltaget i: Det er tordenskjolds soldater fra både techtoppen og samfundstoppen, der mødes og netværker og hygger. De kender hinanden godt, er på venskabelig fod, og har samme visioner og dagsorden. Denne mafia beslutter Danmarks digitale fremtid, og holdningen er "Fuld fart frem" - ikke noget med demokratisk debat, beslutningerne er taget, og nu gælder det om, hvordan man får manipuleret dem igennem. F. eks. ved at forholde borgerne sandheden, sådan som Harsløfs udtalelser er et eksempel på.

  • 6
  • 3
Log ind eller Opret konto for at kommentere