Professor advarer mod kommunal udrulning af børne-AI: »Jeg synes, det er uforsvarligt«

Professor advarer mod kommunal udrulning af børne-AI: »Jeg synes, det er uforsvarligt«
Illustration: Irena_Geo, BigStock.
Professor ved DIKU fremsætter gennemgribende kritik af algoritme, der skal udpege mistrivsel blandt børn i forskningsprojekt. Han konkluderer: Den bør ikke anvendes.
5. juli 2021 kl. 03:45
errorÆldre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

VIA University College og Trygfondens Børneforskningscenter på Aarhus Universitet arbejder videre med projektet, der skal udvikle et dataanalytisk værktøj, som kan opspore mistrivsel blandt børn. Det er i hvert fald forhåbningen.

Forskningsprojektet, som bærer navnet Underretninger i Fokus, er ved at køre i stilling til næste fase – Pilot 2 – hvor værktøjet ønskes afprøvet i et stort antal kommunale socialforvaltninger. Her skal værktøjet benyttes i behandlingen af konkrete sager.

En række ændringer af projektets algoritme er foretaget, men det giver ikke gode karakterer fra professor og AI-ekspert Thomas Hildebrandt fra Københavns Universitets datalogiske institut.

»Jeg er fortaler for, at man benytter data til at blive klogere. Men jeg er meget skeptisk overfor dette projekt,« skriver han i en mail, efter at have gennemgået projektets seneste fase for Version2.

Hans konklusion er klar:

»Jeg mener ikke, det er forsvarligt, at man på et høj-risiko område vil teste værktøjet i praksis i Pilot 2 på sagsbehandling for borgere, hvor det er uklart, hvilken betydning værktøjet får på de konkrete afgørelser. Det forstærkes af, at der er lavet meget om på modellen fra Pilot 1 til Pilot 2.«

Log ind og få adgang
Du kan læse indholdet ved at logge ind eller oprette dig som ny bruger.
Debatten
Log ind for at deltage i debatten.
settingsDebatindstillinger
19
6. juli 2021 kl. 21:38

Hvis behov er disse algoritmer rettet imod - borgerens eller en eller anden chefs benchmark?

Kunne det tænkes, at kompetente sagsbehandlere rent faktisk ønsker at møde børnenes behov i videst mulig omfang?

Herunder at få statistisk indsigt i hvilke kombinerede faktorer, der er forløbere for tragiske begivenheder.

18
6. juli 2021 kl. 16:04

"Er manglen på dialog med borgerne et problem for den offentlige forvaltning? »Det vil jeg nok sige, det er. Hvis man legede med tanken om, at både direktører og chefer faktisk i perioder var ude som frontmedarbejdere eller i tæt dialog med borgerne om, hvad de oplevede, tror jeg, man ville få nogle andre perspektiver på nogle af de opgaver, man sidder med omkring chefbordene. De opgaver handler i dag tit om, at der skal gennemføres nogle besparelser. De er ikke til at komme uden om, selvfølgelig, men det kunne være sundt at lytte mere til borgerne. Hvad oplever de egentlig? Besparelserne kan for en chef hurtigt blive meget abstrakte«."

"Hvad er det for en virkelighed, man som offentlig leder overser ved at holde sig til borgerundersøgelser på et mere teoretisk plan? »Man ser ikke de borgere, som kan være allermest udfordret. De mest sårbare borgere er jo dem, som sjældent stiller op til interview eller får besvaret spørgeskemaerne. På den måde går organisationen glip af vigtig viden«."

"Hvad kunne en offentlig leder f.eks. lære af en sosu-hjælper? »De kan lære dem, at det altid skal være borgeren først. Det er dem, vi er her for, og det er det, sosu-hjælperen mærker hele tiden. Sosu-hjælperen ved, at borgernes behov er meget forskellige, og at de skal hjælpes på forskellige måder. Det perspektiv er noget sværere at få øje på, når man sidder som chef på et rådhus«, "

"Pseudoarbejde? Hvilke opgaver er overflødige efter din mening? »Nogle af de ting, som man jo i mange år har arbejdet med i kommunerne, er at lave forskellige nøgletal og benchmarking. I min optik er der nogle indbyggede problemer i det, og det lægger kimen til pseudoarbejde, fordi mange af de tal, man bruger, ikke kan sammenlignes med hinanden. "

https://politiken.dk/debat/art8262043/%C2%BBDen-offentlige-chef-kunne-godt-l%C3%A6re-af-sosu-arbejderen-at-det-altid-er-borgeren-f%C3%B8rst%C2%AB

Hvorfor kommer jeg mon til at tænke på den artikel her? Hvis behov er disse algoritmer rettet imod - borgerens eller en eller anden chefs benchmark? En chef eller en forsker, som har glemt, at han arbejder for borgere, som faktisk er mennesker, og ikke bare tal i kolonner og nuller og et-taller?

17
6. juli 2021 kl. 14:42

Hvor finder du holdningen i artiklen, at alle algoritmer er AI? Det er ikke min holdning og jeg kan heller ikke se at andre udtrykker den holdning.

Glidebanen forløber således:

beslutningsstøtteværktøjet klart er indenfor skiven af, hvad man ville kalde AI

Det betyder at en statisk algoritme, som i principielt ikke adskiller sig fra et sammensat konditionale ( en serie IF THEN sætninger ) er AI, og dermed bliver det umuligt at etablere et kritere for afgræsning af hvad, der ikke er AI.

Er det antallet af IFs eller et særligt mønster i disse IFs?

Jeg er med på, at algoritmen er etableret via en anerkendt metode for maskinlæring, men det er ikke afgørende for problematiken.

Min kritik af artiklens titel bunder i, at AI har et utal af negative konnationer, og at det skaber unødig utryghed, at blande vores mangel på forståelse af AI ind i diskutionen om humane principper for sagsbehandling.

Derfor er navngivningen vigtig. Og "børne-AI" helt ude i hampen.

Jeg er helt enig i, at der er et væld af faresignaler, når dygtige matematikere slipper deres modeller løs i user interfaces, som sagsbehandlere benytter. Og derfor er jeg også enig i din kritik af modellen, såfremt det altså ikke lykkes at etablere en punktvis begrundelse via modellen. Det er også derfor jeg spørger ind til hvad model og interface tilbyder sagsbehandleren.

Og så vidt jeg forstår af artiklen, så er man midt i en pilot, hvor man gerne vil lære om og hvorledes statistiske sammenhæng kan kommunikeres til en dygtig sagsbehandler. Og den iterationsproces vil være yderst interessant at høre mere om. Om det er uansvarligt, som du skriver, afhænger vel om hvorledes den pilot afvikles i praksis.

Det er klart, at en algoritme som optæller antallet af domme for spritkørsel adskiller sig fra en beregning af sandsynlighed for en fremtidig anbringelse, men måske det viser sig, at kravet om at kunne begrunde en afgørelse, rent faktisk dækker dette problem.

16
6. juli 2021 kl. 10:45

Det er så dette system som kommunerne nu bliver bestukket af TrygFonden til at tage i anvendelse. Der give spændende og dyre lederkurser til de kommuner som vil sælge deres borgernes retssikkerhed til denne flok cand.polit'er som nu har fundet på at kalde sig forskere. Det kræver dog at kommunen giver økonom- banden lov til at kigge de menige sagsbehandlere over skulderen og snage i deres borgernes private sager, alt imens disse borgere står i deres livs måske sværeste situation, og dermed næppe vil turde sige fra (hvis de da overhovedet bliver oplyst om at deres data nu skal stjæles af en flok skytterne som de selv finansiere via skatten).

Det er så dette system som er trænet på historiske data som er dybt fejlbehæftet, med fejl i over halvdelen af sagerne. Data som er ulovligt tvangsindsamlet, og hvor løgn på løgn er blevet stukket til befolkningen i processen. Gad vide hvordan dette stykke Stasi-teknologi vil håndtere min kommunens massivt fejlbehæftede data, som for et år siden resulterede i den øjeblikkelige fyring af Børn og unge-direktøren, efter mange års misforvaltning, og som resulterede i en ydmygende skriftlig undskyldning til flere tusinde forældre et på måneder efter?

Et system som er et IT-produkt der svigagtigt er blevet udviklet med følsomme persondata under det juridiske grundlag som gælder forskning, selv om der kun er reelt er tale om banal produktudvikling som enhver anden virksomhed (ligesom Aarhus Universitet jo er blevet) kunne have udført, og hvor bandens jurist var (er?) en af de lavest betaltate medarbejdere.

Det er slet og ret modbydeligt og kriminelt, og de skal bare ikke få lov til det mere.

Boykot alle de Nazionale test og trivselsmålinger og Danmarks Statistiks uendelige spørgeskemaer, ok boykot det Nationale Genomregister. Det tjener ikke andet formål end at stjæle vores alles data, profitmaksimering vores børn og muliggøre at politikere og kommunale direktører kan fralægge sig ansvar når deres inkompetence og ulovligheder kommer for skade til at ødelægge endnu en borgers liv.

15
6. juli 2021 kl. 07:12

Fin artikel og dejlgt at der beskrives i detaljer hvad der foregår.

MEN:

Hvordan kan man sikre sig at en socialrådgiver IKKE lader sig påvirke af det resultat en evt. AI kommer frem til?

Hvordan sikre man at en socialrådgiver IKKE bliver presset af en ledelse i en kommune fordi der skal spares på økonomien, til at bruge resutatet (lidt ligesom det med de 95% der nævnes i artiklen)?

I artiklen er det nævnt at algoritmen tilsynladende opfattes som en "prediktion" (= på dansk en "forudsigelse")....
"da alder korrelerer stærkt med anden information, som indgår i prædiktionen"

Vil det sige at man forsøger at forudsige hvad resultatet bliver i denne algoritme? Så kan man jo helt afskaffe den konkrete vurdering eller? Skræmmende syntes jeg.

14
5. juli 2021 kl. 21:37

og har været det LÆNGE NU, men specielt indenfor de sidste 10 år er det jo gået fuldstændig amok.

Undskyld jeg siger det venner, men vi bliver simpelthen nødt til at komme ud over stepperne hvis vi skal have vendt det her. Det duer bare ikke at sidde her og kritisere det himmeltråbende åbenlyse makværk de har gang i på Borgen, vi skal gøre mere, for de lytter ikke til kritiske, fornuftige røster herfra.

Jeg ved desværre ikke hvordan vi skal gøre det, men vi bliver nødt til at mobilisere os og gå >>IND I KAMPEN<<, hvis vi vil have forhåbninger om at lave om på det her.

Please kom med forslag. Nyt politisk parti og bevægelse? Slagkraftige demonstrationer? Oplysning, uddannelse? Foreninger? Digitaliseringskritisk folkemøde? Whatever, let's do it. Vi bliver bare nødt til at diskutere "næste step", og ikke enkeltsager.

Skriv til mig på BjarkeJorgensen@live.dk og lad os dele en øl og ændre verden.

13
5. juli 2021 kl. 21:00

Alle algoritmer er AI, fordi uha.. et input bliver omregnet til et output af en uha.. computer.

Kære Martin,

Hvor finder du holdningen i artiklen, at alle algoritmer er AI? Det er ikke min holdning og jeg kan heller ikke se at andre udtrykker den holdning.

Spørgsmålet om hvorvidt algoritmen kaldes AI er bestemt ikke det mest væsentlige i kritikken, og heller ikke det som artiklen handler om. Jeg pointerede blot, at det er bekymrende at forfatterne bruger en del plads på at prøve at forklare, at det de laver måske slet ikke er AI. Det er relevant i lyset af det nye forslag fra EU til regulering af AI som netop stiller krav til anvendelser af denne type algoritmer i højrisikområder, som anbringelse af børn hører ind under.

Personligt mener jeg ikke det er relevant hvad man kalder algoritmerne, men om der er tale om algoritmer, der er svære at validere korrektheden af, og som kan have væsentlig indflydelse på de personer som beslutningerne de anvendes til at afgøre påvirker.

Det væsentlige i kritikken er, at forskerne har lavet netop sådan en type algoritme, og de har ændret markant på den algoritme de testede i pilotforsøg 1, den er ikke blevet nemmere at forklare og forstå af sagsbehandlere og borgere, og nu vil de anvende den i et pilotforsøg på borgere, hvor algoritmen bliver anvendt i sagsbehandlingen.

Det er i mine øjne uansvarligt overfor borgerne i de kommuner den testes i.

Det er også med til at skade tilliden til brug af AI i det offentlige, hvilket er en skam, da der bestemt er potentiale for at forbedre de værktøjer som sagsbehandlerne benytter til dagligt, også ved hjælp af AI.

12
5. juli 2021 kl. 16:55

Det nævnte datapunkt fortæller mest om psykologens manglende grundighed, og hermed mindre om de bedømte, i det skævredne udvalg. Så vi er vel ikke så ueninge.

Det eneste datapunktet fortæller sagsbehandleren er, at denne psykolog optræder i tvangsfjernelses sager, hvor barnet er blevet fjernet i 95% af alle sager der er blevet behandlet af denne. Der bliver ikke præsenteret nogen bagvedliggende årsammenhænge i beregningen. Sagsnehandleren skal dermed gå imod de 95%. Jeg vil mene at der er en god sandsynlighed for, at sagsbehandleren lader sig påvirke. Det er for mig helt grotesk, at der tænkes i de baner (AI), når der er tale om potentielt sårbare børn og unge.

10
5. juli 2021 kl. 14:53

hele tanken vidner om et fuldstændigt sygt og menneskefjendsk tankegang. hvad bliver det næste skal kommende forældre ansøge om. de må blive det. man tvangsfjerner på pædagoers formode antagelser det ikke et retssamfund værdigt er det virkelig børnes tav man vil tjene? jeg så på svensk tv. En historie om en adh dreng der blev placeret på et hjem for disse. forældrende advarede alle om at hjemmet ikke var sikkert nok, de blev af vi allende vide folket selvfølgelig afvist. Med det tragisk resultat at deres 5 årig dreng druknede. tror mig, der var kø ved håndvasken. med vanlig politisk logik må vi selvfølgelig indføre endnu en kontrol indstans,der ligesom alle de andre ikke virker. i stedet for at undsøge årsagen,at personallet måske ikke har været deres opgave voksen. nej vi må heller ansætte nogle flere embedsmænd der sidder 500 km væk fra virkeligheden. jeg sikker på at de væste fører ikke kunne gennemtænke et bedre system . Normalt vil jeg tror at politiker kender thomas more utopia,hvis og såfremt så har de misforstået den, et problem løses ikke ved at skabe flere. demokraties vigtigste parameter er retsikkerhed for alle dets borger.hvordan vil man forholde sig til de børn som vokser op hos forældre de ikke ligner. De bliver nok spist af med en undskyldning hurra for retssamfundet. Om en maskine der kan spare 500 pædagoer er jo ligegyldig,når det drejer sig om mennesker ikke mink. En klog mand sagde engang,der er enlogisk grund til at biblen findes i flere udgaver,vi læser og fortolker som det passer os bedst. er vi i 1984?

8
5. juli 2021 kl. 14:31

Hvis datapunktet fortæller at i 95% af alle sager hvor psykologen har evalueret tvangsfjernelse af børn, er det vel svært at argumentere imod?

Det er da en simpel opgave at gå imod. Da nævnte datapunkt udelukkende er baseret på dokumentation fra en gruppe utilfredse forældre, rummer dette udelukkende markante grunde til utilfredshed.

Dette skæve udvalg indikerer dog, at der kan være tilsvarende bekymrende fusk i en måske langt større ukendt mængde sager, som endnu ikke er målt og vejet. Som generelt datapunkt er det absolut ubrugeligt - men fremragende til illustration af problemet med for stor tiltro hvad AI-systemerne måske tvangsfodres med.

7
5. juli 2021 kl. 13:41

Når sagsbehandlerne skal begrunde en afgørelse, så kan de ikke henvise til 42%. Men de kan godt henvise til ti konkrete algoritmisk fremhævede punkter i sagsdokumenterne, som i tidligere lignende tilfælde har ført til 42% anbringelser.</p>
<p>I det tilfælde overlapper automation-bias med præcedens. Dvs. at det støtter ensartet behandling af ensartet udgangspunkt, præcis ligesom ensarting af strafudmåling i retten.

Du får det næsten til at lyde som utopi, at AI-systemet kan afhjælpe på sådan vis. Hvordan håndtere systemet fejl i datapunkter og hvordan vægtes hvert enkelt datapunkt i forhold til hinanden? Du kan tage et kig på denne historie:https://ekstrabladet.dk/dagsorden/afsloering-boern-tvangsfjernet-med-fup-og-fidus-rapporter/8604063

Hvis datapunktet fortæller at i 95% af alle sager hvor psykologen har evalueret tvangsfjernelse af børn, er det vel svært at argumentere imod?

6
5. juli 2021 kl. 12:33

Jeg vil gerne henvise til 'Danmarks kortet' fra Socialministeriets hjemmeside. Her kan man se hvor mange sager på socialområdet, der er anket til ankestyrelsen, og hvor mange af dem der er omstøt og blevet send tilbage til behandling på ny.

https://sm.dk/danmarkskort/2021/jun/omgoerelsesprocenter-paa-boernehandicapomraadet-i-2020

%'erne er chokerende. Og jeg må indrømme, at jeg har svæt ved at se hvordan en algoritme, der baserer sig på data med så stor en fejlprocent på nogen måde vil kunne være brugbar.

Desuden så, som Jeppe Bundsgaard skriver (og jeg er meget enig), så er andre datakilder altså heller ikke ligefrem pålidelige. Når jeg tænker på hvor upålidelig sådan noget som f.eks. børnetandplejens registeringer er er f.eks. i min kommune (ja det indgår som data ifølge en tidligere artikel på V2), så ja...

Noget helt andet er så forståelsen for IT i den kommunale sagsbehandling, der er altså ikke altid den forståelse og respekt/naturlig skepsis, der skal være over for IT. Der er ingen tvivl om at mange steder der vil 'hvis IT toolet siger det så er det jo rigtigt' den generelle holdning blandt det ikke faglige embedsværk.

Og sidste men ikke mindst så er det igen bekymrende, hvordan 'videnskablige formål' bruges til at samkøre data til algoritmer, som data ikke var indsamlet, med formål til. Hvorefter algoritmerne så bruges i sagsbehandling. Dette er .. .grænsende til misbrug af 'videnskablig formål', i persondataforordningen IMHO.

// Jesper

5
5. juli 2021 kl. 12:21

Man kunne se på den nuværende praksis, hvor lovgivningen i høj grad bliver overtrådt, som det fremgår af Ankestyrelsens behandling af klagesager (det kan være noget så simpelt som at høre de involverede før man træffer en afgørelse). Hvis man ikke med det mere gennemskuelige grundlag kan handle efter reglerne, så synes jeg, at man må være ret skeptisk over for, om man kan uddanne socialrådgivere til at bruge et profileringsværktøj efter hensigten og få det til at virke i praksis.

Det virker meget optimistisk, hvis man tror, at når systemet kommer med en række punkter, hvor der statistisk set er en sammenhæng, at man så vil se en tilstrækkelig indsats for at sætte spørgsmålstegn ved, om det gælder i det konkrete tilfælde. Der er fx en statistisk sammenhæng mellem misbrug og trivsel hos børn, men man kan ikke slutte til, at fordi faren drikker mere end 14 genstande om ugen, at så mistrives et barn, og man kan heller ikke sige, at selv om barnet mistrives og faren drikker, så skyldes det faren (det kunne fx være på grund af mobning i skolen). Det er sådan set også ligegyldigt, om en tese er i korrekt i 90 %, 95 % af tilfældene eller er et resultat af erfaring, for det afgørende er, at man prøver at modbevise tesen. Man skal altså i praksis tage udgangspunkt i, at ens værktøj tager fejl, og det er et stort krav at stille til en sagsbehandlere, der ikke er kritiske nok i dag.

4
5. juli 2021 kl. 11:17

Michael Rosholm har en historik med at indgå i tvivlsomme projekter og efterfølgende dække over de problemer der viser sig.

Han forestod en evaluering af LøkkeFondens drengeakademi hvor det viste sig at de forventede effekter af en kort Løkke-indsats udeblev. Efterfølgende blev rapporten mørklagt og Rosholm deltog aktivt i at holde den borte fra journalisters søgelys. Detektor afslørede sagen.

Jeg gennemførte i 2019 sammen med Danmarks absolut fremmeste på det psykometriske område, Svend Kreiner, en undersøgelse af folkeskolens nationale tests måleegenskaber i dansk læsning, 8. klasse 2017. På dagen hvor vi fremlagde vores rapport, skrev vi en kronik hvor vi forklarede at nationale test ikke blot måler alt for usikkert til at resultaterne kan bruges af lærerne, men også forkert.

Rosholm var medunderskriver på en kronik sammen med 30 andre økonomer hvor de påstod vi tog fejl. De havde ikke læst vores rapport og ikke forstået problemerne. Vi forsøgte at forklare dem det, men de ville ikke tale med os. Skaden var sket - journalister mente nu at der var uenighed om problemet blandt eksperterne. Det var der ikke, for økonomerne forstod ikke hvad de talte om (det lyder hårdt når jeg skriver det, men sådan er det - de har ingen forskning der indikerer at de har arbejdet inden for det psykometriske område, og deres offentlige udtalelser viser at de ikke forstår sagen).

Efter meget besvær gennemførte Undervisningsministeriet tilsvarende analyser, som viste at de problemer vi havde påpeget, ikke bare gjaldt læsning i 2017, men alle fag, alle årgange, alle klassetrin. Alle data fra nationale test er således ubrugelige til både rapporter til eleverne og skolerne - og ikke mindst til forskning. Ministeriet har omregnet alle resultater tilbage i tiden for at få de korrekte tal at arbejde videre med.

Nu skulle man tænke at økonomerne var ansvarlige forskere som på den baggrund trak deres kritik tilbage og undskyldte deres misforståelser. Og at de gik i gang med at kontrollere om de har rapporteret resultater på baggrund af de forkerte data, som ikke holder vand.

Men nej. De udgiver stadig artikler på baggrund af de forkerte data!

Jeg ville derfor være mere end meget utryg hvis jeg skulle arbejde med et instrument som Rosholm har deltaget i udviklingen af.

Kilder

https://pov.international/lokkefondens-drengeakademi-et-paedagogisk-bedrag/

https://dpu.au.dk/om-dpu/nyheder/nyhed/artikel/ny-forskning-de-nationale-test-er-fejlagtige-og-alt-for-usikre/

https://politiken.dk/debat/kroniken/art7107931/De-nationale-tests-i-folkeskolen-virker-overhovedet-ikke

https://politiken.dk/debat/kroniken/art7168552/Drop-kritikken-af-de-nationale-tests

3
5. juli 2021 kl. 10:55

kommunal udrulning af børne-AI

Det er selvfølgelig godt for Version2 med flere clicks, men den titel er simpelthen for lav.

Der er to parters holdninger i AI i artiklen:

  1. Alle algoritmer er AI, fordi uha.. et input bliver omregnet til et output af en uha.. computer.

  2. Den omtalte algoritme er ikke AI, fordi den ikke er selvopdaterende.

Det er derfor dårlig journalistik at dømme algoritmen AI i artiklens titel, og det er decideret tamt at påkliste "børne-".

Og hvor er de konkrete eksempler på hvad algoritmen gør og outputter?

Værktøjet trænes nu til at give en risiko for anbringelse baseret på historiske data fra en knap to-årig periode.

Det er klart at man ikke laver et sådan værktøj, der skriver 42% i en rund rød boks ved siden af det lille barns stamdata, som artikeltitlen insinuerer.

Men hvad gør det så?

Når sagsbehandlerne skal begrunde en afgørelse, så kan de ikke henvise til 42%. Men de kan godt henvise til ti konkrete algoritmisk fremhævede punkter i sagsdokumenterne, som i tidligere lignende tilfælde har ført til 42% anbringelser.

I det tilfælde overlapper automation-bias med præcedens. Dvs. at det støtter ensartet behandling af ensartet udgangspunkt, præcis ligesom ensarting af strafudmåling i retten.

Og det er vel ønskeligt at sagbehandling ikke fluktuerer helt vildt, baseret på ugedag, behandling før og efter frokost, geografisk placering osv.

Det er desuden mere forsvarligt at regulere en ikke-volatil behandlingspraksis, såfremt man fagligt eller politisk måtte ønske at lette eller stramme anbringelsespraksis.

2
5. juli 2021 kl. 08:50

I lyset af den eksplosivt stigende tvangsdigitalisering med tilhørende stripmining af personlige data af tvivlsomme aktørerer i forsknings- og forretnings- og institions-verdenen, er der mere end nogensinde behov for rettigheder. Et ydmygt bud fra Analogiseringsstyrelsenhttps://analogist.dk/de-analoge-rettigheder/

1
5. juli 2021 kl. 07:59

Altså nær jeg læser Professor på Aarhus Universitet Michael Rosholm og docent ph.d Anne Marie Villumsen fra VIA University College svar på spørgsmålene, så spekulerer jeg på om det er en ”politisk prøveballon”?

Altså den manøvre som primært sker i agurketiden hvor ofte lidt ukendte politikere opsender en kontroversiel ide. Bliver ideen skudt ned fra alle sider, så er det selvfølgelig ikke partiets politik, men bærer ideen medvind så bliver det meget hurtigt partiet officielle politik og pludselig var det de kendte politikkeres ide fra starten.

Hvad er det der står i artiklen, at systemet kaldes AI når der skal opnås politisk ”funding” til såkaldt forskning, men det kun er er et beslutningsstøtteværktøj når systemet skal kategoriseres legalt og dermed også hvilke lovkrav et sådant system skal leve op til?

Med jer ved jeg ikke, men på mig virker den argumentation som om, at en skatteyder når han skal betale skat, så har han ikke tjent så mange penge, men når han vil låne penge i banken, så har han pludselig tjent en hele del mere end det beløb der står på skatteopgørelsen.

Måske var det et mere relevant forskningsemne i, hvor mange af dette systems brugere der mon træffer en beslutning som er anderledes end det beslutningsstøtteværktøj anbefaler?

Sagen er jo iskoldt, at noget først står i et offentligt system, så er der ingen som interesser sig for om informationen rigtig.

Og derfor er der i mit ingen tvivl i mit sind. Det system er slet ikke klar til nogen form for afprøvning blandt kommunerne!

Det vil være for omfattende at gå ind i hvert punkt, men helt grundlæggende savner professoren og docenten en grundlæggende forståelse for hvordan data opstår og brugere ”fungerer” – for der er pæn stor del af brugerne som bør kaldes misbrugere når vi ser på hvordan de personer bruger og opdaterer systemet.

Var det 16 timer det tog før Microsofts AI (kaldet Tay) i 2016 gik fra at være ”pæn og ordentligt” til at være trænet som fuldblods racist?

De data en AI skal trænes på, skal være udvalgt på forhånd, være renset og måske ligefrem opgraderet manuelt.