Bent Dalager

AI kryber ind i investerings-beslutninger, men vi overser langsigtede effekter af bias, mener forsker

Denne kommentar er mest til Version2. Mange af AI artiklerne handler om bias og hvordan dette er problematisk. Ironisk nok så virker Version2 (til trods for sit ingeniørmæssige ophav) selv meget biased i sin dækning af AI-området. Det er som om Version2 konstant har sølvpapirshatten på og ser trusler og problemer med AI som "kryber" ind allevegne. Hvorfor ikke have en mere videnskabenlig indstilling? Denne artikel omhandler et spændende emne, nemlig long bias og behøver ikke at fungere som udråbstårn for farligheden af AI. I stedet kunne Version2 have lavet en overskrift som: "Dansk forsker: Husk at undersøge Long Bias ved brug af AI". Den er stadig catchy, kritisk vinklet og vækker interesse (læseren vil tænke: "Hvad er long bias?"), men den er ikke normativ overfor AI. Jeg synes Version2 gør udbredelsen af AI i samfundet en kæmpe bjørnetjeneste ved sin negative holdning. I bør huske, at mange kun læser overskrifter og suser videre til næste overskrift. Her er long bbias jo det egentlig clou, men det finder man først ud af, hvis hele artiklen læses. Så ser man også at Mikael Rehn næppe vil bruge ordet "kryber" om brugen af AI. ADD er ikke nedsat for at smadre AI, men for at vi kan blive bedre til at sikre, at AI bliver brugt på den rigtige måde og ikke får negativ påvirkning af samfundet. Det vil klæde Version2 at udvise nysgerrighed og bringe de kritiske og nye vinkler under den paraply fremfor at udvise frygt som i dag.

23. december 2021 kl. 11:30
Helsingør-skoler beholder Google: Vi må leve med risici for børnenes databeskyttelse

Version2 fortsatter deres korstog i bedste Max Schrems stil mod enhver data-anvendelse, hvor der kan være en minimal risiko for at personoplysninger kan udveksles. Bech Bruun har nogle af landets bedste databeskyttelses-jurister og har rent faktisk læst GDPR cirkulæret i sin fulde ordlyd.

Her er den vigtige glemte passage, at der skal foretages en risikovurdering i den enkelte sag: "The likelihood and severity of the risk to the rights and freedoms of the data subject should be determined by reference to the nature, scope, context and purposes of the processing. Risk should be evaluated on the basis of an objective assessment, by which it is established whether data processing operations involve a risk or a high risk"

Folkedybet er ikke klar over, at GDPR skal fungere således og det samme gælder for en lang række jurister (og andre i dette land), der synes at tænke, at der er tale om almindelig lovgivning, dvs. at de angivne paragraffer er binære og ikke kontekstuelle. Som jeg læser ovenstående sag, så har man netop fulgt GDPRs grundlag og foretaget en risikovurdering, hvor man holder regelsættet op på den ene side og på den anden side vurderer risikoen, dvs. hvad der egentlig kan ske og hvor slemt det vil være (risk level). Det er smukt at se, hver gang det sker. Det er alt, alt for sjældent. BigTech virksomhederne skal holdes i stram snor, men vi skal ikke begynde at antage, at de ikke overholder deres kontraktuelle forpligtigelser. Det gør de over en bred kam og takket være Max Schrems har de alle strammet voldsomt op, så risikoen er væsentligt mindre end hos så mange andre virksomheder i dag. Og der bliver ført nøje tilsyn. Det behøver den enkelte kommune ikke at bruge meget tid på. Pt har BigTech dog ikke alle løst problemet med 24/7 support, hvor en teknisk supporter udenfor EU kan komme til at se fx nogle personnavne og måske telefonnumre (?) i denne sag ifbm. med et fejlcase, men er der ærligt talt nogen i det ovenstående spor, der ser dette som et kæmpeproblem - altså et problem, som gør at man af den grund skal lukke det hele ned til skade for samtlige børn? Det er ligesom da Tyskland besluttede at udfase alle A-kraftværker i kølvandet på Fukushima-ulykken trods den ekstremt lille risiko for uheld og 0% for at et kystnært tysk A-værk skulle blive ramt af en Tsunami (!). Til gengæld estimerer eksperterne at ml. 7.000 og 9.000 flere tyskere hvert år i snit vil dø af partikelforurening som følge af nedlukningerne. Er der en risiko? Ja, det er der. Er den af en væsentlighed i sandsynlighed og konsekvens, så der skal foretages en øjeblikkelig lukning af denne service for alle elever (altså "high risk")? Nej, siger kommunen og Bech Bruun - og mit bud er, at de har helt ret.

13. december 2021 kl. 12:06
Skat vil have mere machine learning til borger-kontrol: Forsker frygter glidebane

I bedste Ekstrablads-stil er Version2 her i gang med at appellere til læsernes frygt. Skat arbejder allerede med machine learning på et vist niveau og det skal de da i den grad forstærke brugen af. At et medie under Ingeniøren agerer maskinstormer er ret besynderligt. Som jeg forstår forslaget er der ikke tale om, at der ønskes adgang til flere data end medarbejderne i Skat allerede har mulighed for at få adgang til. De kan bruge dem til klassisk analyse allerede. Så ingen glidebane der. Det er "blot" et ønske om at få blåstemplet brugen af machine learning ovenpå disse data, formentlig forårsaget af at nogle jurister har sat spørgsmålstegn ved brugen af netop denne auto-analytiske metode. Ligesom jurister i relation til Skat har sikret, at vi nu får en hel banal model til beregning af den nye ejendomsvurdering, mens Skats avancerede machine learning (:ML) model så blot får lov at fungere som kvalitetsstempel. Den er naturligvis meget mere præcis, men må kun bruges til at checke hvorvidt den banale beregning afviger for meget fra ML-modellen. I så fald sendes vurderingen til manuel behandling. For naturligvis må vi ikke bruge ML modellen i stedet for den banale model (!) Men det er der, vi er lige nu. Dyrt og i bedste fald mærkeligt. Lad os nu komme i gang med at udnytte ML for alvor, så vi både kan få langt bedre kvalitet og hurtigere og mere individuel sagsbehandling. Og nej, jeg er ikke bange for at hverken en rød eller blå regering vil omdanne Danmark til en totalitær stat og kaste sig ud i ML-baseret hyperovervågning af hver eneste danskers digitale skridt. Glidebanen går i øjeblikket den modsatte vej. Medierne inklusiv Version 2 skubber til frygten for ML og vi ser gradvis nedlukning af ML overalt i offentlig sektor. Selv de bedste eksempler som fx hurtig detektering af hjertestop ved 112 via ML kommer næppe nogen vegne. Vi glider dybere og dybere ned pga. frygt for fejl og følelsesbaserede protester i stedet for at hjælpe vores medmennesker vha. den nye teknologi. Vi har en etisk fordring, som der desværre ikke bliver talt om. Etik og AI handler pt. kun om at sikre at vi IKKE gør noget. Det burde i lige så høj grad handle om at sikre, at vi gør noget. Kom nu Version 2.

6. december 2021 kl. 00:12