bloghoved erik david johnson

AI, dataetik og den danske model

Som AI-specialist med forskerbaggrund og praktisk erfaring med AI-udvikling af løsninger, som er i produktion i dag, har jeg haft held med at se igennem hype og salgssnak og forudse flere trends inden for mit felt.

Jeg forudså for eksempel for længe siden, at AI-produkter og AI brands såsom IBM's Watson, der for lægmand lod til at være plug’n’play, ikke ville kunne leve op til deres egen salgshype. Jeg kunne ligeledes se, at AI-drevne løsninger ikke ville komme til at overtage en masse komplekse opgaver, men i stedet blot ville bidrage med værktøjer til at gøre alle de ting, vi plejer at gøre – lidt hurtigere og smartere end hidtil.

Andre hype-inducerede emner, der til min undren stadig debatteres, er de høje forventninger til forretningsapplikationer af avancerede AI-modeller såsom deep learning, deep reinforcement learning og lignende. Jeg lægger personligt gerne hovedet på blokken og siger ligeud, at selv om Google Deep Mind har slået mennesker i et bestemt computerspil eller klassisk brætspil af ekstrem høj kompleksitet, så betyder det ikke, at der er nye forretningsapplikationer af AI på vej rundt om hjørnet.

De resultater er nemlig lavet i et lukket matematisk system, hvor den samme handling i samme kontekst altid giver det samme resultat. Sådan er den menneskelige virkelighed bare ikke. Udover at vi aldrig vil have komplet data, så er vi mennesker underlagt en verdensforståelse i rum og tid, som betyder, at enhver kontekst for interaktion er unik og uigenkaldelig. Du er en anden person, end du var for en uge siden, og du reagerer anderledes på samme input og kontekst, end dit uge-yngre-selv gjorde.

Hypen er også tydelig inden for sprogteknologisk AI (NLP), hvor Google lægger salen ned med demonstration af deres AI-løsninger, som selv ringer op og bestiller tid hos frisøren. Der er bare intet af det, vi ser, der kører i den »menneskelige bane«.

Det kan ikke videreudvikles til AI, som kan relatere til dig eller oversætte store litterære værker bedre end mennesker. Disse løsninger har ingen adgang til den menneskelige verden og behandler med logisk atomisme vores sprog som en kontinuerlig funktion – en blandt sprogforskere fuldstændig absurd præmis.

Har man lyst til at dykke ned i emnet, er min forskning heri tilgængelig online.

Data som råstof

Skal vi snakke seriøst om AI-drevne løsninger og de applikationer, vi kigger ind i, så er det vigtigt at understrege, at på trods af hype og salgsgas så er der faktisk vigtige og relevante effektiviseringer og forbedringer, vi kan gøre ved brug af AI.

Hvis vi sætter ambitionsniveauet rigtigt og tager til os, at AI i første omgang repræsenterer en investering i data, kan AI-drevne løsninger faktisk gøre en stor forskel for virksomheder, organisationer og for det danske samfund som et hele.

Problemet er bare, at hele fundamentet for dette – vores data – er noget, vi tager for givet, og vi fokuserer fejlagtigt på den brug af AI, som aldrig bliver bedre end det data, vi føder den med. Det er i mine øjne den største forhindring for innovation, vi står over for i dag, og det gør sig gældende for den enkelte virksomhed – såvel for vores samfund som et hele.

For den enkelte virksomhed er jeg ofte blevet kaldt ud, når bestyrelsen har været til konference og hørt førnævnte salgshype om AI som et plug’n’play-produkt, der kan bruges til at høste lavthængende frugter. Så må jeg som regel starte med en kold spand vand ved at spørge ind til og undersøge, hvor godt det data, man allerede har, passer med det, man håbede på at opnå med AI. Ofte viser det sig, at der først skal investeres i data, og det er også helt naturligt. Først finder vi ud af, hvor vi skal hen, og derefter stiller vi krav til, at data kan bruges af AI-drevne løsninger til at hjælpe os med det.

Alternativet var, at vi undersøgte, hvad der kan lade sig gøre med det data, vi har – og hvad det så end er, bliver den retning, vi tager for vores virksomhed. Det lyder absurd at lade sig definere og forme af sine mere eller mindre tilfældigt indsamlede data på den måde, men det er en tilgang, jeg ser praktiseret igen og igen. Det er kort sagt et udtryk for manglende indsigt i AI og data vildledt af salgshype og falske forhåbninger.

På samfundsplan laver vi den samme fodfejl, hvor vi lader os forme af det data, vi tilfældigvis har, frem for at indsamle data med bestemte innovationsmål for øje. Jeg kan huske, at jeg efter at have været udpeget af regeringen til at sidde i ekspertgruppen for dataetik, blev inviteret til det Digitale Topmøde 2019, hvor Danmarks strategi for kunstig intelligens blev lanceret af hele ministerrækken. Igen og igen blev det sagt, at »Danmark er nummer 1 i offentlig digitalisering!«, men jeg så intet fokus på en national dataindsamlingsstrategi.

Det er en afgørende pointe, at der ikke er belæg for at antage, at vores innovationsmål i fremtiden kan bæres af vores nuværende datagrundlag, og der lader ikke til at være sat mekanismer i værk for at sikre det. Vores førsteplads i offentlig digitalisering er derfor en rigtig farlig sovepude – holdt op mod den problemstilling.

Samfundsværdier og dataetik

Et andet tilbagevendende tema ved det digitale topmøde var »dataetik som konkurrencefaktor« i en international kontekst. Her er tanken, at vores unikke dataetiske tilgang til datadrevne løsninger skulle differentiere os fra andre lande i en sådan grad, at den danske model bliver en eksportvare. Men hvordan er man dataetisk i praksis? I ekspertgruppen for dataetik plæderede jeg som AI-fagkyndig for nogle konkrete værktøjer til de udviklere, som sidder og laver de egentlige løsninger, hvilket udmøntede sig i anbefalingen af en Dataetisk Værktøjskasse.

Her kan programmører og udviklere få hjælp til at håndtere bias, vurdere AI-modellernes gennemsigtighed/forklarlighed og forholde sig til personhenførbare data. Sammen med Erhvervsstyrelsen har jeg arbejdet på at få første version klar i 2020. Her kan Danmark differentiere sig, da andre forsøg på det samme er for vage og generelle og ikke formår at henvende sig til dem, der faktisk implementerer de løsninger, vi debatterer så meget. Den dataetiske værktøjskasse fylder et hul i markedet – på det internationale plan.

Jeg blev for nylig optaget i EU's European AI Alliance, hvor jeg også har delt disse tanker og er blevet bekræftet yderligere i, at der mangler en praktisk tilgang – også på det europæiske plan og videre. Som et svar på en artikel om emnet skrev et medlem tilbage med følgende:

»Programmers and developers are the people actually shaping the solutions and much of their ethical fabric. Ethics can easily be overlooked, forgotten, or mistakes made, yet solutions build on these oversights are deployed and potentially (at least slightly) flawed as a result.«

Hvis dataetik skal være en konkurrenceskabende faktor, kunne den praktiske tilgang henvendt til udviklerne være én måde at differentiere sig på, og uanset tilgangen vil konkrete tiltag med direkte effekt være noget, der får den overordnede strategi til at fremstå stærkere og mere overbevisende.

I sidste ende skal vi dog især se på, hvad der gør Danmark til noget særligt, når vi sammenligner os med de større nationer såsom USA, der har langt færre restriktioner på udviklingen af AI-drevne løsninger, og Kina, der lader til nærmest at være ubebyrdet af hensyn til den personlige frihed, som vi i Danmark vægter så højt.

Den danske model

Dataetik handler om værdier. I ekspertgruppen startede vi også vores arbejde med disse, og det samme gør den rapport med anbefalinger til regeringen, vi fremlagde. Det er værdier som »selvbestemmelse«, »værdighed«, »retfærdighed«, »diversitet«, osv. Dataetik er i min optik en konkurrenceskabende faktor, det øjeblik den formår at indfange disse værdier og gør dem praktisk operationaliserbare.

Det betyder, at vi først og fremmest skal tale om, hvilke datadrevne innovationsmål vi i kraft af disse værdier ønsker at forfølge i Danmark. Når vi så har disse mål på plads, skal vi med dem i hånden se kritisk på vores nuværende data og datainfrastruktur på samfundsplan og forsøge at forme dem efter, at de skal kunne danne grundlag for de AI-drevne tiltag, der skal understøtte de etablerede innovationsmål.

På den måde bliver dataetikken et konkret værktøj til at eksportere de værdier, vi værner om i det danske samfund – den danske model – som vi tit ser blive hevet frem i en international kontekst som et slags ideel og forunderlig konstruktion, der åbenbart tillader de danske borgere at leve ypperligt meningsfulde, lykkelige og trygge liv.

De buldrer måske frem i USA og Kina, og det kan være svært til umuligt at matche deres investeringer i teknologierne, men den danske model kan stadig være en konkurrenceskabende faktor gennem den praktiske applikation af dataetiske tiltag, der fokuserer på AI-drevne løsninger som noget, der starter med en retning og en dataindsamlingsstrategi og på længere sigt leder til en samfundsform, som er værd at kopiere.

Det bliver ikke let. Offentlig data er opdelt i siloer på tværs af organisationer, regioner, ministerier og så videre, og det vil kræve en fælles og målrettet indsats, men vi kan jo starte med at spørge os selv, hvor vi gerne vil hen – hvad vores mål er – før vi begynder at stille krav til den måde, vi arbejder med data på. For den danske model er under pres. Vi opgiver værdier for at kunne effektivisere på kort sigt og personlige friheder for at kunne terrorsikre og styre vores samfund.

Lad os først etablere, hvor vi vil hen, og så derefter forme vores samfund, dets data og den måde, hvorpå vi arbejder med det – herefter.

Artiklen blev første gang bragt i Ingeniørens nye PRO-medie DigiTech 8. januar, 2020

Kommentarer (3)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Anne-Marie Krogsbøll

Her er tanken, at vores unikke dataetiske tilgang til datadrevne løsninger skulle differentiere os fra andre lande i en sådan grad, at den danske model bliver en eksportvare. "

På hvilken måde differentierer Danmark sig fra andre lande på det punkt?

Lad os først etablere, hvor vi vil hen, og så derefter forme vores samfund, dets data og den måde, hvorpå vi arbejder med det – herefter."

Det er muligt, at jeg ikke helt forstår dette, men det gør mig lidt utryg. For mig at se bør udgangspunktet være etikken omkring data, dvs. respekten for retten til privatliv, så kan vi i anden omgang se på, hvad vi så kan opnå med den respekt i behold. Og så må vi som samfund tilpasse vore digitale ambitioner til, hvor grænsen så går.

Er det det samme, du mener?

  • 7
  • 0
Niels Madsen

Tak for bloggen, Erik.
Jeg prøvede at finde nogle betragtninger om hvordan den måde som data indsamles på spiller sammen med etikken.

Jeg oplever at personlige data af mange slags i Danmmark indsamles helt ufriviligt fra borgerne ved tvang eller former for afpresning. Eksempelvis ved obligatoriske trivselsmålinger i skolerne, eller ved at man ikke kan få visse typer behandling, hvis ikke man acceptere at ens genetiske data, og retten til udnyttelsen af den afgives til staten.

Eller hvad med dette: At et barn nægtes kommunal sundhedspleje hvis ikke forældrene samtykker til at en lang række personlige helbreds og livstils informationer, som egentlig var tiltænkt sundhedsplejesken, må vidregives til uspecificerede forskningprojekter, m.v., helt uden genemsigtighed eller medbestemmelse.

Jeg har simpelthen svært ved at se hvor etikken kommer ind i billedet, hvis data er indsamlet på uetisk vis. Og at Danmark skulle være i front med etik, det kan jeg ikke genkende, selv om nogle lande (uden for Europa) nok er endnu slemmere.

Håber at du vil prøve også at tage stilling til denne del at emnet.

  • 7
  • 0
Morten Pedersen

Hej Niels

Skolernes forkætrede trivselsundersøgelser er ikke obligatoriske, det er blot at informere skoleledelsen om at man ikke ønsker at ens barn skal deltage.

Sundhedsdata og deres fuldstændig åbenhed overfor et utal af mennesker med adgang er i min optik et uendeligt meget større problem. Inklusiv at de kan deles med gud og hvermand i “anonym” form

  • 0
  • 0
Log ind eller Opret konto for at kommentere