bloghoved erik david johnson

EU's regelsæt for AI

En af de vigtigste organer for dataetik og ansvarlig AI er EU’s European AI Aliance. Samtidig er det et erklæret mål for Danmark at være en forløber på dataetikken, på national plan og på et niveau hvor vi ligefrem skal gøre det til en forretningsfordel at agere dataetisk. Men hvem sætter så dagsordenen i DK?

Sidste år kom jeg og de andre medlemmer af Ekspertgruppen for Dataetik med 9 anbefalinger til regeringen om hvordan danske virksomheder kan agere dataetisk. 8 af disse gennemføres nu, med den dataetiske mærkeordning og det nyligt formede dataetiske råd som et udpluk af disse anbefalinger.

Som jeg har skrevet om tidligere har anbefalingen om en ”Dynamisk værktøjskasse” til AI udviklere med helt praktiske værktøjer og tilgange, været det forslag som jeg har lagt særligt vægt på og drevet frem i ekspertgruppen. I forlængelse af dette arbejde blev jeg så for nyligt optaget i EU's ”European AI Alliance”, og her slog det mig at der er et vist overlap imellem det arbejde der gøres i DK og det der foregår i EU.

For eksempel har EU's European AI Alliance igangsat en pilotfase for afprøvning af deres udviklede ”Assessment List” fra deres ”Ethics Guidelines for trustworthy AI”, som meget i stil med målet for den dynamiske værktøjskasse, skal sikre at de der arbejder med AI i praksis, får nogle værktøjer til at sikre at de agerer dataetisk.

Spørgsmålet er hvor Danmark skal satse. Bør vi forsøge at være en ledestjerne ift. dataetik, som kan inspirere og guide omverdenen og sælge det danske Brand, eller bør vi koncentrere os om at have størst mulig indflydelse på de dataetiske retningslinjer på EU-niveau, som potentielt kommer til at have større effekt og rækkevidde?

Hvis Danmarks dataetiske råd kommer hurtigt ud over stepperne med det det dataetiske forslag om en dynamiske værktøjskasse rettet mod dem der arbejder med datadrevne løsninger, tror jeg i hvert fald at vi har en reel mulighed for at bane vejen for et niveau der rækker ud over Danmarks grænser.

Det siger jeg blandt andet fordi at når jeg læser den førnævnte assessment list, så forekommer indholdet mig meget abstrakt. Læser man for eks. om hvordan man skal undgå bias, tales der mere om hvad man ønsker at undgå end hvordan. Efter at have arbejdet med AI-drevne løsninger i en årrække har jeg lært at der er helt specifikke steder under udviklingen af sådanne løsninger hvor bias typisk introduceres. Lad mig bruge det som et kort eksempel.

Illustration: EDJ

Bias kan være indeholdt i rå data fra starten – måske siger data korrekt og akkurat noget om verden som vi ikke bryder os om. Det kunne være at det bedst betaler at hyre det ene køn til stillinger i et bestemt marked hvor det andet køn har en uretfærdig fordel pga. diskrimination. Det var ikke noget der krøb ind i modellen ved en fejl sådan er det bare – og vi bryder os ikke om at få det at vide.

Indsamling og staging af data kunne være ramt af bias ved at man undervurderer vigtigheden af diversitet i data. Det så man da Google skulle lave ansigtsgenkendelse på deres billeder, men ikke havde styr på træningsgrundlaget og antallet af sorte mennesker deri, så man at nogle sorte mennesker blev kategoriseret som gorillaer – meget beklageligt og etisk problematisk.

Feature Engineering er så der hvor vi transformerer data der beskriver vores menneskelige, kaotiske verden til et simpelt format som en AI model kan læse og træne ud fra. Det kunne for eksempel være at reducere en række menneskelige beskrivelser til tal mellem 0 og 1, som er det eneste kunstige neurale netværk – en særdeles udbredt AI model – kan arbejde med.

Man kan let forestille sig hvordan bias hurtigt kan introduceres ved så kraftig en reduktion. Til gengæld er det også ved feature engineering at man har mulighed for at rette op på den bias der er indeholdt i de tidligere trin og faktisk forhindre en skævvridning af det dataetiske fundament for den udviklede løsning.

Det sidste punkt i min personlige bias model for AI-drevne løsninger er så der hvor selve træningen af AI modellen foregår, og det er så det absolut sidste sted at bias introduceres, men fordi det er herfra resultaterne kommer ud af maskineriet, så råber vi ofte op omkring bias fra AI modeller uden at have øje på at den sev ind via de tre tidligere stadier af tilrettelæggelse af data.

Illustration: EDJ

Bias, personhenførbar data samt modellens gennemsigtighed, eller ”forklarlighed” er så i mine øjne, de tre vigtigste områder at kigge på. Frem for politiske hensigtserklæringer fra EU, skal vi i Danmark have udviklet nogle konkrete værktøjer til at arbejde med disse områder - rettet mod dem der udvikler løsningerne, ikke til ledere som skal få ansatte til at skrive under på diverse hensigtserklæringer. Med en sådan dynamisk værktøjskasse kan vi positionere os stærkt på det dataetiske landkort, som dem der både har de rigtige samfundsværdier, men også har svarene på hvordan vi går til opgaven i praksis.

Kommentarer (7)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Henrik Biering Blogger

Både fra EU: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-tru...
og nu fra OECD:
https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-tru...

... men jeg synes disse vejledninger samt dit indlæg afspejler en holdning til AI som en form for centralt orakel, der skal sikre en form for højere retfærdighed ud fra en central vurdering af hvad der er samlet set er bedst for de implicerede parter.

Hvorimod verden i praksis er skruet sammen så de parter, der kan blive påvirket af en beslutning kan have vidt forskellige interesser i udfaldet.

Så det mest etiske vil ofte ikke være at udvikle et guddommeligt bias-fri system, men derimod at hver interessent får sin intelligens, der er biased i tråd med vedkommendes naturlige intelligens. Det vil garantere "gennemsigtighed" som man kan se det i f.eks. skakspil, hvor man analysere processen frem mod resultatet og tjekke om reglerne er blevet overholdt.

Når jeg f.eks. søger efter en vare på Google, har Google en helt legitim grund (de skal leve af det) til at vise mig muligheder, der maximerer deres indtjening, mens min personlige AI naturligvis vil udnytte diverse muligheder for at lave søgequeries og simulere metadata, der giver de for mig mest relevante resultater.

Der er også en grund til at parter i en sag normalt vælger hver sin advokat, eller at der indhentes en 2. uafhængig opinion i lægelige sager.

I relation til offentlige systemer kan det være særlig svært at definere hvad der er etisk. Hvad f.eks. hvis kommunens ny lov-regel-baserede system afviser at give en person førtidspension, mens personens eget ML-system har fået indlæst samtlige tidligere afgørelser og ud fra den betragtning retfærdiggør at vedkommende skal have tildelt førtidspension - eller vil kunne få det ved skift af kommune eller sagsbehandler. Er det etisk at følge reglerne i en lovgivning, som lovgiverne har tilsigtet at gøre etisk - eller mere etisk at behandle folk ens - i en kommune eller i hele landet?

Det er ikke nogen let problematik. Jeg tror på basis af ovenstående at det bedste der kunne ske for AI at man bevæger sig fra begrebet "Artificial Intelligence" til "Augmented Intelligence" for at markere at vi ikke skal have helt ny centraliserede beslutningsmønstre, men bruge teknologien til at understøtte og især skalere den traditionelle distribuerede brug af human intelligens, så naturlig bias baseret på interessekonflikter bliver udstillet i stedet for at blive forsøgt fjernet/skjult af en udviklers formodet salomoniske hånd i et centralt system.

  • 1
  • 0
Mads Hjorth

Vi er helt enige...

Jeg tænker at AI måske kan bruges til at udarbejde retningslinjer for afgørelser. Afgørelser bør objektivt følge retningslinjer. Du kan klage over din afgørelse, og byretten vil hjælpe dig med at bestemme om afgørelsen følger retningslinjerne. Hvordan retningslinjerne er udarbejdet er vel i sidste ende ministerens ansvar.

Det er vist også det du siger....

Det eneste lille problem jeg har med den fortælling... er at den er meget business-as-usual. AI er en voldsom forandrende praksis. Og jeg spekulerer selv meget over hvordan vi kan få talt om AI i forskellige sammenhænge.

Der er meget forskel på profilering af borgere, selvkørende biler og at genkende et hjertanfald over 112.

Så første opgave er nok at blive enige om at AI er en praksis. Om det er godt/skidt/etisk afhænger rigtig meget om hvad formålet og konsekvenserne er i den enkelte anvendelse.

Og det gør vi så :-)

https://www.ds.dk/da/udvalg/kategorier/it/kunstig-intelligens
https://www.iso.org/committee/6794475.html

  • 0
  • 0
Log ind eller Opret konto for at kommentere