bloghoved erik david johnson

AI, EU og det gode mod det onde

Denne artikel handler om EU’s nye retningslinjer for anvendelsen af kunstig intelligens (AI), som skal positionere Europa til en ledende rolle på området i en global kontekst. Forslaget risikerer at lægge en alvorlig dæmper på vores IT-innovation, men før vi dykker ned i det, skal vi ca. 10 år tilbage og en tur til Japans hovedstad Tokyo.

Min hustru og jeg bor og arbejder i byen – hun som engelsklærer for japanske skolebørn, og jeg som konsulent i det japanske udenrigsministerium. Vi skal være der ca. et år og undervejs oplever vi mange ting der fremhæver hvor anderledes en kultur Japan har, når den sammenlignes med Danmark og med Europa for den sags skyld.

En oplevelse står dog særligt klart frem. Min kære hustru var på vej til arbejde med metroen da hun ser at der på stationen er noget på færde. Nogle metroansatte løber forvildede rundt mens en vogn holder stille. Da hun kommer nærmere, møder der hende et sælsomt syn.

I den ene ende af metrovognen ligger en ældre dame alene og bevidstløs i en akavet stilling. I den anden ende står en hel række medpassagerer klemt op mod væggen – passive og med blikket den modsatte retning. Min hustru gør det som jeg tror de fleste af os ville gøre i situationen – hun løber ind og forsøger at give hjertemassage og mund-til-mund.

Nu er hun så tilfældigvis også en ret skrap sygeplejerske med erfaring fra kardiologisk afdeling, og det lykkes hende at holde nogenlunde liv i damen indtil redningsfolkene ankommer adskillige minutter senere, og damen har mén, men slipper fra situationen med livet i behold, takket være min hustru. Spørgsmålet som hun og jeg så talte længe om bagefter var så – hvorfor gjorde ingen noget?

Et par dage senere blev vi inviteret til en ”samtale” med distriktets brandchef, hvor vi blev hentet i en fin bil med chauffør og fik taget billeder til lokalavisen, med overrækkelse af et smukt, håndlavet heltediplom, og under samtalen blev min hustru spurgt om hvad der dog fik hende til at gribe ind i situationen. Vi måtte forsigtigt sige at det var normalen hvor vi kom fra.

Illustration: EDJ

Hvad vi lærte af oplevelsen er at Japans kultur er særligt præget af ”skam”, og at grunden til at ingen hjalp den døende kvinde, var frygten for den skam der ville være forbundet med at fejle eller måske endda gøre situationen værre. Situationen fremhæver den moralske værdi af at gøre noget godt over for værdien at undgå at gøre noget ondt, og vigtigheden af en balance mellem de to.

Hvis vi udelukkende forsøger at undgå minusser på kontoen i den utilitaristiske kalkule, og dette på bekostning af at vi misser nogle væsentlige plusser undervejs – så risikerer vi at stå med et langt fra ønskeligt udfald, og nu vender vi så tilbage til EUs nye retningslinjer for anvendelsen af AI. Skaberne gør sig nemlig skyldige i helt samme tilgang!

Fokus er nemlig udelukkende på at undgå onder, uden det store hensyn til hvordan goder som innovation og fremskridt bremses eller ligefrem umuliggøres. Der bør altid være en samvittighedsfuld vægtning mellem de to, men her lader det altså til at vægten er tippet fuldstændig til den ene side.

Jeg vil ikke dykke for meget ned i detaljerne, men de to overvejende udfordringer er som jeg ser dem:

1: Definitionen af AI er alt for bred. Ud over decideret machine learning inkluderer det også RPA, statistik og endda videns- og logik baserede tilgange! Det betyder at regulativerne kan ramme rigtig bredt.

2: Krav til dokumentation og test der viser at man lever op til EUs regler, er ekstremt komplekse og op til fortolkning af de forskellige EU medlemslande som hver især skal sikre implementeringen. Som vi kender det fra GDPR kan det gå ud over innovationshøjden, men hertil kommer også at AI-drevne løsninger akklimerer sig et skiftende datalandskab, og derfor vil skulle genbesøges konstant for at sikre at man efterlever gældende retningslinjer. Dette bliver endnu mere udtalt for de løsninger der falder under ”high risk AI” – en definition som også vil være ganske uklar i mange konkrete tilfælde.

Den moralfilosofiske pointe er at et overdrevet fokus på at undgå onder ikke fuldstændigt må overskygge vores ansvar for at handle på det godes potentiale, og det er nemlig præcis det jeg oplever gennemsyrer EU’s udspil ift. AI regulering.

I IT Branchens udvalg for Digitale Erhverv, havde vi en diskussion om netop dette, i forberedelse af vores notat på det nye AI udspil til Folketingets EU udvalgs overvejelse, og konklusionen var den samme. Startups og SMV’er i Danmark risikerer simpelthen at knække halsen på det.

Energistyrelsen opgjorde i sin Basisfremskrivning 2020 fra juni, at de danske drivhusgasudledninger skal beskæres med 20 millioner ton CO2 for at sikre klimalovens mål om 70 procent reduktion i 2030, målt i forhold til basisåret 1990. Siden da er der sket ganske lidt, og ingen reelle, upopulære ofre er gjort. I stedet læner man sig op af formodninger om at vi når det gennem ny, "avanceret teknologi".

Det er slående hvordan denne tankegang og så det udspil fra EU som vi potentielt kan være underlagt om 3 år, står i så stærk kontrast til hinanden, og man må bare håbe at udspillet barberes ned til noget mere praktisk tilgængeligt inden det skal implementeres.

Kommentarer (11)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
#1 Bjarne Nielsen

Hvis jeg skal holde mig fra billige analogier og personlige anekdoter, så lad mig i steet henvise til EDRi:

https://edri.org/our-work/eus-ai-law-needs-major-changes-to-prevent-disc...

Jeg tror at EDRi samlede indtryk kan opsummeres med flg. sætning fra indledningen (men læs endelige hele EDRi tekst selv, for der mange nuancer):

As it stands, the proposal centres on on facilitating the exponential development and deployment of AI in the EU, making only minor concessions to fundamental rights.

Lidt løsrevne citater fra samme:

“We are pleased to see the European Commission is including prohibitions, however the ethical bar is extremely low. Exploiting vulnerabilities of persons due to age, physical or mental disabilities, should be prohibited regardless the question whether actual physical or psychological harm is caused.”

Nadia Benaissa, Bits of Freedom

“The Commission’s framework is likely to become a superficial “box ticking” exercise, rather than a way to ensure real accountability of AI systems that pose a high risk for fundamental rights. Instead of relying on purely technical self-assessments, we need effective, independent oversight, which takes into account human rights impact and involves people affected by AI and civil society.”

Karolina Iwańska – Panoptykon Foundation

“By allowing border tech experiments to continue, the EU’s AI proposal shows a profound lack of intersectional engagement with the historical ways that technologies perpetuate systemic racism and discrimination, particularly against people on the move and communities crossing borders.”

Petra Molnar – former Mozilla Fellow, EDRi

Det sete afhænger af øjnene. som ser.

  • 8
  • 0
#3 Erik David Johnson Blogger

Tak for at bidrage med det modsatte perspektiv - det er altid godt at have med. Jeg står dog ved mine betragtninger, som også er langt mere fokuseret på operationaliseringen/udrulningen, som lægges for tungt over på medlemslandene og de direkte berørte parter.

  • 0
  • 0
#5 Bjarne Nielsen

Jeg står dog ved mine betragtninger, som også er langt mere fokuseret på operationaliseringen/udrulningen, som lægges for tungt over på medlemslandene og de direkte berørte parter.

Ja, enig, og det lader til at også EDRi er ude efter det. I et af ovenstående citater siges det direkte, at der er brug for langt mere opsyn, og mindre checkliste og "self-assessment". Det er også problematisk, hvis det bliver drejet over til, at man skal kunne påpege direkte skadevirkninger, da meget netop er vanskeligt at påpege for dem, som man vil gøre påtaleberettiget.

Vi har også ifm. GDPR selv, at gode intentioner kan blive saboteret af manglende håndhævelse, manglende ressourcer og en (deraf følgende?) udbredt mangel på respekt. Sporene skræmmer.

Det er godt, at vi får taget hul på at regulere området, og EU er (heldigvis eller desværre) igen forgangsmænd, for alle andre sidder stadigt solidt på hænderne. Så applaus for det. Men vi er kun lige kommet igang. Der er brug for langt mere, inkl. langt mere præcise afgrænsninger, for lige nu er det vist et slag i luften med en papirtiger. Det kunne have været værre, men det er ikke godt nok.

  • 2
  • 0
#6 Malthe Høj-Sunesen

AI har et problem, og det problem er opfattelsen af hvad det er.

Jeg kan godt forstå at man vil medtage RPA i AI-hatten. Jeg kan uden problemer forstå hvorfor man vil medtage statistik, især hvis man går over i multivariat statistik og dens automatiske gruppering (som jo grundlæggende er unsupervised ML). Visse skoler af AI vil kunne medtage logiske tilgange som symbolsk AI.

Det er en svær balancegang at få den defineret. Især taget i betragtning at når AI først virker, så er det "noget andet". Søgninger opfattes ikke ligefrem som AI, men Djikstra og A* var jo grundlæggende kunstig intelligens. Robotter er lidt samme problem; jeg har endnu ikke set en fornuftig definition, hvor man ikke enten inkluderede en kaffemaskine eller udelukkede alt andet end mobile platforme.

  • 5
  • 0
#7 Gert Madsen

GDPR er jo indført fordi der var et voldsomt behov for regulering.

Det har været meget tydeligt herhjemme, hvor der er en nærmest endeløs række af skandaler, hvor selv sikkerhedstiltag, som har været kendt inden internettet blev udbredt, er blevet ignoreret. (Der er stadig langt igen)

Jeg synes ikke man kan bebrejde EU at man forsøger at undgå en gentagelse af den situation.

Heri ligger det vilkår at det er mere besværligt at håndtere AI/ML i et reguleret samfund, end andre steder. Sådan er det også på de fleste (alle?) andre områder. Det kan vi ikke gøre noget ved, og det skal vi heller ikke.

  • 5
  • 0
#8 Tomas Loft

Jeg må fremstå naiv og spørge, hvad er forskellen i dette (apropos at det er svært for startups) og f.eks. at lave en bil?

Jeg forstår ærlig talt ikke hvorfor det skal være nemt (eller nemt nok til ikke at knække halsen på startups). Risikoen med en bil der ikke går gennem de lange lister af regler og tests er at den bliver direkte farlig at have i trafikken. Det samme gælder vel AI. At andre lande med mindre god moral så vil løbe fra os ser jeg som en god ting. Lad endelige USA være dem der gør sig de dårlige erfaringer. Vi skal nok få lovgivet os ud af at de misbruger det her (se, der var jeg naiv igen).

  • 1
  • 1
#10 Keld Laursen

Medmindre den kunstige intelligens styrer noget med forbindelse til den fysiske verden vil den dårligt kunne være lige så farlig som en bil :-)

Hvis din AI bestemmer om du er rask eller syg nok til at skulle have en million-kroner behandling, så vil dårlig konstruktion (et hjul falder af bilen eller bremserne virker ikke) kunne resultere i unødvendige dødsfald.

Hvis din AI afgør hvem er skla have gratis is i køen ved iskiosken, så er det nok ligemeget. Men ikke alting har ingen eller lave konsekvenser ved fejl.

  • 2
  • 0
Log ind eller Opret konto for at kommentere