Nordisk ingeniørforening advarer: EU-regler åbner kattelem for AI-masseovervågning

Illustration: Andrey Popov / Bigstock
Risiko for øget masseovervågning er blandt de punkter, som Foreningen af Nordiske Ingeniører og Nordic Privacy Center advarer om i nyt EU-forslag.

EU-kommissionen præsenterede i sidste uge det længe ventede forslag til, hvordan AI skal udnytte og tøjles i Europa. Strategien er klar: Kun de absolut mest risikable måder at anvende AI på skal under streng regulering – og resten går fri.

Læs også: Ingeniøren: Langt de fleste AI-systemer går helt fri i EU’s nye reguleringskompleks

Foreningen af Nordiske Ingeniører (ANE), som er paraply-organisation for Ingeniørforeningen IDA og de andre nordiske ingeniørforeninger, samt Nordic Privacy Center (NPC), skriver i en fælles udtalelse, at man hilser forslaget velkommen.

»Men selvom vi anerkender vigtigheden og ambitionerne i dette forslag, ønsker vi at henlede opmærksomheden på nogle udfordringer, som forslaget medfører. Vi mener, at alle kunstig intelligens-systemer, der i forslaget identificeres som højrisikosystemer, især der hvor der er trusler mod menneskeliv, bør underkastes en vurdering af lovlighed fra tredjepart.«

AI-systemer, der anvendes til rekruttering, opgavefordeling og overvågning af arbejdspræstationer, uddannelses- og eksamensvurdering samt systemer, der anvendes til social scoring, sporing og overvågning, bør også underkastes ekstern vurdering, lyder synspunktet.

Risiko for øget masseovervågning

Med hensyn til arbejdsbeskyttelse og regulering af AI i arbejdsmiljøer, bør forslaget ikke tilsidesætte nationale love og kollektive overenskomster, skriver de to organisationer i udtalelsen.

De AI-systemer med høj risiko, der anvendes i arbejdsscenarier, har alvorlige konsekvenser for arbejdstagernes privatliv og arbejdsvilkår – og skal derfor underkastes større kontrol, f.eks. vurdering af lovlighed foretaget af en tredjepart med inddragelse af forskellige arbejdsmarkedsparter.

Den undtagelse, der i EU-forslaget er givet for brugen af AI-systemer med høj risiko – ‘et biometrisk fjernidentifikationssystem i realtid’ i offentlige rum, som anvendes af offentlige myndigheder for at beskytte sikkerheden – risikerer at føre til masseovervågning, især når bestemmelsen giver mulighed for at anvende sådanne systemer uden tilladelse ‘i en behørigt begrundede hastetilfælde.’

»Vi mener, at denne undtagelse er til skade for menneskers grundlæggende og universelle rettigheder og frihedsrettigheder, herunder retten til privatlivets fred, da sådanne systemer behandler biometriske data i massevis, generelt uden samtykke, og derfor bør forbydes.«

ANE og NPC støtter også de krav, der er skitseret om indførelse af lovgivningsmæssige begrænsninger for udbredelsen af kunstig intelligens, der begrænser menneskerettighederne.

AI-ansvar kan ikke påhvile den enkelte udvikler alene

Organisationerne påpeger også, at ansvaret for at gennemføre tekniske løsninger ved sociale spørgsmål ikke alene kan påhvile en enkelt ingeniør eller AI-systemudvikler. Det gælder især i de tilfælde, hvor de udviklede systemer er underlagt en procedure for selvevaluering, da det kan føre til en situation, hvor den enkelte udvikler får skylden for anvendelsen af systemet, snarere end de organisatoriske rammer, som udvikleren arbejder inden for.

»En vellykket fordeling af ansvaret på tværs af processen og dens interessenter kræver en no-blame kultur, hvor det at tage ansvar indebærer at give plads til at styrke og uddanne arbejdsstyrken til at sikre menneskeligt tilsyn, især når ‘tilsidesættelse eller omvendelse af output fra højrisiko- AI-systemet’ er en del af ansvaret. Dette bør prioriteres bedre i det nuværende forslag.«

Der bør også etableres en klage- og instansprocedure, der gør det muligt for enkeltpersoner at adressere den adfærd og de beslutninger vedrørende AI, som borgerne finder potentielt skadelige og ulovlige, mener de to organisationer.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Følg forløbet
Kommentarer (0)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Log ind eller Opret konto for at kommentere