Det globale AI-løb er i gang. Takket være Open.ai og Microsoft, der har kickstartet det, er det drevet af profit uden at tage hensyn til risici for mennesker, demokrati og samfund. En del af løsningen ligger i regulering, hvor både EU og nu også Kina går forrest. Den anden del af løsningen er dataetik.
Forleden hørte jeg to seriøse journalister i en New York Times podcast, Hard Fork, forklare, at folk kunne uploade deres sundhedsjournaler til ChatGPT og få en forklaring på deres helbredstilstand, hvis de ikke havde tålmodighed til at vente på deres langsomme menneskelige doktor.
Ikke ét ord eller advarsel om, at det ikke er en god idé at uploade sine sundhedsdata til en ureguleret chatbot, der har det med at hallucinere.
I disse måneder er vi alle sammen forsøgsmus for store tech virksomheder, der både suger flere persondata ud af os, får os til gratis at træne deres tjenester, og nogle tager sågar også penge i betaling for det. De mange nye tjenester med generativ AI, som blev kickstartet af Open.ai (som Microsoft er storinvester i) er ekstremt hurtige, deres svar kan være korrekte, de lyder i hvert fald sådan, og rigtig mange af os er dybt fascinerede.
Men der er så mange risici, som vi som samfund ikke har taget højde for, og AI-kapløbet er desværre ude af kontrol.
Misinformation og mistillid
En stor risiko er, at mere og mere indhold på nettet vil være AI-genereret. Nogle mener, at det vil være 90 % i 2026 ifølge en Europol-rapport. En stor del af det AI-genererede indhold vil være falskt, og det vil være endnu sværere for mennesker, herunder professionelle journalister og forskere, at skelne mellem fakta og fake. Jo flere falske oplysninger, jo mere mistillid, og mistillid er virus for demokratier. Tænk bare på USA, hvor de ikke engang kan blive enige om, hvem der vandt det seneste valg.
Vi har tonsvis af eksempler på, hvordan de generative AI-modeller ikke blot viderdistribuerer eksisterende misinformation fra nettet, men også selv finder på løgne.
Et nyligt eksempel er dette fra Washington Post om ChatGPT, der opfandt en skandale om sexchikane og navngav en rigtig juraprofessor som den anklagede.
Datatyveri og datamisbrug
En anden risiko er vores privatliv. Tænk bare på eksemplet ovenfor, hvor folk uploader sundhedsdata til chatbotten, og du har ingen idé om, hvordan dit privatliv bliver krænket. Men også arbejdsgivere forsøger at holde virksomhedshemmeligheder ude af chatbotterne.
Er det i orden at suge alle data fra internettet og derefter bruge dem i en chatbot og tjene penge på dem - uden at få samtykke eller aflønne skaberne af indholdet? Det er, hvad de fleste AI-generatorer derude har gjort, og derfor kæmper kunstnerne imod.
Mennesker er ikke klar
En anden risiko er, at vi mennesker simpelthen ikke er klar til meget menneskelignende teknologi. Vi kan ikke skelne mellem indhold skabt af mennesker og maskiner, og ingen love dikterer, at AI-genereret indhold skal mærkes som sådant - det er kun, hvis man praktiserer dataetik, at man gør folk opmærksom på, at noget er AI-genereret.
Nogle mennesker bliver forelsket i såkaldte sociale robotter, der ligner mennesker. Andre har tillid til chatbotte, eller det siger en pårørende til en mand, der begik selvmord efter at have talt med en chatbot, i hvert fald.
En pause i gigantiske AI-eksperimenter, som mange prominente personer har foreslået, herunder historikeren Yuval Harari, er en god idé, men måske i længere tid end 6 måneder, indtil vi har ordentlig regulering på plads.
Kig til venstre mod Kina og med EU som forbillede
Det er svært at sige noget godt om et datadiktatur som Kina, der bruger persondata til at undertrykke og kontrollere sin befolkning. Men det uregulerede overvågningskapitalistiske samfund, USA, kunne faktisk lære noget af det, når det kommer til regulering. Og det kunne EU også.
Siden 2021 har EU arbejdet på AI Act, som først træder i kraft i 2024 eller senere. Udkastet indeholder super vigtige paragraffer som for eksempel, at man skal erklære, når noget er AI-genereret, at man skal sikre datakvalitet, kræve risikovurderinger og undgå diskrimination. Men der er også brug for opdateringer, så for eksempel generative AI chatbots kommer ind i kategorien højrisiko og dermed skal have udarbejdet risikovurderinger før (re)lancering.
Kina har netop offentliggjort sit forslag til forordning - sandsynligvis stærkt inspireret af EU's strålende AI Act udkast. Cyberspace Administration of China ønsker at regulere generativ AI, og der er nogle interessante løfter. Men som grundlæggeren af Center for AI and Digital Policy Marc Rotenberg skriver på LinkedIn:
'Der er bestemmelser, der har til formål at begrænse kritik af regeringen. Det er ganske enkelt censur. Og der er et krav om et rigtigt navn for brugere af LLM-tjenester, som er en trussel mod privatlivets fred.'
Han skriver også, at Kina stiller følgende krav - og det er direkte citeret:
- 'Virksomhederne bør sikre, at de data, der bruges til at træne disse AI-modeller, ikke diskriminerer folk på grund af etnicitet, race og køn.'
- 'Virksomhederne bør sikre, at AI-indholdet er korrekt, og der bør træffes foranstaltninger for at forhindre modellerne i at producere falske oplysninger.'
- 'Dataene må ikke indeholde oplysninger, der krænker intellektuelle ejendomsrettigheder.'
- 'Hvis modellen indeholder personlige oplysninger, forventes det, at virksomhederne indhenter samtykke fra den person, der er genstand for de personlige oplysninger, eller opfylder andre omstændigheder, der kræves i henhold til loven.'
Ifølge Fortune skal 'kinesiske virksomheder, der ønsker at bruge generativ A.I. til at betjene offentligheden, først indsende deres teknologi til en officiel sikkerhedsvurdering.'
I stedet for helt at ignorere alt, hvad der kommer fra Kina, kunne USA begynde at lytte til både Kina og ikke mindst EU, når det gælder regulering af teknologier. EU kunne også lære lidt af Kina, når det gælder hastighed i reguleringen, da AI Act vil tage mindst fire år - hvilket historisk set er hurtigt, men med teknologiens briller er meget langsomt.
I mellemtiden vil AI-løbet fortsætte. Kickstartet af Microsoft, der befinder inde i mange EU-computere, og som har formået at sælge sig selv som en etisk og ansvarlig virksomhed. Nu, hvor profitten viser vejen (selskabet er storinvestor i Open.ai), er det svært at finde bare et lille gran af ansvarlighed hos Microsoft, når det gælder AI.
Andre big data virksomheder, som af forskellige årsager har holdt sig tilbage med deres generative AI, lancerer tjenester i et ikke-reguleret globalt landskab.
Dataetik kommer ofte før lovregulering. Du opfører dig etisk ansvarligt, selv om loven ikke fortæller dig, hvad du må og ikke må. Ingen af de store teknologiske AI-virksomheder handler med dataetik i tankerne.

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.
Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.
Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.
Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.