Dette indlæg er alene udtryk for skribentens egen holdning.

Hvordan skal et datademokrati reagere på generativ AI?

17. april kl. 09:006
Pernille Tranberg
Illustration: Empathy.
Artiklen er ældre end 30 dage

Det globale AI-løb er i gang. Takket være Open.ai og Microsoft, der har kickstartet det, er det drevet af profit uden at tage hensyn til risici for mennesker, demokrati og samfund. En del af løsningen ligger i regulering, hvor både EU og nu også Kina går forrest. Den anden del af løsningen er dataetik. 

Forleden hørte jeg to seriøse journalister i en New York Times podcastHard Fork, forklare, at folk kunne uploade deres sundhedsjournaler til ChatGPT og få en forklaring på deres helbredstilstand, hvis de ikke havde tålmodighed til at vente på deres langsomme menneskelige doktor. 

Ikke ét ord eller advarsel om, at det ikke er en god idé at uploade sine sundhedsdata til en ureguleret chatbot, der har det med at hallucinere.

I disse måneder er vi alle sammen forsøgsmus for store tech virksomheder, der både suger flere persondata ud af os, får os til gratis at træne deres tjenester, og nogle tager sågar også penge i betaling for det. De mange nye tjenester med generativ AI, som blev kickstartet af Open.ai (som Microsoft er storinvester i) er ekstremt hurtige, deres svar kan være korrekte, de lyder i hvert fald sådan, og rigtig mange af os er dybt fascinerede.

Artiklen fortsætter efter annoncen

Men der er så mange risici, som vi som samfund ikke har taget højde for, og AI-kapløbet er desværre ude af kontrol.

Misinformation og mistillid

En stor risiko er, at mere og mere indhold på nettet vil være AI-genereret. Nogle mener, at det vil være 90 % i 2026 ifølge en Europol-rapport. En stor del af det AI-genererede indhold vil være falskt, og det vil være endnu sværere for mennesker, herunder professionelle journalister og forskere, at skelne mellem fakta og fake. Jo flere falske oplysninger, jo mere mistillid, og mistillid er virus for demokratier. Tænk bare på USA, hvor de ikke engang kan blive enige om, hvem der vandt det seneste valg. 

Vi har tonsvis af eksempler på, hvordan de generative AI-modeller ikke blot viderdistribuerer eksisterende misinformation fra nettet, men også selv finder på løgne. 

Et nyligt eksempel er dette fra Washington Post om ChatGPT, der opfandt en skandale om sexchikane og navngav en rigtig juraprofessor som den anklagede. 

Datatyveri og datamisbrug

En anden risiko er vores privatliv. Tænk bare på eksemplet ovenfor, hvor folk uploader sundhedsdata til chatbotten, og du har ingen idé om, hvordan dit privatliv bliver krænket. Men også arbejdsgivere forsøger at holde virksomhedshemmeligheder ude af chatbotterne.

Artiklen fortsætter efter annoncen

Er det i orden at suge alle data fra internettet og derefter bruge dem i en chatbot og tjene penge på dem - uden at få samtykke eller aflønne skaberne af indholdet? Det er, hvad de fleste AI-generatorer derude har gjort, og derfor kæmper kunstnerne imod. 

Mennesker er ikke klar

En anden risiko er, at vi mennesker simpelthen ikke er klar til meget menneskelignende teknologi. Vi kan ikke skelne mellem indhold skabt af mennesker og maskiner, og ingen love dikterer, at AI-genereret indhold skal mærkes som sådant - det er kun, hvis man praktiserer dataetik, at man gør folk opmærksom på, at noget er AI-genereret. 

Nogle mennesker bliver forelsket i såkaldte sociale robotter, der ligner mennesker. Andre har tillid til chatbotte, eller det siger en pårørende til en mand, der begik selvmord efter at have talt med en chatbot, i hvert fald. 

En pause i gigantiske AI-eksperimenter, som mange prominente personer har foreslået, herunder historikeren Yuval Harari, er en god idé, men måske i længere tid end 6 måneder, indtil vi har ordentlig regulering på plads.

Kig til venstre mod Kina og med EU som forbillede 

Det er svært at sige noget godt om et datadiktatur som Kina, der bruger persondata til at undertrykke og kontrollere sin befolkning. Men det uregulerede overvågningskapitalistiske samfund, USA, kunne faktisk lære noget af det, når det kommer til regulering. Og det kunne EU også.

Siden 2021 har EU arbejdet på AI Act, som først træder i kraft i 2024 eller senere. Udkastet indeholder super vigtige paragraffer som for eksempel, at man skal erklære, når noget er AI-genereret, at man skal sikre datakvalitet, kræve risikovurderinger og undgå diskrimination. Men der er også brug for opdateringer, så for eksempel generative AI chatbots kommer ind i kategorien højrisiko og dermed skal have udarbejdet risikovurderinger før (re)lancering. 

Kina har netop offentliggjort sit forslag til forordning - sandsynligvis stærkt inspireret af EU's strålende AI Act udkast. Cyberspace Administration of China ønsker at regulere generativ AI, og der er nogle interessante løfter. Men som grundlæggeren af Center for AI and Digital Policy Marc Rotenberg skriver på LinkedIn: 

'Der er bestemmelser, der har til formål at begrænse kritik af regeringen. Det er ganske enkelt censur. Og der er et krav om et rigtigt navn for brugere af LLM-tjenester, som er en trussel mod privatlivets fred.'

Han skriver også, at Kina stiller følgende krav - og det er direkte citeret:

  • 'Virksomhederne bør sikre, at de data, der bruges til at træne disse AI-modeller, ikke diskriminerer folk på grund af etnicitet, race og køn.'
  • 'Virksomhederne bør sikre, at AI-indholdet er korrekt, og der bør træffes foranstaltninger for at forhindre modellerne i at producere falske oplysninger.'
  • 'Dataene må ikke indeholde oplysninger, der krænker intellektuelle ejendomsrettigheder.'
  • 'Hvis modellen indeholder personlige oplysninger, forventes det, at virksomhederne indhenter samtykke fra den person, der er genstand for de personlige oplysninger, eller opfylder andre omstændigheder, der kræves i henhold til loven.'

Ifølge Fortune skal 'kinesiske virksomheder, der ønsker at bruge generativ A.I. til at betjene offentligheden, først indsende deres teknologi til en officiel sikkerhedsvurdering.'

I stedet for helt at ignorere alt, hvad der kommer fra Kina, kunne USA begynde at lytte til både Kina og ikke mindst EU, når det gælder regulering af teknologier. EU kunne også lære lidt af Kina, når det gælder hastighed i reguleringen, da AI Act vil tage mindst fire år - hvilket historisk set er hurtigt, men med teknologiens briller er meget langsomt.

I hvert fald vil Biden-administrationen nu være vært for en offentlig kommentar om regulering af AI, ifølge The Guardian

I mellemtiden vil AI-løbet fortsætte. Kickstartet af Microsoft, der befinder inde i mange EU-computere, og som har formået at sælge sig selv som en etisk og ansvarlig virksomhed. Nu, hvor profitten viser vejen (selskabet er storinvestor i Open.ai), er det svært at finde bare et lille gran af ansvarlighed hos Microsoft, når det gælder AI.

Andre big data virksomheder, som af forskellige årsager har holdt sig tilbage med deres generative AI, lancerer tjenester i et ikke-reguleret globalt landskab.

Dataetik kommer ofte før lovregulering. Du opfører dig etisk ansvarligt, selv om loven ikke fortæller dig, hvad du må og ikke må. Ingen af de store teknologiske AI-virksomheder handler med dataetik i tankerne.

Vil du bidrage til debatten med et synspunkt? Så skriv til vores debatredaktion på debat@ing.dk

6 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
6
23. april kl. 08:06

Fra dagens Berlingske:

"Vi har direkte kurs mod en katastrofe, lyder det fra dommedagsfløjen. Eliezer Yudkowsky, en amerikansk forsker i kunstig intelligens og beslutningsteori opfordrede for nylig i et essay i nyhedsmagasinet Time til et totalt udviklingsstop, fordi vi ikke aner, hvordan vi skal kontrollere de kræfter, vi slipper løs ved at skabe generel kunstig intelligens (Artificial General Intelligence). »Hvis nogen bygger en for kraftig kunstig intelligens under de nuværende forhold, forventer jeg, at hvert enkelt medlem af den menneskelige art og alt biologisk liv på Jorden vil dø kort efter … Bogstavelig talt alle på Jorden vil dø,« skriver Eliezer Yudkowsky, som i 2005 var med til at stifte Machine Intelligence Research Institute, en tænketank dedikeret til forskning i kontrollen med kunstig intelligens. Problemet er ifølge Yudkowsky, at de nye kunstige intelligenser er så kraftfulde, at de hurtigt kan forbedre sig selv og overhale den menneskelige intelligens."...."Samtidigt er chatrobotternes egne udviklere ofte i vildrede over, hvordan maskinerne agerer og bryder regler, som de ellers var kodet med. Det kom frem i testfasen af GPT-4, at maskinen både var villig til at hjælpe med råd til at købe ulovlige våben og fremstille farlige kemikalier."..."Der opstår problemer, alene hvis vi får kraftfuld kunstig intelligens, som ikke fuldstændig er i sync med menneskets etik og målsætninger. En vilje til dominans kan ydermere opstå utilsigtet, fordi den kunstige intelligens sættes til at nå et bestemt mål. For at nå det mål, må den kunstige intelligens først sikre sin egen overlevelse, og dermed kan den komme til at udgøre en fare for os."https://www.berlingske.dk/kommentatorer/frygten-for-kunstig-intelligens-tager-til-bogstavelig-talt-alle-paa

Singularity University er i fuld gang med at kuppe hele verden - inden Singularity University selv bliver kuppet af sine egne kreationer.

3
18. april kl. 16:47

Vi har overvågningskapitalisme og overvågningsdiktaturer. Kan man forestille sig et overvågningsdemokrati? Man kunne argumentere for at det er netop det, EU prøver at etablere. Hvis overvågningen er underlagt demokratisk kontrol og regulering, kan den måske godt være demokratisk. Et minimum for at det kan gøres gældende, er vel at politikerne er ærlige om den overvågning de vil tillade/kræve og evt. selv implementere. Når totalovervågning sniges ind af bagdøren (som med automatisk nummerpladegenkendelse, hvor no-hits i praksis gemmes i 10+ år).

Jeg er ikke sikker på om overvågningsdemokrati er et oxymoron (en selvmodsigelse), men jeg er ret sikker på, at det ikke er det vi har i dagens Danmark.

4
19. april kl. 06:28

det er derfor jeg kalder det et datademokrati modsat kinas datadiktatur og usa's datamonopol samfund/overvågnings-kapitalisme

1
17. april kl. 12:54

Ikke ét ord eller advarsel om, at det ikke er en god idé at uploade sine sundhedsdata til en ureguleret chatbot, der har det med at hallucinere.

Åh ja, lad os få flere advarsler over alt! Store advarsler, for det er godt og hjælper.

..men måske i længere tid end 6 måneder, indtil vi har ordentlig regulering på plads.

LLM er benhård statistik og implementeret matematisk teori. Der er ingen måde man kan pause videnskabelig tænkning og videreudvikling af en potent teori.

En såkaldt pause kan ikke etableres i praksis. Forskere vil fortsætte med at tænke, og de store spillere i alle lande vil aldrig overholde pausen.

Virksomhederne bør sikre, at AI-indholdet er korrekt

Spændende. Vi kræver idag ikke engang at påstande postet på sociale medier af ægte mennesker er korrekte. Journalister vælger endda ofte clicks frem for fact eller source checking, så vi er milevidt fra at krav til AI er etisk konsistente med krav generel I/O på nettet.

5
20. april kl. 10:35

En såkaldt pause kan ikke etableres i praksis. Forskere vil fortsætte med at tænke, og de store spillere i alle lande vil aldrig overholde pausen.

Mig bekendt er der ingen, der seriøst foreslår, at mennesker skal holde pause med at tænke - når sådanne pauser forekommer, er de tit på den tankeløses eget initiativ.

Ingen har ønsket pause i forskning i eller udvikling af AI/ML.

Det man ønsker, er en pause i eksperimenter (i offentlighed) på offentlige data med AI/ML!

2
17. april kl. 15:30

Åh ja, lad os få flere advarsler over alt! Store advarsler, for det er godt og hjælper.

For en reportage i en avis er det da yderst relevant. Uden det kan der bestemt sættes spørgsmål ved journalisternes seriøsitet.