Guido Scorza har forbudt verdens mest hypede teknologi: »De bruger millioner af menneskers persondata«

Plus28. april kl. 04:006
ChatGPT i Italien
Italien har forbudt ChatGPT og vil kun åbne op på mandag, hvis virksomheden OpenAI, der står bag værktøjet, lever op til en række krav. Illustration: Nanna Skytte.
I et eksklusivt interview fortæller Guido Scorza, kommissær for det italienske datatilsyn, hvorfor han så hurtigt følte sig forpligtet til at forbyde ChatGPT i hele landet. Risikoen for millioner af borgernes fundamentale rettigheder var for stor.
Artiklen er ældre end 30 dage

Selvom du som dansker lige nu kan besøge ChatGPT og spørge løs om alt mellem himmel og jord, har italienerne den seneste måned været blokeret fra AI-værktøjet, som har taget verden med storm siden lanceringen i slutningen af sidste år.

Efter en meget kort forundersøgelse, beordrede datatilsynet (GPDP) den 31. marts OpenAI, der står bag tjenesten, at slukke for ChatGPT i Italien. Et forbud mod ChatGPT kunne ikke vente, fortæller Guido Scorza, kommissær for det italienske datatilsyn.

Gratis adgang i 30 dage

Tegn et gratis prøveabonnement og få adgang til alt PLUS-indhold på Ing.dk, Version2 og Radar, helt uden binding eller betalingsoplysninger.

Alternativt kan du købe et abonnement
remove_circle
Har du allerede et PLUS-abonnement eller klip?
close

Velkommen til PLUS

Da du er ved at tilmelde dig en gratis prøve beder vi dig hjælpe os med at gøre vores indhold mere relevant for dig, ved at vælge et eller flere emner der interesserer dig.

Vælg mindst et emne *
Du skal vælge en adgangskode til når du fremover skal logge ind på din brugerkonto.
visibility
Dit medlemskab giver adgang
Som medlem af IDA har du gratis adgang til PLUS-indhold, som en del af dit medlemskab. Fortsæt med MitIDA for at aktivere din adgang til indholdet.
Oplever du problemer med login, så skriv til os på websupport@ing.dk
Abonnementsfordele
vpn_key
Fuld adgang til Ing.dk, Version2 og Radar
Fuld digital adgang til PLUS-indhold på Ing.dk, Version2 og Radar, tilgængeligt på din computer, tablet og mobil.
drafts
Kuraterede nyhedsbreve
Det seneste nye fra branchen, leveret til din indbakke.
Adgang til andre medier
Hver måned får du 6 klip, som kan bruges til permanent at låse op for indhold på vores andre medier.
thumb_up
Adgang til debatten
Deltag i debatten med andre kloge læsere.
6 kommentarer.  Hop til debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
5
28. april kl. 21:27

Nu er ChatGPT så tilgængelig i Italien igen, efter de har lavet nogle af de efterspurgte tiltag:

The company said on Friday it will provide greater visibility of its privacy policy and user content opt-out form.

It will also provide a new form for European Union users to exercise their right to object to its use of personal data to train its models, a company spokesperson said.

The form requires people who want to opt out to provide detailed personal information, including evidence of data processing via relevant prompts.

En besværlig formular (tjek). Hvis du IKKE vil have dine data udnyttet, så kan du bare skrive til os - hvorfor skal VI spørge DIG om lov (tjek). Hvis du skriver til os, så skal du give os flere data samt det mulige bevis på, at vi har brugt dine data (tjek). Data-forhandlerens ABC.

Forhåbentlig vil det italienske datatilsyn, som det lyder i artiklen, tage mere regulerende parametre med til EDPB. Så lad os se hvad der sker.

4
28. april kl. 21:22

Selvom det ikke er bekræftet og Google afviser det, så er det alligevel bekymrende når Bard (Googles AI) fortæller, at dens træningsdata bl.a. inkluderer Gmail.

Kunstig intelligens kræver desværre, regulering, regulering og mere regulering. Kate Crawford (som bl.a. undersøger de sociale og politiske konsekvenser af kunstig intelligens) nævner her i The Guardian en lang række af problemerne. Diskrimination på alle planer, uigennemskuelige input og output som ikke bliver bedre af en generel fuldkommen lukkethed, forskellige privatlivsproblemer, stort strømforbrug og mange misbrugsmuligheder m.m.. Det påkalder regulering. Ikke en tilgang som lyder ”lad os se hvad der sker”.

2
28. april kl. 08:21

Godt, at nogen slår i bordet, men hvorfor skal intetanende ofre aktivt vælge udnyttelsen fra? Hvorfor skal det ikke være aktivt tilvalg?

Og hvad er det for persondata, der anvendes? Er det "bare" dem, man kan finde på sociale medier, eller har chatGPT adgang til mere end det?

Og hvordan siger ikke-digitale fra?

Forleden var der en artikel på dr.dk om de advarsler om menneskehedens snarlige udslettelse, som en del eksperter er begyndt at komme med om disse uhyre kraftfulde teknologier:

"- Hvis nogen bygger en for kraftig kunstig intelligens under de nuværende forhold, så forventer jeg, at hvert eneste medlem af den menneskelige art og alt biologisk liv på Jorden dør kort tid efter, skrev Eliezer Yudkowsky, ekspert i kunstig intelligens og beslutningsteori, for nyligt i Time Magazine."

"Et af de afgørende spørgsmål for sådan en dystopi er, ifølge Olle Häggström, om vi er på vej til at udvikle en såkaldt AGI (artificial general intelligence). Det kan beskrives som en bred intelligens, der er selvtænkende og kan træffe komplekse beslutninger på minimum samme niveau som mennesker. Ifølge en rapport fra Microsoft har vi for nyligt set små tegn på den type kunstige intelligens i GPT-4."

"Hvis først vi får udviklet en AGI, bliver det afgørende, hvad dens mål er, mener Olle Häggström. Er målet for intelligensen at ’overleve’, kan mennesket måske være i vejen:"

"- Hvis deres motivation er at prioritere menneskelig velfærd, så kan kunstig intelligens blive noget af det bedste, der er sket. Men hvis kunstig intelligens vil noget andet, så kan det hurtigt gå ud over mennesker."

*"Thomas Bolander har modsat Olle Häggström svært ved at forestille sig, at i hvert fald sprogmodeller - den type kunstig intelligens, der lige nu bliver udviklet med hastig fart - vil ende med at udslette mennesket."- Sprogmodeller tænker ikke i mål. De prøver blot at forudsige, hvordan en dialog eller sætning vil fortsætte. Og i sig selv kan de kun spytte ord ud. Så de er først farlige, hvis vi tager dem for alvorligt i, hvad de siger."

"Der skal være plads til alle vores forskellige holdninger. For det er jo et symptom på, at vi ikke helt ved, hvad der kan ske." (Bolander i dr.dk-artiklen)

https://www.dr.dk/nyheder/viden/teknologi/alle-paa-jorden-vil-doe-eksperter-er-uenige-om-faren-ved-kunstig-intelligens

Bolander er optimist, for han "har svært ved at forestille sig".... men hvad nu, hvis det er hans fantasi, der har mangler? Kunne han for 50 år siden forestille sig, hvor vi er nu? Garanteret ikke. Og som han selv siger: De bliver farlige, hvis vi tror på dem. Og det gør folk jo allerede. Og sprogmodellerne er jo - så vidt jeg har forstået - kun et hjørne af problematikken - hvilket han jo også selv gør opmærksom på. Bolander tager så mange forbehold for sin egen holdning, at den ikke kan bruges til noget. Det er ønsketænkning, som går ud på at beskytte hans eget forskningsfelt i, hvordan vi får AI til at agere i sociale situationer, som han i følge Wikipedia forsker i.

Bolander erkender, at eksperterne er uenige, men mener, at der skal være plads til uenigheder. Men når eksperterne mener, at vi ikke kan vide, hvem der har ret, før vi kan se hvilke mål, disse teknologier vælger, deres egen overlevelse eller vores, så er der ikke plads til uenigheder, for så er vi allerede røget ud over kanten, hvor maskinerne styrer - hvis ikke vi slukker på kontakten. For det kan jo ikke være rigtigt, at vi skal stå med hatten i hånden og bede vore egne teknologier om at beslutte sig til, om de vil være vore venner eller fjender/herrer. For så er det jo allerede gået galt - så har maskinerne jo allerede taget magten. Kan Bolander ikke se det? At han selv allerede har givet maskinerne magten?

ChatGPT og lignende tromler allerede ureguleret ud over verden. Og deres villige passere og "undersåtter" - forskerne, som skaber dem, og BigTech, som betaler, og skummer fløden - slipper skruppel- og samvittighedsløst vilddyrene løs på os andre.

Hvorfor behandles disse teknologier ikke som det, de er, nemlig potentielle masseødelæggelsesvåben? Hvorfor reguleres de ikke efter de samme love som sådanne?

Tilhængerne af disse teknologier har endnu engang med deres overoptimistiske, naive, forretningsfokuserede, skruppelløse og ukritiske tilgang allerede kuppet verden, og taget os alle som gidsler. De har allerede undergravet demokrati og frihedsrettigheder - af hensyn til deres egne karriere- og økonomiske interesser. I mine øjne øver de en form for vold: menneskerettighedsvold.

1
28. april kl. 06:34

Hvorfor er det 'bombastisk' at det italienske datatilsyn forbyder ChatGPT? Det er befriende at nogen tar GDPR alvorligt. Jeg vil meget gerne vide om ChatGPT er lovlig at anvende i Europa og ikke mindst have muligheden for at opte ud at deres dataindsamling. Men i USA spørger man ikke om lov. Man beder i stedet om tilgivelse, hvis det skulle vise sig, at det man har gjort, er ulovligt. Eller betaler sig ud af det. Nu har de jo fået 150 mio brugere...

3
28. april kl. 08:46

Hvorfor er det 'bombastisk' at det italienske datatilsyn forbyder ChatGPT?

Bombastisk er ikke problemet.

Problemet er at der findes et utal programmer der krænker borgerne, så det er ørkedsløst at forbyde programmer (black-list). Om det er ChatGPT, Tiktok eller firmware i Huawai router kommer ud på et.

Ansatte skal have en white-list at programmer de må installere. Private må gøre hvad de vil.

Hvis det opdages at et program krænker borgerne, så er det op til domstolene at håndtere, sådan som det skete med Tiktok.