IBM Danmark forbyder ChatGPT: Bange for, at data deles med andre

19. maj kl. 10:004
IBM
Illustration: Brendan Mcdermid/Reuters/Ritzau Scanpix.
»Vi mener, at hvis man skal anvende kunstig intelligens i en virksomhedssammenhæng, så skal der være ansvarlighed, der skal være transparens, og den værdi, der skabes, skal blive liggende hos virksomheden og ikke hos udbyderen,« lyder det fra administrerende direktør i IBM Danmark Thomas Kovsted.

IBM Danmark forbyder ansatte at bruge OpenAI's chatbot ChatGPT grundet manglende transparens, og ved samme lejlighed opfordrer administrerende direktør Thomas Kovsted til statslig regulering af kunstig intelligens.

Det sker i et interview med Børsen, hvor han samtidig pointerer, at forbuddet ikke skyldes, at OpenAI er en konkurrent til IBM.

Læs også: Hård kritik af besparelser på Datatilsynet midt i AI-boom: »Tonedøvt at beskære dem«

»Nej, vi ser egentlig ikke Chat GPT og Open AI som konkurrent. Vi mener, at hvis man skal anvende kunstig intelligens i en virksomhedssammenhæng, så skal der være ansvarlighed, der skal være transparens, og den værdi, der skabes, skal blive liggende hos virksomheden og ikke hos udbyderen,« siger Thomas Kovsted til Børsen.

Artiklen fortsætter efter annoncen

Han nævner blandt andet, at virksomheden ikke kan sikre sig mod, at genererede data fra ChatGPT deles med andre interessenter.

Samme toner har for nylig lydt fra it-sikkerhedsekspert i Ingeniørforeningen, IDA Jørn Guldberg, der ligeledes advarer virksomheder imod at »dele noget, der kan afsløre vitale informationer om din arbejdsplads.«

Læs også: Vestager håber på AI-aftale inden 2024: »Hvis teknologien igen overhaler os, vil det kræve et stort arbejde at komme tilbage på omgangshøjde«

Administrerende direktør i OpenAI, Sam Altman, opfordrede for få dage siden amerikanske myndigheder til at indføre regler og retningslinjer, der skal regulere kunstig intelligens.

4 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
2
19. maj kl. 18:04

Bortset fra det, har manden jo ret. Men det er ikke nok at regulere - vi er nødt til helt at stoppe disse systemer, hvis vi vil overleve:

Vi har haft dem i mange år, så det er ikke nyt. Og det er ikke AI som er problemet. Problemet er mennesker, og det er der intet nyt i.

Nu kommer så ChatGPT og ih, hvor er det frygteligt...

3
19. maj kl. 19:02

Vi har haft dem i mange år, så det er ikke nyt.

Det er ikke rigtigt - vi har ikke haft systemer af denne kaliber før for nylig..

"Problemet er mennesker, og det er der intet nyt i."

Vil du så afskaffe mennesker i stedet?

Argumentet er lige så dårligt, som det våbenlobbyen bruger i USA: "Det er ikke våbnene, der er problemet, det er sindssyge mennesker"...

Hvorfor mener du ikke, at AI-udviklingen kan føre til udslettelse af alt liv, sådan som Yudkowsky siger, Jens B Madsen?

4
21. maj kl. 05:55

Hvorfor mener du ikke, at AI-udviklingen kan føre til udslettelse af alt liv, sådan som Yudkowsky siger, Jens B Madsen?

Det kan det sikkert godt, hvis det programmeres og bruges til det. Som jeg tidligere har nævnt, er jeg også betænkeligt ved forsvaret og millitærets anvendelse af AI. Måske, så anbefaler AI at provokere og angribe Rusland. Så længe, at det går via en menneskelig instans, så er det måske ikke et problem, men hvis man udvikler AI'en til at selv kunne gøre det, fordi at man mener der ikke er tid til at præsidenten og mennesker involveres, så kan det måske gå galt. Der er flere realistiske film, hvor AI har rådgivet millitæret, og der er sket fejl, fordi man har taget efter computeren. Men, der er også film, hvor man har begået fejl, fordi man ikke har taget efter AI'en. Jeg er også nervøs ved, at AI bruges til at manipulere sandheden. Med AI kan man generere dokumentation og beviser, der er umulige at finde ud af er falske, og vi kunne forestille os, den slags blive anvendt til f.eks. at give soldater, politiet, og agenter i efterretningstjenesten, de oplysninger som de behøver, for at gøre det de skal gøre. Der er - som jeg ser det - mange farer ved brug af AI. Vi ved også at vi får meget sofistikeret disinformation fra Rusland og Russerne kunne måske anvende AI til at kvalitetsvurdere deres disinformation, således at morsomme stavefejl der kopieres i demonstranternes bannere ikke kopieres, når de bruges i flere lande. Det kan naturligvis også være bevist fra Ruslands side, at de gør det, fordi at fidusen er at vi skal tro, at det er USA som står bag påstanden om den russiske disinformation. Her kan de måske have anvendt AI modeller af befolkningen, for at vurdere resultatet af disinformationen. Førhen, har man haft paneler hvor man har samlet "normale mennesker", som man har præsenteret for information, og undersøgt deres reaktion. Det kan vi måske gøre i dag mere præcist med AI.

Igen, så er det altså ikke den AI, som vi kan chatte med på nettet der et et problem. Og det vil det aldrig blive. Men den vil måske kunne gives skylden, for handlinger som mennesker begår. Hvis jeg bestemte, så skulle vi lave en hotline som alle danskere kunne ringe til, og som besvares af AI. Her skal de kunne diskutere deres daglige problemer, politikere skal kunne diskutere dagsordenen, og systemet skal forebygge psygiske lidelser og måske kan det også være med til at forhindre kriminelle handlinger. Som eksempel vil teknologistormere kunne ringe til AI'en, og blive mindre bekymret.

Jeg er ikke bekymret ved AI, og specielt ikke chatGPT, og jeg mener at det kan bruges konstruktivt og positivt, blandt andet til indlæring og opdragelse af børn.

Men, naturligvis skal man ikke overlade magten til automatiske systemer. Der bør altid være mennesker indblandet, og det bør aldrig være AI der tager ansvar, men altid mennesker.

Jeg er også betænkelig ved AI til at køre biler. I den slags tilfælde, skal der også være mennesker eller virksomheder der tager ansvaret, f.eks. dem der har udviklet AI'en. Og jeg mener, at man bør kombinere AI med "dumme" nødsystemer, der kan gennemskue indlysende opgaver, f.eks. automatisk nødbremsning. Det er alt for farligt, hvis man kan programmere en computer eller en robot til at gøre noget, og fraskrive sig for ansvaret, for det var jo robotten som gjorde det. Dem, der udvikler AI tager også et ansvar for brugen.