Lavtlønnet arbejdskraft i Kenya renser datasæt bag ChatGPT: »Det var tortur«

26. januar kl. 10:494
Stresset mand ved pc
Genrefoto. Illustration: Bigstock/Jm_video13.
»Det var tortur. Du læser en række tekster som denne hele ugen igennem. Når det bliver fredag, er man forstyrret af at tænke det billede igennem,« udtaler AI-medarbejder om udpenslede og traumatiserende tekster.
Artiklen er ældre end 30 dage

En voksende mængde forskning afslører de usikre arbejdsforhold, som lavtlønnede AI-arbejdstagere står over for, udtaler brancheforeningen Partnership on AI til magasinet Time.

OpenAI, som Microsoft har store andele i, og som står bag sprogmodellerne GPT-3 og ChatGPT, benytter det amerikanske firma Sama, der opmærker de træningsdata, som modellerne bruger. Sama beskæftiger medarbejdere i Kenya, Uganda og Indien for kunder som Google, Meta og Microsoft, udover OpenAI. Sama markedsfører sig selv som et etisk AI-firma.

En Sama-medarbejder i Kenya, der havde til opgave at læse og opmærke tekst for OpenAI, fortæller til Time, at han lider af tilbagevendende syner, efter at have læst en udpenslet beskrivelse af en mand, der havde sex med en hund i et lille barns nærvær.

Artiklen fortsætter efter annoncen

»Det var tortur. Du læser en række tekster som denne hele ugen igennem. Når det bliver fredag, er man forstyrret af at tænke det billede igennem,« udtaler medarbejderen til Time.

Arbejderne fik en timeløn på mellem 1,3 og 2 dollar, svarende til mellem 9 og 14 kroner. Hensigten var at fjerne giftige data fra træningsdatasæt for værktøjer som ChatGPT.

Arbejdets traumatiske karakter fik i sidste ende Sama til at aflyse alt sit arbejde for OpenAI i februar 2022, otte måneder tidligere end planlagt, skriver Time.

4 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
4
26. januar kl. 14:21

En chatbot kan også have en menneskelig fallback

Forudsagt i Diamond Age.

1
26. januar kl. 11:05

Hmmm... der er noget der ikke stemmer... AI med et menneske begved/imellem er ikke meget AI - imho.

2
26. januar kl. 11:12

Errrrr, det er filtrering af datasættet AIen trænes med. Langt de fleste (alle?) AIer er trænet med et udvalgt datasæt.