En voksende mængde forskning afslører de usikre arbejdsforhold, som lavtlønnede AI-arbejdstagere står over for, udtaler brancheforeningen Partnership on AI til magasinet Time.
OpenAI, som Microsoft har store andele i, og som står bag sprogmodellerne GPT-3 og ChatGPT, benytter det amerikanske firma Sama, der opmærker de træningsdata, som modellerne bruger. Sama beskæftiger medarbejdere i Kenya, Uganda og Indien for kunder som Google, Meta og Microsoft, udover OpenAI. Sama markedsfører sig selv som et etisk AI-firma.
En Sama-medarbejder i Kenya, der havde til opgave at læse og opmærke tekst for OpenAI, fortæller til Time, at han lider af tilbagevendende syner, efter at have læst en udpenslet beskrivelse af en mand, der havde sex med en hund i et lille barns nærvær.
»Det var tortur. Du læser en række tekster som denne hele ugen igennem. Når det bliver fredag, er man forstyrret af at tænke det billede igennem,« udtaler medarbejderen til Time.
Arbejderne fik en timeløn på mellem 1,3 og 2 dollar, svarende til mellem 9 og 14 kroner. Hensigten var at fjerne giftige data fra træningsdatasæt for værktøjer som ChatGPT.
Arbejdets traumatiske karakter fik i sidste ende Sama til at aflyse alt sit arbejde for OpenAI i februar 2022, otte måneder tidligere end planlagt, skriver Time.

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.
Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.
Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.
Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.