Facebook vil bruge mennesker og ikke kunstig intelligens til at fjerne ubehageligt indhold

Facebook vil hyre yderligere 3.000 moderatorer til at håndtere blandt andet problematiske live-videoer.

Det er ikke alle problemer, som kan løses med kunstig intelligens. I hvert fald er Facebooks svar på flere episoder med problematiske live-videoer og en længere debat om chikane via sociale netværk at ansætte yderligere 3.000 personer til at moderere indholdet på Facebook.

Det har Mark Zuckerberg oplyst i et indlæg.

Dermed øger Facebook antallet af moderatorer med to tredjedele, da der i forvejen er ansat 4.500 personer til at håndtere de anmeldelser, som kommer fra brugerne om stødende, ubehageligt eller problematisk indhold.

Livestream af selvmordsforsøg

Med live-video-funktionen på Facebook er der kommet nye typer sager til, som kræver mere end blot, at indholdet fjernes og brugeren får en advarsel eller får lukket sin konto. Det gælder eksempelvis flere episoder, hvor brugere har live-streamet selvmordsforsøg eller fortalt om deres hensigt om at ville begå selvmord.

I sådanne sager vil den nødvendige reaktion fra Facebooks moderatorer ikke blot være at sørge for, at det potentielt chokerende indhold ryger ud i mange brugeres feed, men også at kontakte myndighederne for potentielt at redde liv.

Spørgsmålet er dog, hvordan Facebook konkret vil løfte opgaven. Ifølge Ars Technica er der ingen officielle jobopslag hos Facebook, og selskabet har heller ikke svaret på, hvorvidt disse moderatorjobs vil være hos Facebook eller en ekstern partner.

Læs også: Facebook-chef om slettet Vietnam-billede: Censuren rammer ikke altid rigtigt

Det kan være problematisk, fordi Facebook tidligere har været kritiseret for eksempelvis at have en striks politik omkring nøgenhed - også i foto- og billedkunst, hvor der kan være kulturelle forskelle, som en callcenter-partner i Kansas eller Indien ikke nødvendigvis tager hensyn til, når det gælder en sag som den danske bog om hippiebevægelsen.

Mulighed for anmeldelse forbedres

Tidligere artikler hos blandt andet Gawker og Wired har afdækket arbejdsforholdene for de moderatorer, som sidder hos de firmaer, som blandt andet Facebook outsourcer opgaven til.

Det er jobs med stor udskiftning, da der er tale om et arbejde, som kan stresse eller traumatisere medarbejderne, som skal håndtere det ubehagelige indhold. Firmaerne, der varetager opgaven for Facebook, er placeret i blandt andet Filippinerne.

Selvom der ofte rejses en debat om unødvendig amerikansk puritanisme i Facebooks politik for stødende indhold, så er der hver dag tusindvis af forsøg på at lægge ekstremt voldelige eller blodige billeder og videoer på Facebook alene for at chokere andre brugere, ligesom der lægges indhold ud, som er grove krænkelser af de personer, der er afbilledet.

Ifølge Mark Zuckerberg vil Facebook give brugerne bedre muligheder for at anmelde stødende eller krænkende indhold, samt kontakte myndighederne hvis det er nødvendigt.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (3)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Simon Mikkelsen

Det er en kompleks diskussion om hvor ansvaret ligger. Men faktum er, at når Facebook får en masse dårlig presse pga. en sag, tager de ansvaret på sig. Det er nok også det klogeste for at undgå for meget lovgivning i diverse lande. Så er det lettere at lave loven selv.

At det er en amerikansk virksomhed og ikke Folketinget der regulere ytringsfriheden på nok Danmarks største talerum, er et helt andet problem.

  • 0
  • 0
Log ind eller Opret konto for at kommentere
IT Company Rank
maximize minimize