Facebook ignorerede udvikleres advarsler mod algoritme-ændring
Ansatte på alle niveauer i Facebook har forsøgt at advare om risikoen for skadelige effekter for både samfundet og det enkelte menneske ved den måde, den store SoMe-platform prioriterer indhold til sine milliarder af brugere.
Skadevirkninger er veldokumenterede internt i Facebook, uden at offentligheden har fået kendskab til det. Flere gange er udvikleres konkrete forslag til ændringer af algoritmen for at afbøde de skadelige effekter blevet afvist, fordi de ikke understøttede forretningsmodellen.
Det skriver avisen Wall Street Journal på baggrund af en stor mængde lækkede interne dokumenter fra Facebook i USA: The Facebook Files
Dokumenterne viser en stigende bekymring blandt ansatte i Facebook både før, under og efter en stor ændring af newsfeed-algoritmen i 2018, som skulle skabe sunde relationer på platformen, men endte med at booste negativt og konfliktskabende indhold.
Meningsfyldte sociale interaktioner - MSI
I 2017 havde Facebook for første gang offentligt anerkendt, at visse måder at bruge sociale medier kunne være skadelige, og det gjaldt frem for alt det passive forbrug af indhold fra professionelle udbydere.
Facebook ville fremover hjælpe med at gøre verden til et bedre sted ved at styrke brugernes aktive engagement med venner og familie på platformen. Facebook skulle fremme “meaningful social interactions”, lød det fra Mark Zuckerberg selv, og de “meningsfyldte sociale interaktioner” eller MSI blev hurtigt kanoniseret som internt udtryk for de gode hensigter med de store ændringerne af platformen det år.
Facebook fik en gennemgribende designændring med mere vægt på populære kommentarer og opslag, og brugere fik mulighed for at "snooze" andre brugere, samt lægge flere begrænsninger på, hvad de ville se og hvad andre måtte se.
Målet om flere/mere MSI skulle dog især opnås gennem justering af algoritmen, der kuraterer indholdet i den skræddersyede nyhedsliste eller newsfeed, hvor brugerne bruger hovedparten af deres tid, og hvor Facebook følgelig henter lang hovedparten af sine indtægter.
Facebook ville i højere grad fremme indhold, som brugerne aktivt debatterede eller videresendte. Opslag, som havde en høj beregnet sandsynlighed for deling og kommentarer, blev derfor boostet i newsfeed.
Ansatte advarede mod ændringer i algoritmen
Mark Zuckerberg skrev i sit essay om “meningsfyldte sociale interaktioner”, at Facebook skulle erstatte det passive forbrug af indhold med et større engagement fra brugerne. Operationen lykkedes, der blev fyret op under brugernes interaktioner med indholdet.
Men internt i Facebook begyndte medarbejdere dog hurtigt at registrere - og advare ledelsen om - at ændringen i retning af mere meningsfyldte interaktioner langt fra havde resulteret i mere venlighed og rummelighed, men tværtimod skabt en platform for raseriudbrud og gjort afstanden større mellem brugere med forskellige holdninger.
»Vores tilgang har haft en usund side-effekt på vigtige dele af det offentlige indhold, såsom politik og nyheder,« skrev et team af dataloger i et memo, som Wall Street Journal har fremlagt.
Memoet gjorde ledelsen opmærksom på et brev fra Jonah Peretti, CEO for BuzzFeed, der gjorde opmærksom på, at siden ændringen af algoritmen havde BuzzFeed oplevet konfliktskabende indhold gå viralt i højere grad end før, mens det pludselig var vanskeligt at få reach på ellers populært indhold som listicles med selvhjælpstips eller billeder af kæledyr. Peretti, altså chefen for en virksomhed, hvis forretningsmodel hviler på viralt indhold på sociale medier, advarede Facebook-toppen om risikoen ved at belønne kontroversielt indhold.
“MSI-ranking belønner i realiteten ikke indhold,som driver meningsfyldte sociale interaktioner,” skriver han i sin email til Facebook, og tilføjer, at hans medarbejdere føler sig “pressede mellem at producere dårligt indhold eller underpræstere.”
De lange kæders rang
Facebook satte sit “Integrity”-team, som arbejder med at forbedre kvaliteten og troværdigheden af indhold på platform, til at afsøge om en række modifikationer af algoritmen kunne lægge låg på tendensen til at belønne vrede og løgn, og samtidig minimere risikoen for at platformen bruges til systematisk udbredelse af misinformation.
Mark Zuckerberg afviste dog en del af de foreslåede løsninger, skriver Wall Street Journal, fordi han var bekymret for, om det ville modarbejde bestræbelserne på at få brugerne til at engagere sig mere med Facebook.
Integrity-teamet begyndte at fokusere på et bestemt aspekt af den ændrede algoritme, som opprioriterede visning i nyheds-feeds af opslag, som havde højere sandsynlighed for, at brugerne ville dele videre, efterhånden som opslaget bevægede sig nedad i kæden af videresendelser - det som Facebook kaldte “downstream MSI”.
Facebook beder løbende sine brugere om feedback på indhold, efter algoritmeændringen faldt tilfredsheden med indholdets kvalitet. Integrity-temaet analyserede svarene på “Worth Your Time”-spørgsmålet i brugerundersøgelserne for at finde ud af, hvilke rankingmodeller der mest effektivt kunne udpege det indhold, som brugerne ville finde det værd at bruge tid på. De fandt - ikke helt uventet - at en ranking som er målrettet til at matche opslag til brugerens præferencer, også er god til at forudsige en høj “Worth Your Time”-score.
Men det var næsten lige så effektivt at bruge en ranking-model, som forudsiger om opslaget vil få mange likes eller kommentarer. Høj sandsynlighed for likes og kommentarer gav også høj sandsynlighed for en god “Worth Your Time”-score, viste analysen.
Balladen om d_share_msi_score
Til gengæld viste analysen, at ranking-modeller til at forudsige større downstream-aktivitet var demonstrativt ubrugelige til at identificere det indhold, som brugeren selv ville have lyst til at modtage.
Og det var ikke kun gode instinkter, der fik datalogerne til at kigge på de lange kæder af videresendelser som et særligt råddent æble i tønden. Facebook havde allerede adgang til solide data om, hvad brugerne synes om indlæg, der er sendt videre i lange kæder fra venners og bekendtes egne venner og bekendte.
»Bemærk, at dette fund ligger i tråd med tidligere undersøgelser, hvor folk har fortalt os, at de anser engagement med videre-delinger (den type engagement der specifikt forudsiges af d_share_msi_score) for at være betydeligt mindre meningsfyldt end engagement med originale opslag,« skriver de i et afsnit med en diskret, men tydelig "hvad-sagde-vi"-tone.
Indignation ansporer til aktivitet
Ændringerne af algoritmen blev introduceret på et tidspunkt, hvor Facebook ifølge arbejdspapirerne bemærkede en bekymrende tendens til faldende aktivitet hos den enkelte bruger.
Det var et udtrykkeligt mål for MSI-strategien, at brugerne skulle bringes til at interagere mere på platformen.
Det var ikke en del af den offentliggjorte strategi, at færre brugere skulle klikke sig videre til hjemmesiderne for de udgivere, der fremstiller indholdet, som sendes rundt på sociale medier. Men det var en klar følge af ændringen. Store, professionelle udbydere - som nyhedsmedier - mistede natten over deres hidtidige reach og tabte trafik fra deres Facebook-opslag.
Facebook holder den proprietære algoritme for nyhedsfeeds meget tæt ind til livet og offentliggør sjældent detaljer om baggrunden for prioriteringen. Det er den hellige gral for SoMe-ansvarlige at gætte/analysere sig frem til, hvilke opslag der vil ramme lige i smørhullet af ranking-modeller i den sorte box og blive sendt i større omløb.
Det stod hurtigt klart, at algoritmen vægtede videredeling, og at sorteringshatten favoriserede de opslag, som chokerede eller skabte indignation.
Facebooks markedsanalytikere gav da også snart tilbagemelding til ledelsen om, at udgivere og politiske partier var begyndt at vægte sensationelt og forargeligt indhold, fordi det gav dem mere succes på Facebook.
»Mange partier [i Europa], herunder dem der har skiftet til mere negativt ladede indlæg, er bekymrede for betydningen i det lange løb for demokratiet,« lyder det i en intern Facebook-rapport, som ikke nævner specifikke politiske partier.
Ikke flere “deep reshares” af covid-information
I april 2019 foreslog en udvikler en måde at skrue ned for “deep reshares”, hvor brugere får vist opslag, der er slået op af folk som de hverken er venner med eller følgere af.
»Mens FB-platformen tilbyder folk en mulighed for at mødes, dele og engagere sig, er der den uheldige bivirkning, at skadeligt indhold og misinformation kan gå viralt, ofte før vi kan nå at opfange det og afbøde effekten,« skriver han i et memo, som Wall Street Journal citerer.
I foråret 2020 implementerede Facebook den foreslåede begrænsning af videresendelse af opslag, i første omgang dog kun for indhold, der handler om sundhed og politik.
Der er internt i virksomheden stadig pres for at udrulle ændringen til alle former for indhold, og for at få udført flere af de foreslåede ændringer af algoritmen.
Facebook: Bevidst misrepræsentation
Wall Street Journal har ikke delt dokumenterne med andre medier til verifikation, men Facebook har ikke på baggrund de offentliggjorte oplysninger af indhold afvist dokumenterne som falske. Til gengæld anklager Facebook avisen for "bevidst misrepræsentation" af indholdet i dokumenterne og for at tillægge både ledelsen og ansatte i Facebook "overdrevent skumle motiver".
I et blogindlæg, What the Wall Street Journal Got Wrong, afviser Nick Glegg, vice president hos Facebook, artikelseriens primære påstand, nemlig at Facebook udfører undersøgelser og derefter systematisk og med overlæg ignorerer de resultater, der er ubekvemme for virksomheden.
“The Facebook Files”.
Avisen Wall Street Journal har fået adgang til en række dokumenter fra Facebook, der omfatter interne arbejdspapirer, medarbejder-debatter, analyser, rapporter, resultater af eksterne undersøgelser samt udkast til præsentationer for topledelsen.
I en serie artikler - foreløbig er udgivet fem - beskriver avisen på baggrund af disse dokumenter, hvordan Facebook udadtil har afvist at kende til skadevirkninger, som indadtil var veldokumenterede, og hvordan udviklere og andre ansatte er blevet ignoreret, når de pegede på risikoen for skadelige følger både for den enkelte bruger og for samfundet som helhed.
Facebook Says Its Rules Apply to All. Company Documents Reveal a Secret Elite That’s Exempt
Mens offentligheden har fået at vide, at alle på Facebook er underlagt de samme regler, er et stigende antal udvalgte brugere - i 2020 var det 5,8 mio - blevet beskyttet af XCheck-programmet (udtales cross-check), som betød at afgørelser om dem blev sendt videre til en særlig VIP-vurdering, der ofte var betydeligt mere lempelig med sletning af opslag eller karantæne til brugere. I begyndelsen blev programmet kaldt “shielding”, og en intern gennemgang af programmet i 2019 kaldte særbehandlingen umulig at forsvare udadtil.
Facebook Knows Instagram Is Toxic for Teen Girls, Company Documents Show
Dokumenter viser, hvordan Facebook de seneste tre år har udført flere undersøgelser af, hvordan billeddelingsplatformen Instagram, som Facebook er ejer af, påvirker sine brugere. Gentagne gange har medarbejdere rapporteret, at Instagram er skadelig for et antal af brugerne, hvoraf 40 procent er 22 år eller yngre. Mest mærkbar er effekten på teenagepiger.
Facebook Tried to Make Its Platform a Healthier Place. It Got Angrier Instead.
Gang på gang gjorde udviklere og analytikere i Facebook opmærksom på - først som advarsler, siden med dokumentation - at en ændring i 2018 af algoritmen for newsfeeds med henblik på at fremme bruges engagement omkring indhold og styrke de nære forbindelser, havde en uhyggelig bagside.
Facebook Employees Flag Drug Cartels and Human Traffickers. The Company’s Response Is Weak, Documents Show.
Interne Facebook-dokumenter viser, hvordan medarbejdere plantede stadig større og rødere advarselsflag på systematisk misbrug af platformen i udviklingslande, og peger på årsager til, at Facebooks egne foranstaltninger er utilstrækkelige.
How Facebook Hobbled Mark Zuckerberg’s Bid to Get America Vaccinated
I marts i år meddelte Mark Zuckerberg, at han ville sætte både sine personlige og virksomhedens ressourcer ind på at få 50 millioner amerikanere vaccineret mod Covid-19. Han fremhævede, at Facebook havde bragt vaccine-information ud til 2 milliarder mennesker. En snestorm af interne papirer op til den udmelding viser, at aktivister allerede var lykkedes med at indsætte Facebook som et våben til at undergrave tilliden vacciner og den øvrige corona-indsats, og at en stor del af vaccineinformationen på Facebook var negativ.

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.
Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.
Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.
Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.