Facebook: Vi har machine learning-baseret faktatjek klar inden næste valg

Illustration: Bigstock
Facebook har netop annonceret, at man vil bruge machine-learning til at stoppe spredningen af falske informationer på det sociale medie op til valg. Teknologien bliver implementeret i år.

Inden det amerikanske midtvejsvalg i november vil Facebook være klar til at bruge machine learning mod russiske agenter eller andre, der forsøger at påvirke den offentlige mening med falske informationer.

Det skriver Reuters.

Nathaniel Gleicher, head of cybersecurity policy hos Facebook, og Tessa Lyons, der står i spidsen for “news feed”, oplyste tirsdag, at man også er i gang med at optimere arbejdsprocesserne for virksomhedens faktatjekkere, der skal markere indhold som »falsk«.

Når indhold er blevet vurderet falsk, vil brugeren blive advaret inden deling, og herefter vil indholdets eksponering i news feed blive reduceret med 80 procent, oplyser Tessa Lyons.

Læs også: Facebooks sikkerhedschef siger op: Vil have mere gennemsigtighed

Udmeldingen kommer samtidig med, at Buzzfeed News har publiceret et internt memo fra Facebooks afgående sikkerhedschef, Alex Stamos, der er stærkt kritisk over for virksomheden.

»Vi bliver nødt til at nedprioritere kortsigtet vækst, og vi skal forklare Wall Street, hvorfor det er en ok ting at gøre. Vi må være villige til at vælge en side, når vi står over for åbenlyse moralske eller humanitære udfordringer,« skriver Alex Stamos.

Læs også: Facebook: Russiske opslag kom ud til 126 mio. amerikanere

Stamos forlader efter planen Facebook i august måned.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Følg forløbet
Kommentarer (10)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Christian Bruun

Meget komplekst emne. Den enes sandhed er den andens løgn.

Venstrefløjen i USA har presset på for at Youtube skulle censurerer, men den samme venstrefløj bliver overrasket når deres egne videoer bliver fjernet (eller demonitized) med udgangspunkt i de regler den samme venstrefløj har argumenteret for.

Zuckerberg har for nylig argumenteret for ikke at fjerne Holocaustbenægterer - men har mødt meget modstand med den kommentar. (bemærk at Zuckerberg selv er jøde)

Når først Holocaustbenægterne er fjernet, så er der ikke lang vej til også at fjerne kommunisterne, og så er der ikke lang vej til også at fjerne ... indtil dine meninger er fjernet

  • 5
  • 1
Ditlev Petersen

Der bliver allerede fjernet ting fra Facebook. Forklaringen er en standardtekst, så det er umuligt for de ramte at greje, hvad den egentlige grund er. NOGLE folk, der skriver om Syrien eller Israel-Palæstina, har fået lukket deres Facebook. Og det er næppe fordi de har vist billeder af bare bryster. Men hvad det er, der er årsagen, er det rene gætværk.

At det nu skal ske automatisk (computere fejler aldrig, det siger HAL 9000 jo), lyder ikke rigtigt rart.

  • 2
  • 0
Bjarne Nielsen

Jeg kan godt blive endog meget bekymret over den helt overdrevne tillid til et 'nemt' tekno-fix. Det er i virkeligheden diskussionen om artikel 13 og uploadfiltre om igen, men nu helt pakket ind i forretningshemmeligheder, og mangel på tilsyn og indsigt (det ville også være et væsentligt problem ved artikel 13, da man netop planlægger at skubbe ansvaret ind i private firnaer, men her får den lige en tand mere).

Vi har talrige eksempler på, hvordan magtfulde personer og entiteter prøver at forme fortællinger til deres fordel, og lige for tiden er der en præsident, som er blevet mægtig på at afvise alle ubekvemme udsagn som usande.

Hvordan skulle en algoritme nogensinde kunne navigere i det minefelt?

Lad mig, som illustration, henvise til eksempel 5 i When filters fail fra Julia Reda (MEP): her ville man undertrykke ekstremistisk propaganda ved at undertrykke videoer med ISIS flag, men fik derved også undertrykt videoer som dokumenterede uhyrligheder begået af ISIS.

Hvordan skal en algoritme kunne skelne imellem falske nyheder og kontroversielle nyheder? Hvordan skal den kunne skelne imellem den falske nyhed og det at man imødegår den? Sandheden om Watergate blev benægtet langt hen ad vejen, og præsidenter har ikke haft sex med den kvinde (uanset om det er praktikanter eller pornomodeller).

Det er efter min mening ikke noget, som kan overlades til automatikker, og slet ikke til noget, som skal skabes i det mørkeste af Facebooks maskinrum!

  • 3
  • 0
Anne-Marie Krogsbøll

Hvordan skulle en algoritme nogensinde kunne navigere i det minefelt?


Mon ikke tilhængerne af algoritme-vælde er de samme, som sidder/forventer at komme til at sidde med ved bordet, når magten over algoritmerne, og dermed over store dele af menneskeheden, fordeles?

Mon ikke det er folk, som egentligt ikke går rigtigt ind for demokrati i forvejen - for pøblen er så dumme, og de er bedre anvendt som forsøgsdyr/billig arbejdskraft/stemmekvæg/udbytningsobjekter end som selvstændigt tænkende borgere?

Så indtil vi når det punkt, som en international ekspert advarede om forleden i Politiken (kan ikke finde det online), hvor menneskelignende algoritmer, som føler sig uretfærdigt behandlede, gør oprør, så er det nok ikke algoritmerne, som navigerer - det er pengemænd i forskellige afskygninger: Politikere, forskere, industrigiganter, osv. Forklædt som algoritmer, ganske vidst. "Hvad algoritmen siger, er altid det rigtige" - den er - meget bekvemt for ejerne - ikke til at diskutere med, så vi andre kan bare klappe i.

  • 2
  • 0
Kenn Nielsen

Dette er et signal til kongressen, EU og andre, om at Facebook er i stand til at fjerne og/eller undertrykke >>fake-news<< inden næste valg.

Men hvad er "fake-news" egentligt ?

1.Det kan være 'løgne', som modsiger argumenter og eksempler på nogens verdenssyn.

2.Det kan være 'den samme fortælling endnu en gang blot set fra et andet perspektiv' - et oplæg til debat eller selvstændig stillingtagen.

3.Og så er der den kategori af "fake-news" der bare er helt ude i hampen.

Her skal vi være opmærksomme på at alle emner er udsat for både 1, 2, og 3 og at grænsen imellem dem er flydende.

Men vigtigst af alt:
Det er op til det enkelte individ at vurdere !

Hvis vi skulle overlade denne vurdering til andre om hvad det er "godt for os" at høre om, så kunne vi ligeså godt lade 'andre' bestemme hvad vi skulle mene; for vi får -faktuelt - ikke oplysninger nok til at komme til en (for individdet) fornuftig konklusion.

Hvilket bringer mig til min pointe:
Det er blot info fra Facebook til enhver som ønsker at blive genvalgt:
"Vi kan filtrere >alt<, på alle subtile - og knapt så subtile måder.
Du har selv fortalt os hvem du er, og hvor du bor, og hvis du ønsker at blive diskrimineret 'på lige fod' med alle andre politikere - så må du hellere tænke dig godt om inden du udtaler dig negativt om Facebook"

K

  • 1
  • 0
Allan S. Hansen

Meget komplekst emne. Den enes sandhed er den andens løgn.

Ikke altid. Ja - virkeligheden er meget kompleks.
Men nogle sandheder er sande, mens nogle løgne er opfundne til situationerne og med specifikke formål.
Nogle løgne er også mere harmløse end andre.

Det sagt - så derfor tvivler jeg også kraftigt på en "machine learning" tilgang kan være effektiv til formålet, især uden falske positive m.m., simpelthen fordi det er for komplekst.
Men hvor skal grænserne så gå - tillad alt, tillad intet ..... jeg bryder mig ikke om Facebook generelt og har "problemer" med deres tilgang til hvad indhold er tilladt - men de er også kommet i en "damned if you do, damned if you don't" problemstilling pga ikke mindst det politiske klima i USA.

  • 0
  • 0
Log ind eller Opret konto for at kommentere