Facebook: Vi har machine learning-baseret faktatjek klar inden næste valg

25. juli 2018 kl. 10:1610
Facebook: Vi har machine learning-baseret faktatjek klar inden næste valg
Illustration: Bigstock.
Facebook har netop annonceret, at man vil bruge machine-learning til at stoppe spredningen af falske informationer på det sociale medie op til valg. Teknologien bliver implementeret i år.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Inden det amerikanske midtvejsvalg i november vil Facebook være klar til at bruge machine learning mod russiske agenter eller andre, der forsøger at påvirke den offentlige mening med falske informationer.

Det skriver Reuters.

Nathaniel Gleicher, head of cybersecurity policy hos Facebook, og Tessa Lyons, der står i spidsen for “news feed”, oplyste tirsdag, at man også er i gang med at optimere arbejdsprocesserne for virksomhedens faktatjekkere, der skal markere indhold som »falsk«.

Når indhold er blevet vurderet falsk, vil brugeren blive advaret inden deling, og herefter vil indholdets eksponering i news feed blive reduceret med 80 procent, oplyser Tessa Lyons.

Artiklen fortsætter efter annoncen

Udmeldingen kommer samtidig med, at Buzzfeed News har publiceret et internt memo fra Facebooks afgående sikkerhedschef, Alex Stamos, der er stærkt kritisk over for virksomheden.

»Vi bliver nødt til at nedprioritere kortsigtet vækst, og vi skal forklare Wall Street, hvorfor det er en ok ting at gøre. Vi må være villige til at vælge en side, når vi står over for åbenlyse moralske eller humanitære udfordringer,« skriver Alex Stamos.

Stamos forlader efter planen Facebook i august måned.

10 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
10
26. juli 2018 kl. 12:06

Meget komplekst emne. Den enes sandhed er den andens løgn.

Ikke altid. Ja - virkeligheden er meget kompleks. Men nogle sandheder er sande, mens nogle løgne er opfundne til situationerne og med specifikke formål. Nogle løgne er også mere harmløse end andre.

Det sagt - så derfor tvivler jeg også kraftigt på en "machine learning" tilgang kan være effektiv til formålet, især uden falske positive m.m., simpelthen fordi det er for komplekst. Men hvor skal grænserne så gå - tillad alt, tillad intet ..... jeg bryder mig ikke om Facebook generelt og har "problemer" med deres tilgang til hvad indhold er tilladt - men de er også kommet i en "damned if you do, damned if you don't" problemstilling pga ikke mindst det politiske klima i USA.

9
26. juli 2018 kl. 08:55

Dette er et signal til kongressen, EU og andre, om at Facebook er i stand til at fjerne og/eller undertrykke >>fake-news<< inden næste valg.

Men hvad er "fake-news" egentligt ?

1.Det kan være 'løgne', som modsiger argumenter og eksempler på nogens verdenssyn.

2.Det kan være 'den samme fortælling endnu en gang blot set fra et andet perspektiv' - et oplæg til debat eller selvstændig stillingtagen.

3.Og så er der den kategori af "fake-news" der bare er helt ude i hampen.

Her skal vi være opmærksomme på at alle emner er udsat for både 1, 2, og 3 og at grænsen imellem dem er flydende.

Men vigtigst af alt: Det er op til det enkelte individ at vurdere !

Hvis vi skulle overlade denne vurdering til andre om hvad det er "godt for os" at høre om, så kunne vi ligeså godt lade 'andre' bestemme hvad vi skulle mene; for vi får -faktuelt - ikke oplysninger nok til at komme til en (for individdet) fornuftig konklusion.

Hvilket bringer mig til min pointe: Det er blot info fra Facebook til enhver som ønsker at blive genvalgt:"Vi kan filtrere >alt<, på alle subtile - og knapt så subtile måder. Du har selv fortalt os hvem du er, og hvor du bor, og hvis du ønsker at blive diskrimineret 'på lige fod' med alle andre politikere - så må du hellere tænke dig godt om inden du udtaler dig negativt om Facebook"

K

7
26. juli 2018 kl. 08:23

Hvordan skulle en algoritme nogensinde kunne navigere i det minefelt?

Mon ikke tilhængerne af algoritme-vælde er de samme, som sidder/forventer at komme til at sidde med ved bordet, når magten over algoritmerne, og dermed over store dele af menneskeheden, fordeles?

Mon ikke det er folk, som egentligt ikke går rigtigt ind for demokrati i forvejen - for pøblen er så dumme, og de er bedre anvendt som forsøgsdyr/billig arbejdskraft/stemmekvæg/udbytningsobjekter end som selvstændigt tænkende borgere?

Så indtil vi når det punkt, som en international ekspert advarede om forleden i Politiken (kan ikke finde det online), hvor menneskelignende algoritmer, som føler sig uretfærdigt behandlede, gør oprør, så er det nok ikke algoritmerne, som navigerer - det er pengemænd i forskellige afskygninger: Politikere, forskere, industrigiganter, osv. Forklædt som algoritmer, ganske vidst. "Hvad algoritmen siger, er altid det rigtige" - den er - meget bekvemt for ejerne - ikke til at diskutere med, så vi andre kan bare klappe i.

6
26. juli 2018 kl. 07:51

Jeg kan godt blive endog meget bekymret over den helt overdrevne tillid til et 'nemt' tekno-fix. Det er i virkeligheden diskussionen om artikel 13 og uploadfiltre om igen, men nu helt pakket ind i forretningshemmeligheder, og mangel på tilsyn og indsigt (det ville også være et væsentligt problem ved artikel 13, da man netop planlægger at skubbe ansvaret ind i private firnaer, men her får den lige en tand mere).

Vi har talrige eksempler på, hvordan magtfulde personer og entiteter prøver at forme fortællinger til deres fordel, og lige for tiden er der en præsident, som er blevet mægtig på at afvise alle ubekvemme udsagn som usande.

Hvordan skulle en algoritme nogensinde kunne navigere i det minefelt?

Lad mig, som illustration, henvise til eksempel 5 i When filters fail fra Julia Reda (MEP): her ville man undertrykke ekstremistisk propaganda ved at undertrykke videoer med ISIS flag, men fik derved også undertrykt videoer som dokumenterede uhyrligheder begået af ISIS.

Hvordan skal en algoritme kunne skelne imellem falske nyheder og kontroversielle nyheder? Hvordan skal den kunne skelne imellem den falske nyhed og det at man imødegår den? Sandheden om Watergate blev benægtet langt hen ad vejen, og præsidenter har ikke haft sex med den kvinde (uanset om det er praktikanter eller pornomodeller).

Det er efter min mening ikke noget, som kan overlades til automatikker, og slet ikke til noget, som skal skabes i det mørkeste af Facebooks maskinrum!

5
26. juli 2018 kl. 06:45

CIA blev først oprettet i 1947

4
26. juli 2018 kl. 00:53

Er ret sikker på at den aldrig vil komme til at være 100% sand, men mere fortælle politisk korrekte sandheder.

Støttede CIA nazisterne i hin tid? = ja!

3
25. juli 2018 kl. 18:12

Der bliver allerede fjernet ting fra Facebook. Forklaringen er en standardtekst, så det er umuligt for de ramte at greje, hvad den egentlige grund er. NOGLE folk, der skriver om Syrien eller Israel-Palæstina, har fået lukket deres Facebook. Og det er næppe fordi de har vist billeder af bare bryster. Men hvad det er, der er årsagen, er det rene gætværk.

At det nu skal ske automatisk (computere fejler aldrig, det siger HAL 9000 jo), lyder ikke rigtigt rart.

2
25. juli 2018 kl. 11:58

Meget komplekst emne. Den enes sandhed er den andens løgn.

Venstrefløjen i USA har presset på for at Youtube skulle censurerer, men den samme venstrefløj bliver overrasket når deres egne videoer bliver fjernet (eller demonitized) med udgangspunkt i de regler den samme venstrefløj har argumenteret for.

Zuckerberg har for nylig argumenteret for ikke at fjerne Holocaustbenægterer - men har mødt meget modstand med den kommentar. (bemærk at Zuckerberg selv er jøde)

Når først Holocaustbenægterne er fjernet, så er der ikke lang vej til også at fjerne kommunisterne, og så er der ikke lang vej til også at fjerne ... indtil dine meninger er fjernet

1
25. juli 2018 kl. 11:34

"Software til at stoppe fake news, er det mon ikke synonym for software til at stoppe upopulære sandheder? Jeg køber ikke Facebooks "sandhed".