Inden det amerikanske midtvejsvalg i november vil Facebook være klar til at bruge machine learning mod russiske agenter eller andre, der forsøger at påvirke den offentlige mening med falske informationer.
Det skriver Reuters.
Nathaniel Gleicher, head of cybersecurity policy hos Facebook, og Tessa Lyons, der står i spidsen for “news feed”, oplyste tirsdag, at man også er i gang med at optimere arbejdsprocesserne for virksomhedens faktatjekkere, der skal markere indhold som »falsk«.
Når indhold er blevet vurderet falsk, vil brugeren blive advaret inden deling, og herefter vil indholdets eksponering i news feed blive reduceret med 80 procent, oplyser Tessa Lyons.
Udmeldingen kommer samtidig med, at Buzzfeed News har publiceret et internt memo fra Facebooks afgående sikkerhedschef, Alex Stamos, der er stærkt kritisk over for virksomheden.
»Vi bliver nødt til at nedprioritere kortsigtet vækst, og vi skal forklare Wall Street, hvorfor det er en ok ting at gøre. Vi må være villige til at vælge en side, når vi står over for åbenlyse moralske eller humanitære udfordringer,« skriver Alex Stamos.
Stamos forlader efter planen Facebook i august måned.

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.
Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.
Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.
Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.