By Elizabeth Culliford, Katie Paul

4 Min Read

(Reuters) – Facebook Inc. offentliggjorde på torsdagen för första gången siffror om förekomsten av hatretorik på sin plattform, och uppgav att av 10 000 visningar av innehåll under det tredje kvartalet innehöll mellan 10 och 11 av dessa hatretorik.

FILFOTO: Facebooks vd Mark Zuckerberg talar via videokonferens under en utfrågning av House Judiciary Subcommittee on Antitrust, Commercial and Administrative Law om ”Online Platforms and Market Power”,på Capitol Hill, i Washington, USA, 29 juli 2020. Graeme Jennings/Pool via REUTERS/File Photo

Världens största företag inom sociala medier, som är föremål för granskning av sin övervakning av missbruk, särskilt kring det amerikanska presidentvalet i november, släppte uppskattningen i sin kvartalsrapport om innehållsmoderering.

Facebook sa att det vidtog åtgärder mot 22,1 miljoner stycken hatretorik-innehåll under det tredje kvartalet, varav cirka 95 % identifierades proaktivt, jämfört med 22,1 miljoner stycken.5 miljoner under föregående kvartal.

Företaget definierar ”vidta åtgärder” som att ta bort innehåll, täcka det med en varning, inaktivera konton eller eskalera det till externa organ.

I somras organiserade medborgarrättsgrupper en omfattande reklambojkott för att försöka pressa Facebook att agera mot hatretorik.

Företaget gick med på att offentliggöra måttet för hatretorik, som beräknas genom att undersöka ett representativt urval av innehåll som ses på Facebook, och att underkasta sig en oberoende granskning av sitt genomförande.

I ett samtal med journalister sa Facebooks chef för säkerhet och integritet Guy Rosen att granskningen skulle slutföras ”under loppet av 2021″.”

Anti-Defamation League, en av de grupper som står bakom bojkotten, sade att Facebooks nya mått fortfarande saknade tillräckligt sammanhang för en fullständig bedömning av dess prestationer.

”Vi vet fortfarande inte från den här rapporten exakt hur många delar av innehållet som användarna flaggar till Facebook – om åtgärder vidtagits eller inte”, sade ADL:s talesman Todd Gutnick. Dessa uppgifter är viktiga, sade han, eftersom ”det finns många former av hatpropaganda som inte tas bort, även efter att de har flaggats.”

Rivaler Twitter och YouTube, som ägs av Alphabet Inc:s Google, avslöjar inte jämförbara mätningar av prevalensen.

Facebooks Rosen sade också att från den 1 mars till valet den 3 november tog företaget bort mer än 265 000 stycken innehåll från Facebook och Instagram i USA för att ha brutit mot sina riktlinjer för röststörning.

I oktober sa Facebook att man uppdaterade sin policy för hatretorik för att förbjuda innehåll som förnekar eller förvränger Förintelsen, en vändning från de offentliga kommentarer som Facebooks verkställande direktör Mark Zuckerberg hade gjort om vad som borde vara tillåtet.

Facebook sa att man vidtog åtgärder mot 19,2 miljoner stycken våldsamt och grafiskt innehåll under det tredje kvartalet, vilket var en ökning från 15 miljoner stycken under det andra kvartalet. På Instagram vidtog man åtgärder mot 4,1 miljoner stycken våldsamt och grafiskt innehåll.

Tidigare i veckan blev Zuckerberg och Twitter Inc:s vd Jack Dorsey utfrågade av kongressen om deras företags metoder för innehållsmoderering, från republikanska anklagelser om politisk partiskhet till beslut om våldsamt tal.

Förra veckan rapporterade Reuters att Zuckerberg vid ett möte med all personal sagt att den tidigare rådgivaren i Trumps Vita Hus, Steve Bannon, inte hade brutit mot tillräckligt många av företagets policyer för att motivera en avstängning när han uppmanade till halshuggning av två amerikanska tjänstemän.

Företaget har också kritiserats under de senaste månaderna för att ha låtit stora Facebook-grupper som delar falska valpåståenden och våldsam retorik få fäste.

Facebook sade att dess andel för att hitta regelbrytande innehåll innan användarna rapporterade det hade ökat på de flesta områden på grund av förbättringar i verktyg för artificiell intelligens och genom att utöka sin upptäcktsteknik till fler språk.

I ett blogginlägg sade Facebook att COVID-19-pandemin fortsatte att störa dess arbetsstyrka för innehållsgranskning, även om vissa mätvärden för efterlevnad återgick till de nivåer som rådde före pandemin.

I ett öppet brev här från mer än 200 innehållsmoderatorer på Facebook som publicerades på onsdagen anklagas företaget för att tvinga dessa arbetare tillbaka till kontoret och för att ”i onödan riskera” liv under pandemin.

”Anläggningarna uppfyller eller överträffar riktlinjerna för en säker arbetsplats”, säger Facebooks Rosen.

Rapportering av Elizabeth Culliford och Katie Paul; Redigering av Nick Zieminski och Tom Brown

Våra standarder: Thomson Reuters Trust Principles.

Lämna ett svar

Din e-postadress kommer inte publiceras.