di Elizabeth Culliford, Katie Paul
4 Min Read
(Reuters) – Facebook Inc per la prima volta giovedì ha rivelato i numeri sulla prevalenza del discorso dell’odio sulla sua piattaforma, dicendo che su ogni 10.000 visualizzazioni di contenuti nel terzo trimestre, da 10 a 11 includevano il discorso dell’odio.
La più grande società di social media del mondo, sotto esame per il suo controllo degli abusi, in particolare intorno alle elezioni presidenziali americane di novembre, ha rilasciato la stima nel suo rapporto trimestrale sulla moderazione dei contenuti.
Facebook ha detto che ha preso provvedimenti su 22,1 milioni di pezzi di contenuti di odio nel terzo trimestre, circa il 95% dei quali è stato identificato proattivamente, rispetto ai 22.5 milioni nel trimestre precedente.
L’azienda definisce “prendere provvedimenti” come rimuovere il contenuto, coprirlo con un avvertimento, disabilitare gli account, o escalation ad agenzie esterne.
Questa estate, i gruppi per i diritti civili hanno organizzato un boicottaggio pubblicitario diffuso per cercare di spingere Facebook ad agire contro l’hate speech.
L’azienda ha accettato di rivelare la metrica dei discorsi d’odio, calcolata esaminando un campione rappresentativo dei contenuti visti su Facebook, e di sottoporsi a una revisione indipendente del suo record di applicazione.
In una chiamata con i giornalisti, il capo della sicurezza e dell’integrità di Facebook Guy Rosen ha detto che la revisione sarà completata “nel corso del 2021.”
L’Anti-Defamation League, uno dei gruppi dietro il boicottaggio, ha detto che la nuova metrica di Facebook manca ancora di un contesto sufficiente per una valutazione completa delle sue prestazioni.
“Non sappiamo ancora da questo rapporto esattamente quanti pezzi di contenuti gli utenti stanno segnalando a Facebook – se l’azione è stata presa o meno”, ha detto il portavoce dell’ADL Todd Gutnick. Questi dati sono importanti, ha detto, perché “ci sono molte forme di discorsi d’odio che non vengono rimossi, anche dopo essere stati segnalati”.
I rivali Twitter e YouTube, di proprietà di Google di Alphabet Inc, non rivelano metriche di prevalenza comparabili.
Facebook’s Rosen ha anche detto che dal 1 marzo alle elezioni del 3 novembre, la società ha rimosso più di 265.000 pezzi di contenuto da Facebook e Instagram negli Stati Uniti per aver violato le sue politiche di interferenza degli elettori.
In ottobre, Facebook ha detto che stava aggiornando la sua politica di odio per vietare i contenuti che negano o distorcono l’Olocausto, un’inversione di tendenza rispetto ai commenti pubblici che l’amministratore delegato di Facebook Mark Zuckerberg aveva fatto su ciò che dovrebbe essere consentito.
Facebook ha detto che ha preso provvedimenti su 19,2 milioni di pezzi di contenuti violenti e grafici nel terzo trimestre, dai 15 milioni del secondo. Su Instagram, ha preso provvedimenti su 4,1 milioni di contenuti violenti e grafici.
All’inizio di questa settimana, Zuckerberg e il CEO di Twitter Inc Jack Dorsey sono stati interrogati dal Congresso sulle pratiche di moderazione dei contenuti delle loro aziende, dalle accuse repubblicane di pregiudizi politici alle decisioni sul discorso violento.
La scorsa settimana, Reuters ha riferito che Zuckerberg ha detto ad una riunione di tutto lo staff che l’ex consigliere della Casa Bianca di Trump Steve Bannon non aveva violato abbastanza delle politiche della società per giustificare la sospensione quando ha esortato la decapitazione di due funzionari statunitensi.
La società è stata anche criticata negli ultimi mesi per aver permesso ai grandi gruppi di Facebook che condividono false dichiarazioni elettorali e retorica violenta di guadagnare trazione.
Facebook ha detto che i suoi tassi di trovare contenuti che violano le regole prima che gli utenti li segnalino sono aumentati nella maggior parte dei settori a causa di miglioramenti negli strumenti di intelligenza artificiale e l’espansione delle sue tecnologie di rilevamento in più lingue.
In un post sul blog, Facebook ha detto che la pandemia COVID-19 ha continuato a disturbare la sua forza lavoro di revisione dei contenuti, anche se alcune metriche di applicazione stavano tornando ai livelli pre-pandemia.
Una lettera aperta qui da più di 200 moderatori di contenuti di Facebook, pubblicata mercoledì, ha accusato la società di costringere questi lavoratori a tornare in ufficio e “rischiare inutilmente” le vite durante la pandemia.
“Le strutture soddisfano o superano la guida su uno spazio di lavoro sicuro”, ha detto Rosen di Facebook.
Reportage di Elizabeth Culliford e Katie Paul; Montaggio di Nick Zieminski e Tom Brown
I nostri standard: I principi di fiducia di Thomson Reuters.