Por Elizabeth Culliford, Katie Paul
4 Min Read
(Reuters) – Facebook Inc. divulgó el jueves por primera vez cifras sobre la prevalencia del discurso de odio en su plataforma, diciendo que de cada 10.000 visualizaciones de contenido en el tercer trimestre, entre 10 y 11 incluían discurso de odio.
La mayor empresa de medios sociales del mundo, bajo escrutinio por su vigilancia de los abusos, en particular en torno a las elecciones presidenciales de noviembre en Estados Unidos, dio a conocer la estimación en su informe trimestral de moderación de contenido.
Facebook dijo que tomó medidas sobre 22,1 millones de piezas de contenido de discurso de odio en el tercer trimestre, alrededor del 95% de los cuales fue identificado proactivamente, en comparación con 22.5 millones en el trimestre anterior.
La empresa define «tomar medidas» como eliminar el contenido, cubrirlo con una advertencia, desactivar cuentas o escalarlo a agencias externas.
Este verano, grupos de derechos civiles organizaron un boicot publicitario generalizado para tratar de presionar a Facebook para que actuara contra el discurso de odio.
La empresa aceptó revelar la métrica de la incitación al odio, calculada mediante el examen de una muestra representativa de los contenidos vistos en Facebook, y someterse a una auditoría independiente de su historial de cumplimiento.
En una llamada con periodistas, el jefe de seguridad e integridad de Facebook, Guy Rosen, dijo que la auditoría se completaría «en el transcurso de 2021″.»
La Liga Antidifamación, uno de los grupos que impulsan el boicot, dijo que la nueva métrica de Facebook todavía carecía de contexto suficiente para una evaluación completa de su desempeño.
«Todavía no sabemos a partir de este informe exactamente cuántas piezas de contenido los usuarios están marcando a Facebook – si se tomaron medidas o no», dijo el portavoz de ADL Todd Gutnick. Esos datos son importantes, dijo, ya que «hay muchas formas de discurso de odio que no se eliminan, incluso después de ser marcadas».
Los rivales Twitter y YouTube, propiedad de Google de Alphabet Inc, no revelan métricas de prevalencia comparables.
Rosen, de Facebook, también dijo que desde el 1 de marzo hasta las elecciones del 3 de noviembre, la compañía eliminó más de 265.000 piezas de contenido de Facebook e Instagram en Estados Unidos por violar sus políticas de interferencia de votantes.
En octubre, Facebook dijo que estaba actualizando su política de incitación al odio para prohibir los contenidos que nieguen o distorsionen el Holocausto, un giro respecto a los comentarios públicos que había hecho el presidente ejecutivo de Facebook, Mark Zuckerberg, sobre lo que debería estar permitido.
Facebook dijo que tomó medidas sobre 19,2 millones de piezas de contenido violento y gráfico en el tercer trimestre, frente a los 15 millones del segundo. En Instagram, tomó medidas sobre 4,1 millones de piezas de contenido violento y gráfico.
A principios de esta semana, Zuckerberg y el CEO de Twitter Inc, Jack Dorsey, fueron interrogados por el Congreso sobre las prácticas de moderación de contenido de sus empresas, desde las acusaciones republicanas de sesgo político hasta las decisiones sobre el discurso violento.
La semana pasada, Reuters informó que Zuckerberg dijo en una reunión de todo el personal que el ex asesor de la Casa Blanca de Trump, Steve Bannon, no había violado lo suficiente las políticas de la compañía para justificar la suspensión cuando instó a la decapitación de dos funcionarios estadounidenses.
La compañía también ha sido criticada en los últimos meses por permitir que grandes grupos de Facebook que comparten declaraciones electorales falsas y retórica violenta ganen fuerza.
Facebook dijo que sus índices de detección de contenidos que infringen las normas antes de que los usuarios los denuncien habían aumentado en la mayoría de las áreas debido a las mejoras en las herramientas de inteligencia artificial y a la ampliación de sus tecnologías de detección a más idiomas.
En una publicación en su blog, Facebook dijo que la pandemia de COVID-19 seguía perturbando a su personal de revisión de contenidos, aunque algunas métricas de cumplimiento estaban volviendo a los niveles anteriores a la pandemia.
Una carta abierta de más de 200 moderadores de contenidos de Facebook publicada el miércoles acusaba a la compañía de obligar a estos trabajadores a volver a la oficina y «arriesgar innecesariamente» vidas durante la pandemia.
«Las instalaciones cumplen o superan las orientaciones sobre un espacio de trabajo seguro», dijo Rosen de Facebook.
Información de Elizabeth Culliford y Katie Paul; edición de Nick Zieminski y Tom Brown
Nuestras normas: Los principios de confianza de Thomson Reuters.