Par Elizabeth Culliford, Katie Paul
4 Min Read
(Reuters) – Facebook Inc a pour la première fois jeudi divulgué des chiffres sur la prévalence des discours de haine sur sa plateforme, affirmant que sur 10 000 vues de contenu au troisième trimestre, 10 à 11 comprenaient des discours de haine.
La plus grande entreprise de médias sociaux au monde, sous la loupe pour son maintien de l’ordre des abus, en particulier autour de l’élection présidentielle américaine de novembre, a publié cette estimation dans son rapport trimestriel sur la modération du contenu.
Facebook a déclaré avoir pris des mesures concernant 22,1 millions de contenus de discours haineux au troisième trimestre, dont environ 95% ont été identifiés de manière proactive, contre 22.5 millions au trimestre précédent.
L’entreprise définit la « prise de mesures » comme le retrait du contenu, sa couverture par un avertissement, la désactivation de comptes ou l’escalade vers des agences externes.
Cet été, des groupes de défense des droits civils ont organisé un vaste boycott publicitaire pour tenter de faire pression sur Facebook afin qu’il agisse contre les discours de haine.
L’entreprise a accepté de divulguer la métrique des discours haineux, calculée en examinant un échantillon représentatif du contenu vu sur Facebook, et de se soumettre à un audit indépendant de son bilan d’application de la loi.
Lors d’un appel aux journalistes, le responsable de la sécurité et de l’intégrité de Facebook, Guy Rosen, a déclaré que l’audit serait terminé « au cours de l’année 2021″. »
L’Anti-Defamation League, l’un des groupes à l’origine du boycott, a déclaré que la nouvelle métrique de Facebook manquait encore de contexte suffisant pour une évaluation complète de ses performances.
« Nous ne savons toujours pas, à partir de ce rapport, exactement combien de pièces de contenu les utilisateurs signalent à Facebook – que des mesures aient été prises ou non », a déclaré le porte-parole de l’ADL, Todd Gutnick. Ces données sont importantes, a-t-il ajouté, car « il existe de nombreuses formes de discours haineux qui ne sont pas supprimées, même après avoir été signalées. »
Rivaux Twitter et YouTube, détenus par Google d’Alphabet Inc, ne divulguent pas de mesures de prévalence comparables.
Rosen de Facebook a également déclaré que du 1er mars à l’élection du 3 novembre, la société a retiré plus de 265 000 éléments de contenu de Facebook et Instagram aux États-Unis pour avoir violé ses politiques d’ingérence dans les élections.
En octobre, Facebook a déclaré qu’il mettait à jour sa politique de discours haineux pour interdire les contenus qui nient ou déforment l’Holocauste, un revirement par rapport aux commentaires publics du directeur général de Facebook, Mark Zuckerberg, sur ce qui devrait être autorisé.
Facebook a déclaré avoir pris des mesures concernant 19,2 millions de pièces de contenu violent et graphique au troisième trimestre, contre 15 millions au deuxième trimestre. Sur Instagram, il a pris des mesures sur 4,1 millions de pièces de contenu violent et graphique.
En début de semaine, Zuckerberg et le PDG de Twitter Inc, Jack Dorsey, ont été interrogés par le Congrès sur les pratiques de modération du contenu de leurs entreprises, des allégations républicaines de partialité politique aux décisions concernant les discours violents.
La semaine dernière, Reuters a rapporté que Zuckerberg a déclaré lors d’une réunion de tout le personnel que l’ancien conseiller de la Maison Blanche de Trump, Steve Bannon, n’avait pas violé suffisamment les politiques de l’entreprise pour justifier une suspension lorsqu’il a exhorté à la décapitation de deux fonctionnaires américains.
L’entreprise a également été critiquée ces derniers mois pour avoir permis à d’importants groupes Facebook partageant de fausses affirmations électorales et une rhétorique violente de gagner en traction.
Facebook a déclaré que ses taux de découverte de contenu enfreignant les règles avant que les utilisateurs ne le signalent étaient en hausse dans la plupart des domaines en raison des améliorations apportées aux outils d’intelligence artificielle et de l’extension de ses technologies de détection à davantage de langues.
Dans un billet de blog, Facebook a déclaré que la pandémie COVID-19 continuait de perturber ses effectifs de révision de contenu, bien que certaines mesures d’application reviennent aux niveaux pré-pandémiques.
Une lettre ouverte ici de plus de 200 modérateurs de contenu de Facebook publiée mercredi a accusé l’entreprise de forcer ces travailleurs à retourner au bureau et de « risquer inutilement » des vies pendant la pandémie.
« Les installations répondent ou dépassent les directives sur un espace de travail sûr », a déclaré Rosen de Facebook.
Rapports d’Elizabeth Culliford et Katie Paul ; édition de Nick Zieminski et Tom Brown
Nos normes : Les principes de confiance de Thomson Reuters.
.