By Elizabeth Culliford, Katie Paul

4 Min Read

(Reuters) – Facebook Inc. hat am Donnerstag erstmals Zahlen zur Verbreitung von Hassreden auf seiner Plattform veröffentlicht und erklärt, dass von 10.000 Inhaltsaufrufen im dritten Quartal 10 bis 11 Hassreden enthielten.

DATEIFOTO: Facebook-CEO Mark Zuckerberg spricht per Videokonferenz während einer Anhörung des Unterausschusses für Kartell-, Handels- und Verwaltungsrecht des Repräsentantenhauses zum Thema „Online-Plattformen und Marktmacht“ auf dem Capitol Hill, in Washington, USA, 29. Juli 2020. Graeme Jennings/Pool via REUTERS/File Photo

Das weltgrößte Social-Media-Unternehmen, das wegen der Verfolgung von Verstößen, insbesondere im Zusammenhang mit den US-Präsidentschaftswahlen im November, unter Beobachtung steht, gab die Schätzung in seinem vierteljährlichen Bericht über die Moderation von Inhalten bekannt.

Facebook sagte, es habe im dritten Quartal Maßnahmen gegen 22,1 Millionen Hassreden ergriffen, von denen etwa 95 % proaktiv identifiziert wurden, verglichen mit 22.

Das Unternehmen definiert „Maßnahmen ergreifen“ als das Entfernen von Inhalten, das Abdecken mit einer Warnung, das Sperren von Konten oder das Weiterleiten an externe Agenturen.

In diesem Sommer organisierten Bürgerrechtsgruppen einen weit verbreiteten Werbeboykott, um Facebook unter Druck zu setzen, gegen Hassreden vorzugehen.

Das Unternehmen erklärte sich bereit, die Hassrede-Kennzahl offenzulegen, die durch die Untersuchung einer repräsentativen Stichprobe von Inhalten, die auf Facebook gesehen werden, berechnet wird, und sich einer unabhängigen Prüfung seiner Durchsetzungsbilanz zu unterziehen.

In einem Telefonat mit Reportern sagte Guy Rosen, Leiter der Abteilung für Sicherheit und Integrität von Facebook, dass die Prüfung „im Laufe des Jahres 2021″ abgeschlossen sein werde.“

Die Anti-Defamation League (ADL), eine der Gruppen, die hinter dem Boykott stehen, sagte, dass Facebooks neue Metrik immer noch nicht genügend Kontext für eine vollständige Bewertung seiner Leistung biete.

„Wir wissen aus diesem Bericht immer noch nicht genau, wie viele Inhalte von den Nutzern an Facebook gemeldet werden – ob Maßnahmen ergriffen wurden oder nicht“, sagte ADL-Sprecher Todd Gutnick. Diese Daten seien wichtig, da „es viele Formen von Hassreden gibt, die nicht entfernt werden, selbst nachdem sie markiert wurden.“

Die Konkurrenten Twitter und YouTube, die sich im Besitz von Alphabet Inc’s Google befinden, geben keine vergleichbaren Prävalenzdaten bekannt.

Facebook’s Rosen sagte auch, dass das Unternehmen vom 1. März bis zur Wahl am 3. November mehr als 265.000 Inhalte von Facebook und Instagram in den Vereinigten Staaten entfernt hat, weil sie gegen seine Richtlinien zur Beeinflussung von Wählern verstoßen haben.

Im Oktober sagte Facebook, es aktualisiere seine Richtlinien für Hassreden, um Inhalte zu verbieten, die den Holocaust leugnen oder verfälschen, eine Kehrtwende gegenüber öffentlichen Kommentaren von Facebooks Chief Executive Mark Zuckerberg darüber, was erlaubt sein sollte.

Facebook sagte, es habe im dritten Quartal 19,2 Millionen gewalttätige und grafische Inhalte entfernt, gegenüber 15 Millionen im zweiten Quartal. Auf Instagram wurden 4,1 Millionen gewalttätige und grafische Inhalte geahndet.

Anfang dieser Woche wurden Zuckerberg und der CEO von Twitter Inc, Jack Dorsey, vom Kongress zu den Praktiken ihrer Unternehmen bei der Moderation von Inhalten befragt, von republikanischen Vorwürfen politischer Voreingenommenheit bis hin zu Entscheidungen über gewalttätige Sprache.

Letzte Woche berichtete Reuters, dass Zuckerberg bei einem Treffen aller Mitarbeiter sagte, dass der ehemalige Berater von Trump im Weißen Haus, Steve Bannon, nicht genug gegen die Unternehmensrichtlinien verstoßen habe, um eine Suspendierung zu rechtfertigen, als er die Enthauptung zweier US-Beamter forderte.

Das Unternehmen wurde in den letzten Monaten auch dafür kritisiert, dass es großen Facebook-Gruppen, die falsche Wahlbehauptungen und gewalttätige Rhetorik verbreiten, erlaubt hat, an Boden zu gewinnen.

Facebook gab an, dass die Rate, mit der das Unternehmen regelwidrige Inhalte findet, bevor die Nutzer sie melden, in den meisten Bereichen gestiegen ist, was auf Verbesserungen bei den Tools für künstliche Intelligenz und die Ausweitung der Erkennungstechnologien auf weitere Sprachen zurückzuführen ist.

In einem Blog-Post sagte Facebook, dass die COVID-19-Pandemie seine Mitarbeiter bei der Überprüfung von Inhalten weiterhin behindert, obwohl einige Durchsetzungskennzahlen wieder auf das Niveau vor der Pandemie zurückkehren.

In einem offenen Brief von mehr als 200 Facebook-Moderatoren, der am Mittwoch veröffentlicht wurde, wird das Unternehmen beschuldigt, diese Mitarbeiter wieder ins Büro zu zwingen und während der Pandemie „unnötig Leben zu riskieren“.

„Die Einrichtungen erfüllen oder übertreffen die Richtlinien für einen sicheren Arbeitsbereich“, sagte Facebooks Rosen.

Berichterstattung von Elizabeth Culliford und Katie Paul; Bearbeitung von Nick Zieminski und Tom Brown

Unsere Standards: Die Thomson Reuters Vertrauensgrundsätze

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.