Por Elizabeth Culliford, Katie Paul

4 Min Leia

(Reuters) – Facebook Inc divulgou pela primeira vez na quinta-feira os números sobre a prevalência de discurso de ódio na sua plataforma, dizendo que de cada 10.000 visualizações de conteúdo no terceiro trimestre, 10 a 11 incluíam discurso de ódio.

FOTO DO ARQUIVO: O CEO do Facebook Mark Zuckerberg fala via videoconferência durante uma audiência do Subcomitê Judiciário da Câmara sobre Antitruste, Direito Comercial e Administrativo em “Plataformas Online e Poder de Mercado”, no Capitólio, em Washington, EUA, em 29 de julho de 2020. Graeme Jennings/Pool via REUTERS/File Photo

A maior empresa de mídia social do mundo, sob escrutínio de seu policiamento de abusos, particularmente por volta das eleições presidenciais americanas de novembro, divulgou a estimativa em seu relatório trimestral de moderação de conteúdo.

Facebook disse que tomou medidas em 22,1 milhões de peças de conteúdo de discursos de ódio no terceiro trimestre, dos quais cerca de 95% foram identificados proativamente, em comparação com 22.5 milhões no trimestre anterior.

A empresa define ‘agir’ como remover conteúdo, cobrindo-o com um aviso, desativando contas, ou aumentando-o para agências externas.

Neste verão, grupos de direitos civis organizaram um boicote publicitário generalizado para tentar pressionar o Facebook a agir contra o discurso de ódio.

A empresa concordou em divulgar a métrica do discurso de ódio, calculada examinando uma amostra representativa do conteúdo visto no Facebook, e submeter-se a uma auditoria independente do seu registro de aplicação.

Em uma chamada com repórteres, o chefe de segurança e integridade do Facebook, Guy Rosen, disse que a auditoria seria concluída “ao longo do ano de 2021.”

A Liga Anti-Defamação, um dos grupos por trás do boicote, disse que a nova métrica do Facebook ainda não tinha contexto suficiente para uma avaliação completa do seu desempenho.

“Nós ainda não sabemos, a partir deste relatório, exatamente quantos usuários de conteúdo estão sinalizando para o Facebook – se foram ou não tomadas medidas”, disse o porta-voz da ADL, Todd Gutnick. Esses dados são importantes, disse ele, pois “há muitas formas de discurso de ódio que não estão sendo removidas, mesmo depois de terem sido sinalizadas”

Rivals Twitter e YouTube, de propriedade do Google da Alphabet Inc, não divulgam métricas de prevalência comparáveis.

Facebook’s Rosen também disse que de 1 de março até a eleição de 3 de novembro, a empresa removeu mais de 265.000 peças de conteúdo do Facebook e Instagram nos Estados Unidos por violar suas políticas de interferência de eleitores.

Em outubro, Facebook disse que estava atualizando sua política de discursos de ódio para banir conteúdo que nega ou distorce o Holocausto, uma reviravolta dos comentários públicos que o Chefe Executivo do Facebook, Mark Zuckerberg, havia feito sobre o que deveria ser permitido.

Facebook disse que tomou medidas em 19,2 milhões de peças de conteúdo violento e gráfico no terceiro trimestre, acima dos 15 milhões no segundo. Na Instagram, ele agiu em 4,1 milhões de peças de conteúdo violento e gráfico.

Earlier esta semana, Zuckerberg e o CEO do Twitter Inc Jack Dorsey foram grelhados pelo Congresso sobre as práticas de moderação de conteúdo de suas empresas, desde alegações republicanas de preconceitos políticos até decisões sobre discursos violentos.

Na semana passada, a Reuters relatou que Zuckerberg disse a uma reunião de todos os funcionários que o ex-conselheiro da Casa Branca Trump Steve Bannon não havia violado o suficiente das políticas da empresa para justificar a suspensão quando ele pediu a decapitação de dois funcionários americanos.

A empresa também foi criticada nos últimos meses por permitir que grandes grupos do Facebook compartilhando falsas reivindicações eleitorais e retórica violenta ganhassem força.

Facebook disse que suas taxas para encontrar conteúdo que quebre as regras antes dos usuários relatarem que estava em alta na maioria das áreas devido a melhorias nas ferramentas de inteligência artificial e expandindo suas tecnologias de detecção para mais idiomas.

Em um post de blog, o Facebook disse que a pandemia COVID-19 continuou a perturbar sua força de trabalho de revisão de conteúdo, embora algumas métricas de fiscalização estivessem voltando aos níveis pré-pandêmicos.

Uma carta aberta aqui de mais de 200 moderadores de conteúdo do Facebook, publicada na quarta-feira, acusou a empresa de forçar esses trabalhadores a voltar ao escritório e ‘arriscar desnecessariamente’ a vida durante a pandemia.

“As instalações se encontram ou excedem a orientação em um espaço de trabalho seguro”, disse o Rosen do Facebook.

Relatando por Elizabeth Culliford e Katie Paul; Edição por Nick Zieminski e Tom Brown

Nossos Padrões”: The Thomson Reuters Trust Principles.

Deixe uma resposta

O seu endereço de email não será publicado.