De Elizabeth Culliford, Katie Paul

4 Min Read

(Reuters) – Facebook Inc a dezvăluit joi, pentru prima dată, cifre privind prevalența discursului instigator la ură pe platforma sa, afirmând că la fiecare 10.000 de vizualizări de conținut în al treilea trimestru, 10-11 au inclus discursuri instigatoare la ură.

FOTOGRAFIE DE ARHIVĂ: Directorul general al Facebook, Mark Zuckerberg, vorbește prin videoconferință în timpul unei audieri a Subcomisiei juridice a Camerei Reprezentanților pentru antitrust, drept comercial și administrativ pe tema „Platformele online și puterea de piață”,la Capitol Hill, în Washington, SUA, 29 iulie 2020. Graeme Jennings/Pool via REUTERS/File Photo

Cea mai mare companie de social media din lume, aflată sub supraveghere în ceea ce privește supravegherea abuzurilor, în special în jurul alegerilor prezidențiale americane din noiembrie, a publicat estimarea în raportul său trimestrial privind moderarea conținutului.

Facebook a declarat că a luat măsuri cu privire la 22,1 milioane de bucăți de conținut cu discursuri de ură în al treilea trimestru, dintre care aproximativ 95% au fost identificate în mod proactiv, comparativ cu 22,1 milioane.5 milioane în trimestrul precedent.

Compania definește „luarea de măsuri” ca fiind eliminarea conținutului, acoperirea acestuia cu un avertisment, dezactivarea conturilor sau escaladarea acestuia către agenții externe.

În această vară, grupurile pentru drepturile civile au organizat un boicot publicitar de amploare pentru a încerca să preseze Facebook să acționeze împotriva discursului instigator la ură.

Compania a fost de acord să divulge indicatorul de măsurare a discursului instigator la ură, calculat prin examinarea unui eșantion reprezentativ de conținut văzut pe Facebook, și să se supună unui audit independent al dosarului său de aplicare a legii.

În cadrul unei convorbiri telefonice cu reporterii, Guy Rosen, șeful departamentului de siguranță și integritate al Facebook, a declarat că auditul va fi finalizat „în cursul anului 2021″.”

Liga Anti-Defăimare, unul dintre grupurile care se află în spatele boicotului, a declarat că noua măsurătoare a Facebook încă nu are un context suficient pentru o evaluare completă a performanței sale.

„Încă nu știm din acest raport exact câte bucăți de conținut sunt semnalate de utilizatori către Facebook – dacă s-au luat sau nu măsuri”, a declarat purtătorul de cuvânt al ADL, Todd Gutnick. Aceste date contează, a spus el, deoarece „există multe forme de discursuri instigatoare la ură care nu sunt eliminate, chiar și după ce sunt semnalate.”

Rivalele Twitter și YouTube, deținute de Google de la Alphabet Inc, nu dezvăluie măsurători de prevalență comparabile.

Rosen de la Facebook a declarat, de asemenea, că de la 1 martie până la alegerile din 3 noiembrie, compania a eliminat peste 265.000 de conținut de pe Facebook și Instagram în Statele Unite pentru că a încălcat politicile sale de interferență cu alegătorii.

În octombrie, Facebook a declarat că își actualizează politica privind discursul instigator la ură pentru a interzice conținutul care neagă sau denaturează Holocaustul, o răsturnare de situație față de comentariile publice pe care directorul executiv al Facebook, Mark Zuckerberg, le făcuse cu privire la ceea ce ar trebui să fie permis.

Facebook a declarat că a luat măsuri cu privire la 19,2 milioane de bucăți de conținut violent și grafic în al treilea trimestru, în creștere de la 15 milioane în al doilea trimestru. Pe Instagram, a luat măsuri cu privire la 4,1 milioane de bucăți de conținut violent și grafic.

La începutul acestei săptămâni, Zuckerberg și directorul general al Twitter Inc, Jack Dorsey, au fost interogați de Congres cu privire la practicile de moderare a conținutului companiilor lor, de la acuzațiile republicanilor de părtinire politică la deciziile privind discursul violent.

Săptămâna trecută, Reuters a relatat că Zuckerberg a declarat la o reuniune a întregului personal că fostul consilier al lui Trump la Casa Albă, Steve Bannon, nu a încălcat suficiente politici ale companiei pentru a justifica suspendarea atunci când a îndemnat la decapitarea a doi oficiali americani.

Compania a fost, de asemenea, criticată în ultimele luni pentru că a permis grupurilor mari de pe Facebook care împărtășesc afirmații electorale false și retorică violentă să câștige teren.

Facebook a declarat că ratele sale de descoperire a conținutului care încalcă regulile înainte ca utilizatorii să îl raporteze au crescut în majoritatea domeniilor datorită îmbunătățirii instrumentelor de inteligență artificială și extinderii tehnologiilor sale de detectare la mai multe limbi.

Într-o postare pe blog, Facebook a declarat că pandemia COVID-19 a continuat să perturbe forța sa de muncă de revizuire a conținutului, deși unii parametri de aplicare au revenit la nivelurile anterioare pandemiei.

O scrisoare deschisă aici de la peste 200 de moderatori de conținut Facebook, publicată miercuri, a acuzat compania că a forțat acești lucrători să se întoarcă la birou și că a „riscat inutil” vieți în timpul pandemiei.

„Facilitățile îndeplinesc sau depășesc îndrumările privind un spațiu de lucru sigur”, a declarat Rosen de la Facebook.

Reportaj realizat de Elizabeth Culliford și Katie Paul; editare de Nick Zieminski și Tom Brown

Standardele noastre: Principiile Thomson Reuters Trust.

.

Lasă un răspuns

Adresa ta de email nu va fi publicată.