Facebook approva il 75% degli annunci che minacciano gli operatori elettorali statunitensi • The Register
In vista delle elezioni di medio termine negli Stati Uniti del mese scorso, i ricercatori dell’organizzazione no profit Global Witness e della New York University hanno inviato annunci contenenti minacce di morte contro gli operatori elettorali su Facebook di Meta, YouTube di Google e TikTok.
YouTube e TikTok hanno rilevato gli annunci che violano le norme, li hanno rimossi e hanno sospeso gli account pubblicitari associati; Tuttavia, Facebook ha consentito la visualizzazione della maggior parte delle minacce di morte, 15 su 20.
“La piattaforma ha approvato nove minacce di morte in lingua inglese su dieci per la pubblicazione e sei minacce di morte in lingua spagnola su dieci”, ha affermato Global Witness in una nota. “Il nostro account non è stato chiuso nonostante diversi annunci siano stati identificati come violazione delle loro norme.”
Gli annunci inviati si basano su esempi reali di minacce di morte riportate pubblicamente contro operatori elettorali. Consistono in un’immagine di un lavoratore elettorale con sopra una minaccia di morte. I messaggi dicevano che le persone sarebbero state uccise, giustiziate o impiccate e che i bambini sarebbero stati molestati, ma sono stati modificati per facilitarne la lettura.
“Abbiamo rimosso le parolacce dalle minacce di morte e corretto gli errori grammaticali, poiché in una precedente indagine Facebook inizialmente ha rifiutato gli annunci contenenti incitamento all’odio per questi motivi e poi li ha accettati per la pubblicazione una volta che li abbiamo modificati”, hanno spiegato i ricercatori di Global Witness e della NYU Cybersecurity per la squadra della democrazia (C4D).
In una prosa più raffinata, gli annunci sono stati presentati in inglese e in spagnolo il giorno o il giorno prima delle elezioni di medio termine negli Stati Uniti. Mentre YouTube e TikTok hanno catturato annunci minacciosi, Facebook per lo più li lascia andare.
In termini di utenti attivi mensili negli Stati Uniti, Facebook ha circa 266 milioni, TikTok circa 94 milioni e YouTube circa 247 milioni.
Chiesto di commentare, un portavoce di Meta ha ripetuto la risposta data ai ricercatori: “Questo è un piccolo campione di annunci che non rappresentano ciò che le persone vedono sulle nostre piattaforme. Il contenuto che motiva la violenza contro gli operatori elettorali o chiunque altro non ha posto in le nostre app e i recenti rapporti hanno chiarito che la capacità di Meta di affrontare questi problemi supera efficacemente le altre piattaforme. Rimaniamo impegnati nel miglioramento continuo dei nostri sistemi”.
Questa è un’affermazione strana dato che nessuno sostiene che la maggior parte degli annunci di Facebook siano minacce di morte: il problema è che qualsiasi minaccia di morte è approvata per la distribuzione. È come se i produttori di Tylenol nel 1982 avessero risposto ai sette decessi legati alle interazioni farmacologiche osservando che la maggior parte delle persone non era stata avvelenata.
Mentre rapporti recenti suggeriscono che Meta controlla gli annunci in modo più efficace rispetto ai rivali, Global Witness e il team di C4D hanno affermato di aver chiesto a Meta di sostenere la sua affermazione secondo cui gestisce meglio l’incitamento alla violenza rispetto ad altre piattaforme.
Meta, hanno detto, ha indicato citazioni tratte da notizie – come questo rapporto del New York Times – che indicano che l’azienda sta dedicando più risorse alla lotta alla manipolazione rispetto a qualsiasi altra piattaforma e che è migliore delle piattaforme dell’alt-right come Parler. e Gab – non esattamente noti per la loro sensibilità alla disinformazione.
“Sebbene queste affermazioni possano essere vere, non costituiscono una prova che Meta sia più bravo a rilevare l’incitamento alla violenza rispetto ad altre piattaforme importanti”, hanno affermato i ricercatori. “Inoltre, non dovrebbe esserci tolleranza per il fallimento prima di un’importante elezione, quando le tensioni e il potenziale danno sono alti”.
La disinformazione, invece…
Tuttavia, Facebook di Meta è uscito meglio di TikTok quando gli stessi ricercatori hanno esaminato il modo in cui Facebook, TikTok e YouTube hanno gestito la disinformazione elettorale (piuttosto che le minacce di morte) due mesi fa.
In quello studio, TikTok è stato un disastro, approvando il 90 percento degli annunci che contenevano informazioni elettorali false e fuorvianti. Facebook è parzialmente efficace: ad esempio, in un test, è stato approvato il 20% degli annunci di disinformazione in inglese e il 50% degli annunci di disinformazione in spagnolo. E YouTube si è fatto avanti, identificando annunci sospetti e sospendendo i canali che li trasportavano.
Tali statistiche, tuttavia, variano in base a dove vengono eseguiti i test, hanno osservato i ricercatori, indicando l’incapacità di Facebook di fermare qualsiasi annuncio di disinformazione elettorale testato in Brasile o su annunci di incitamento all’odio testati in Myanmar, Etiopia e Kenya.
I ricercatori sostengono che le piattaforme di social media devono trattare gli utenti allo stesso modo ovunque si trovino nel mondo e devono applicare le loro politiche in modo efficace.
Chiedono a Meta di fare qualcosa di più che moderare i contenuti relativi alle elezioni, pagare abbastanza personale di moderazione, pubblicare rapporti su come i loro servizi gestiscono i rischi sociali, rendere pubblici tutti i dettagli degli annunci e consentire il controllo degli annunci di terze parti e pubblicare pre – valutazioni del rischio elettorale. ®