Facebook utilizza l’intelligenza artificiale per arginare post pericolosi e falsi
Facebook è stato oggetto di critiche feroci lo scorso anno da parte di persone che affermano che l’azienda non sta facendo abbastanza per arginare l’incitamento all’odio, le molestie online e la diffusione di notizie false.
Per essere onesti, il compito di controllare le attività di 1,62 miliardi di utenti giornalieri che generano 4 petabyte di dati, comprese 350 milioni di foto, al giorno non è un compito da poco. Non è facile essere la piattaforma social più grande del mondo.
Tuttavia, la società è stata criticata per aver consentito a decine di gruppi alimentati dall’odio di diffondere post offensivi e minacciosi e per aver consentito a gruppi di teoria della cospirazione di estrema destra come QAnon di diffondere liberamente false accuse politiche. Le analisi accademiche e governative delle elezioni presidenziali del 2016 hanno rivelato prove di massicce interferenze da parte di attori nazionali e stranieri, e sembra che sforzi simili siano stati intrapresi anche nelle elezioni del 2020.
Facebook impiega 15.000 moderatori di contenuti per esaminare le segnalazioni di comportamenti scorretti che vanno dal sotterfugio politico alle molestie, alle minacce terroristiche allo sfruttamento dei minori. In genere hanno affrontato le segnalazioni in ordine cronologico, spesso consentendo alle accuse più gravi di rimanere irrisolte per giorni mentre le questioni minori venivano riviste.
Venerdì, Facebook ha annunciato che introdurrà l’apprendimento automatico nel processo di moderazione. Utilizzerà algoritmi per rilevare i problemi più gravi e assegnarli a moderatori umani. I moderatori del software continueranno a gestire gli abusi di livello inferiore come la violazione del copyright e lo spam.
Facebook afferma che valuterà i post problematici secondo tre criteri: viralità, gravità e probabilità che violino le regole. Un post intriso di oscenità che minaccia la violenza sul luogo di disordini razziali, ad esempio, avrebbe la massima priorità, rimosso automaticamente dalla macchina o assegnato a un moderatore per una valutazione e un’azione immediata.
“Tutte le violazioni dei contenuti … ricevono ancora una sostanziale revisione umana”, ha affermato Ryan Barnes, un product manager del team di integrità della comunità di Facebook. “Utilizzeremo questo sistema per dare priorità ai contenuti. Prevediamo di utilizzare una maggiore automazione quando la violazione dei contenuti è meno grave, soprattutto se il contenuto non è virale o viene … rapidamente condiviso da un gran numero di persone”.
Facebook è stato accusato di aver gestito male gli account durante i recenti disordini di alto profilo. In un caso, la compagnia è stata citata in giudizio per sparatorie mortali da parte di vigilantes scesi a Kenosha, nel Wisconsin, a seguito di proteste contro agenti di polizia che hanno ferito gravemente un uomo di colore dopo aver sparato quattro colpi alla schiena durante un arresto. La causa sostiene che Facebook non sia riuscito a rimuovere le pagine dei gruppi di odio coinvolti nelle sparatorie dei vigilanti.
Durante la pandemia dello scorso anno, uno studio di un’organizzazione senza scopo di lucro ha rilevato 3,8 miliardi di visualizzazioni su Facebook di contenuti fuorvianti relativi a COVID-19.
A volte, le critiche vengono mosse da moderatori di Facebook eccessivamente cauti. Lo scorso giugno, il quotidiano The Guardian si è lamentato del fatto che i lettori che tentavano di far circolare una foto storica da esso pubblicata sono stati bloccati e hanno emesso avvisi da parte di Facebook. L’immagine di uomini aborigeni quasi nudi in catene nell’Australia occidentale, scattata nel 1890, è stata pubblicata in risposta a una negazione da parte del primo ministro australiano Scott Morrison che il suo paese non è mai stato schiavo. Morrison ha ritirato i suoi commenti dopo la pubblicazione dell’articolo e della foto. Facebook successivamente si è scusato per aver classificato erroneamente la foto come nudità inappropriata.
I funzionari di Facebook affermano che l’applicazione del machine learning fa parte di uno sforzo continuo per fermare la diffusione di informazioni pericolose, offensive e fuorvianti, garantendo al contempo che i post legittimi non vengano censurati.
Un esempio delle sfide che Facebook deve affrontare è stata la creazione virtuale durante la notte di un enorme gruppo di protesta che ha contestato il conteggio delle elezioni del 2020. Un gruppo di Facebook che chiedeva un riconteggio ha raccolto 400.000 membri in pochi giorni. Facebook non ha bloccato la pagina.
Sebbene non vi sia nulla di illegale nel richiedere un riconteggio, un’ondata di disinformazione riguardo a presunti abusi di voto – accuse che sono state categoricamente respinte dai funzionari di tutti i 50 stati e dai repubblicani e dai democratici la scorsa settimana – è un preoccupante promemoria del potenziale di false informazioni per plasmare le opinioni politiche.
“Il sistema prevede di sposare l’intelligenza artificiale e i revisori umani per fare meno errori totali”, ha affermato Chris Palow, membro del team di Facebook per l’Integrity. “L’intelligenza artificiale non sarà mai perfetta.”
by