Facebook e Instagram potrebbero subire cambiamenti significativi senza il fact-checking: quali sono i rischi per gli utenti. Mark Zuckerberg ha annunciato l’abbandono del sistema di moderazione e fact-checking che si avvaleva di organizzazioni esterne specializzate nell’identificazione di contenuti pericolosi, violenti o fuorvianti. Da ora in poi, su Instagram, Facebook e Threads, saranno solo gli utenti a segnalare post, video e reel.
Facebook e Instagram, i rischi senza il fact-checking
Meta eliminerà i fact-checker, “ridurrà drasticamente la censura” e promuoverà “più contenuti politici su Instagram, Facebook e Threads“, ha dichiarato Mark Zuckerberg. Tuttavia, dietro a queste affermazioni che celebrano la libertà di espressione si cela una decisione politica che potrebbe trasformare radicalmente i social network che utilizziamo ogni giorno. È importante notare che le piattaforme hanno sempre avuto difficoltà a moderare i contenuti presenti sui loro spazi.
È complicato contrastare la polarizzazione, individuare contenuti violenti, distinguere le notizie false, ostacolare la diffusione di gruppi estremisti sulle piattaforme e tutelare le minoranze da commenti offensivi. Meta, rimuovendo completamente il controllo dei fact checker professionisti e delegando la moderazione agli utenti, rischia di aggravare la situazione. Possiamo già anticipare le possibili ripercussioni per gli utenti di Instagram, Facebook e Threads. Parafrasando Antoine de Saint-Exupéry, se desideri comprendere il presente, è fondamentale analizzare il passato.
In effetti, la prospettiva più plausibile è che le piattaforme di Meta seguano il percorso di declino di X. Dopo l’acquisizione da parte di Musk, il social ha iniziato a essere moderato tramite le community notes, un sistema che Zuckerberg ha annunciato di voler adottare, citando X come esempio. In breve tempo, la piattaforma si è trasformata in un terreno fertile per la propaganda elettorale e meme di cattivo gusto, diventando un rifugio per estremisti, misogini e razzisti. X è diventato una trappola che inghiotte contenuti autentici e rigetta disinformazione e violenza.
Meta ha evidenziato che i contenuti pericolosi riguardanti suicidio, autolesionismo o disturbi alimentari saranno comunque considerati “violazioni di elevata gravità” e che continuerà a impiegare sistemi automatizzati per identificare tali contenuti. Tuttavia, i meccanismi di protezione potrebbero non essere sufficienti, e il caso X offre un’altra prospettiva.
Cosa implica l’abolizione del fact-checking e come operano le community notes
Per anni, Meta ha collaborato con organizzazioni esterne come Associated Press, ABC News e International Fact-Checking Network per valutare i post potenzialmente falsi o ingannevoli su Facebook e Instagram e decidere se rimuoverli. Con il nuovo sistema, saranno gli utenti a segnalare i contenuti. Le community notes, infatti, rappresentano un programma di moderazione gestito dalla comunità, volto a combattere la propaganda e la disinformazione.
L’idea delle “community notes” è emersa per la prima volta su Twitter nel 2019, quando un team di sviluppatori dell’azienda ha concepito un modello di crowdsourcing per la moderazione dei contenuti. Nel gennaio 2021, la società ha avviato un programma pilota per questa funzione, denominata “Birdwatch”. Su X, le note della community sono diventate uno strumento di crowdsourcing che consente agli utenti di moderare i contenuti in autonomia, senza un controllo diretto da parte dell’azienda. Un gruppo selezionato di utenti, registrati come “collaboratori”, ha la possibilità di aggiungere note a qualsiasi post che ritiene fuorviante o errato, mentre altri collaboratori possono valutare l’utilità di tali note.
Cosa cambierà per gli utenti di Instagram e Facebook
Le community notes hanno trasformato X in un ambiente caotico, e le nuove politiche di Meta hanno suscitato preoccupazioni. Chris Morris, amministratore delegato dell’organizzazione di fact-checking Full Fact, sostenuta da Meta per verificare i contenuti su Facebook, ha dichiarato che l’annuncio rappresenta “un passo indietro che potrebbe avere un impatto paralizzante a livello globale”. Ha aggiunto che i fact-checker della sua organizzazione hanno sempre esaminato i contenuti “di tutte le posizioni politiche con la stessa attenzione”.
Global Witness, un gruppo per la difesa dei diritti umani, ha affermato: “L’annuncio di Zuckerberg è un evidente tentativo di conquistare la nuova amministrazione Trump. Questi cambiamenti renderanno i social media più pericolosi per donne, persone LGBTQ+, persone di colore, scienziati e attivisti, categorie già soggette a molestie e attacchi sproporzionati”. Il Centre for Information Resilience, un’organizzazione dedicata al monitoraggio dell’incitamento all’odio e della disinformazione online, ha affermato che le community notes rappresenteranno un “significativo passo indietro nella moderazione dei contenuti, proprio quando la disinformazione e i contenuti nocivi stanno evolvendo a un ritmo senza precedenti”.