La notizia è stata diffusa martedì 7 gennaio: Mark Zuckerberg, l’amministratore delegato di Meta, ha annunciato una serie di modifiche nelle politiche di moderazione dei contenuti sulle piattaforme di social networking gestite da Meta – tra cui Facebook e Instagram –. La più importante riguarda l’abolizione del programma di fact-checking, ossia la verifica dei contenuti pubblicati dagli utenti da parte di specialisti nel controllo della veridicità delle informazioni. Quali le conseguenze di questa scelta? Lo abbiamo chiesto a David Puente, giornalista friulano ora in servizio a Milano, dove è vicedirettore di Open. Puente è uno dei massimi esperti italiani di fact-checking.
—
Qual è il lavoro dei fact-checkers sui social di Meta? Essi appongono un’indicazione nei contenuti che verificano, nella quale si dice: “attenzione, qui c’è un’informazione sbagliata, forviante, falsa”. Questo non impedisce agli utenti di vedere il contenuto o di condividerlo, quindi non si può parlare di censura. Per fare il loro lavoro, i fact-checkers seguono un rigorosissimo codice etico, con principi dettati dall’International fact checking network. Questi professionisti saranno presto sostituiti con degli anonimi, persone qualsiasi tra i tanti utenti, i quali scriveranno una semplice “nota della comunità” accanto ai contenuti che ritengono falsi, esattamente come avviene su X, il vecchio Twitter. Le note della comunità garantiscono l’anonimato: si tratta quindi di persone di cui non sappiamo niente e, comunque, non sono tenute a rispettare un codice etico, dei canoni, delle regole ben precise per garantire una informazione corretta nei confronti degli utenti delle piattaforme digitali.
La prima conseguenza sarà l’aumento del disordine on-line: si prevede un’escalation di diffusione di materiale di disinformazione, perché ora più che mai i disinformatori si sentiranno propensi a diffondere i loro contenuti su una piattaforma dove, prima, venivano in qualche modo segnalati e, contestualmente, i cittadini venivano avvisati. Questi ultimi non avranno più la possibilità di ottenere un’informazione sicura e ben dettagliata riguardo a fatti che creano disordine sociale. Il danno è doppio, ricadendo sia sul piano della democrazia, sia sulla singola persona.
Ci troveremo di fronte a una “verità per alzata di mano”. Se da ora in poi la verità (o comunque la verifica dei fatti) sarà scelta per alzata di mano, sarà più semplice falsare votazioni, incentivare truffe o l’acquisto di prodotti dannosi. Non c’è più una garanzia. E in aggiunta non sappiamo chi c’è dietro, il sistema non sarà più trasparente.
Noi fact-checkers ogni anno siamo oggetto di rivalutazione, revisione, si considerano i nostri contenuti e le nostre attività per dimostrare che agiamo con trasparenza e rigore, compreso il rispetto dei codici e dei principi del giornalismo sano, svolto nella prospettiva del servizio pubblico.
I fact-checkers non hanno nulla a che vedere con la rimozione di contenuti da parte della piattaforma, azione dovuta a “violazioni delle regole della comunità”. Se nel contenuto scritto da un utente viene riscontato qualcosa di anomalo, è l’intelligenza artificiale di Meta che riconosce inizialmente un contenuto scorretto. Sarebbe un gravissimo errore se tutti i contenuti di disinformazione verificati dai fact-checkers venissero cancellati dalle piattaforme, perché l’avviso permette ai lettori di farsi un’idea o addirittura contestare il fact-checking. Senza il contenuto forviante e senza la relativa spiegazione non si può insegnare all’altra persona a porre la giusta attenzione in futuro. Facendo un esempio, se cancellassimo il nazismo dai libri di storia perché è stato un periodo orribile, non impareremo mai dai suoi errori. Quindi li potremmo ripetere. Per questo la censura non fa parte del lavoro dei fact-checkers.
Quello di Meta è, dunque, un cambio di rotta assurdo, a danno dei cittadini che da ora in poi non potranno avere un riscontro veloce e professionale sulle informazioni da parte di chi mantiene una trasparenza e un’integrità.
La scienza non funziona per alzata di mano, in tribunale non c’è la verità per alzata di mano. Risultano i fatti, risultano le prove che dimostrano che cosa è falso e cos’è vero. Il timore è che la disinformazione verrà incrementata ulteriormente e, soprattutto, sarà lasciato campo libero a espressioni d’odio molto pesanti. Persone che prima si sentivano bloccate nella loro violenza adesso saranno molto più animate. È un ulteriore problema, perché il linguaggio di odio non è un elemento di disinformazione e questo non farà altro che creare ulteriore disordine, inquinando ancora di più il dibattito e il rapporto tra le persone.
David Puente, giornalista