Nel 2025, i social media sono il principale spazio di dibattito pubblico, ma anche un terreno minato per chi esprime opinioni non allineate. La censura algoritmica, definita come l’uso di Intelligenza Artificiale e algoritmi per moderare contenuti, ha raggiunto un livello di sofisticazione senza precedenti, penalizzando post e utenti attraverso meccanismi spesso opachi.
Dallo shadow banning alle rimozioni automatiche, queste pratiche, giustificate come misure contro disinformazione e discorsi d’odio, sollevano preoccupazioni sulla trasparenza e la libertà di espressione. Questo articolo analizza le nuove forme di censura algoritmica, per chiarire cosa comporta per utenti e piattaforme.
L’evoluzione della censura algoritmica
La censura sui social media è passata da interventi manuali a sistemi automatizzati. Negli anni 2000, la moderazione era gestita da team umani che rimuovevano contenuti espliciti. Oggi, algoritmi di intelligenza artificiale analizzano testi, immagini e video in tempo reale, decidendo cosa amplificare o sopprimere. Uno studio del 2024 pubblicato su Philosophy & Technology evidenzia che l’automazione consente alle piattaforme di monitorare ogni comunicazione, rendendo la censura più pervasiva e scalabile.
Le piattaforme giustificano queste pratiche come necessarie per contrastare contenuti dannosi, come la disinformazione sanitaria o l’incitamento alla violenza. Tuttavia, la natura opaca degli algoritmi rende difficile comprendere i criteri di moderazione. Ad esempio, un rapporto del Knight First Amendment Institute del 2023 ha rilevato che gli algoritmi di Facebook e Twitter (ora X) favoriscono contenuti divisivi per massimizzare l’engagement, ma penalizzano opinioni politiche minoritarie senza notifiche agli utenti.
Shadow banning: la censura invisibile
Lo shadow banning, ovvero la riduzione deliberata della visibilità di un contenuto o account senza avvisare l’utente, è una delle pratiche più controverse. Uno studio del 2024 su arXiv ha analizzato 13 milioni di tweet relativi al conflitto in Ucraina, rilevando variazioni significative nella visibilità correlate a posizioni politiche degli autori. I risultati suggeriscono che gli algoritmi di X penalizzano contenuti percepiti come polarizzanti, senza trasparenza sui criteri applicati.
Alcune piattaforme, tra cui X, hanno recentemente aggiornato i termini di servizio ammettendo l’uso di tecniche di limitazione della visibilità e alimentando così dibattiti sulla loro legittimità. Nel 2022, il Washington Post ha riportato che meccanismi interni di Facebook e Twitter sopprimevano contenuti senza notifica, una pratica che Elon Musk ha denunciato come censura ideologica. Questi interventi, giustificati come misure di sicurezza, possono tuttavia silenziare voci dissenzienti, limitando il pluralismo.
Cosa non puoi più dire: i contenuti a rischio
I contenuti penalizzati variano in base a piattaforme e contesti geopolitici, ma alcune categorie emergono come particolarmente sensibili.
Disinformazione sanitaria
Durante e dopo la pandemia di Covid-19, post che mettono in dubbio vaccini o linee guida sanitarie ufficiali sono stati sistematicamente declassati. Uno studio del 2024 su PMC sottolinea che le piattaforme adottano algoritmi per identificare informazioni sanitarie non allineate a fonti ufficiali, ma ciò può portare a errori, come la rimozione di contenuti scientificamente validi ma non mainstream.
Contenuti politici polarizzanti
Negli Stati Uniti, un’indagine del Pew Research Center del 2022 ha rilevato che il 60% dei repubblicani ritiene che i social media censurino opinioni conservatrici, rispetto al 28% dei democratici. Gli algoritmi, secondo il rapporto, penalizzano contenuti che generano conflitti ideologici, indipendentemente dalla loro veridicità.
Critiche a regimi autoritari
In Asia, la censura si estende oltre i confini nazionali. Un rapporto del National Bureau of Asian Research del 2020 ha documentato come Facebook e YouTube abbiano rimosso commenti critici verso il Partito Comunista cinese anche fuori dalla Cina, sotto pressione economica o normativa.
Queste categorie riflettono un equilibrio precario tra moderazione e libertà di espressione, con algoritmi che spesso amplificano bias culturali o politici.
Il ruolo delle regolamentazioni e le critiche
Le autorità stanno cercando di regolamentare la censura algoritmica. In Europa, il Digital Services Act (DSA), entrato in vigore nel 2023, impone alle piattaforme di monitorare contenuti illegali e disinformazione, con obblighi di trasparenza sugli algoritmi. Tuttavia, un post su X del 2025 ha criticato il DSA come un sistema che consente all’UE di decidere cosa i cittadini possano dire, evidenziando tensioni tra regolamentazione e libertà.
Le critiche si concentrano anche sulle piattaforme stesse. Secondo un’analisi del 2020 pubblicata su Big Data & Society, l’automazione della moderazione rischia di codificare pregiudizi umani, come dimostrato da casi in cui contenuti di utenti neri sono stati erroneamente rimossi con il giustificante “discorso d’odio”. Come evidenziato da un’indagine del Pew Research Center, la mancanza di diversità nei team che sviluppano questi algoritmi è un fattore aggravante-
Verso una trasparenza maggiore?
Le pressioni per una maggiore trasparenza stanno crescendo. Attivisti e ricercatori chiedono che le piattaforme rendano pubblici i dati sugli algoritmi per consentire analisi indipendenti. In risposta, nel 2023, Twitter/X ha reso open-source parte del suo algoritmo, rivelando che privilegia contenuti che generano retweet e risposte, spesso polarizzanti. Le piattaforme restano comunque riluttanti a divulgare dettagli completi, citando rischi per la sicurezza e la proprietà intellettuale.
Le soluzioni proposte includono l’outsourcing della moderazione a terze parti indipendenti, e l’adozione di sistemi di qualità umana per bilanciare l’automazione. Senza tali misure, il rischio è che la censura algoritmica continui a modellare il discorso pubblico con modalità poco trasparenti.
Il Team di Controsenso è specializzato nella creazione di contenuti web di qualità, pensati per aumentare la tua visibilità online. Hai bisogno di articoli per il tuo blog o di spazi digitali dove promuovere i tuoi progetti?
Contattaci subito: puoi scriverci usando il form o su WhatsApp al +39 340 56 52 043.