Un’inchiesta internazionale rivela l’esistenza di un sistema basato su LLM capace di identificare e segnalare automaticamente contenuti politicamente sensibili. Dati trapelati mostrano un’infrastruttura di controllo sempre più sofisticata, tra DeepSeek, Ernie Bot e dataset mirati al “lavoro sull’opinione pubblica”.
Vediamo nei dettagli.
Indice degli argomenti
Un nuovo volto per la censura: l’intelligenza artificiale
Una denuncia contro la polizia corrotta, una lamentela sulla povertà nelle aree rurali, un commento sull’autonomia di Taiwan o una battuta satirica su un leader politico. Tutto questo può essere oggi intercettato automaticamente da un modello di intelligenza artificiale.
La Cina sta sfruttando modelli linguistici di grandi dimensioni (LLM) per rafforzare la propria macchina censoria, evolvendola da semplice filtro a sistema predittivo e reattivo. Il nuovo obiettivo? Individuare, classificare e neutralizzare ogni forma di dissenso, anche la più sottile. Una fuga di dati analizzata da TechCrunch e Wired ha rivelato l’esistenza di una infrastruttura di censura basata sull’IA, in grado di lavorare su scala, velocità e profondità ben superiori rispetto ai metodi tradizionali.
Il dataset trapelato: 133.000 esempi di “contenuti sensibili”
Il cuore del sistema è un dataset da 300 GB, contenente 133.000 esempi di contenuti che il modello deve imparare a riconoscere e censurare. I dati, trovati in un database Elasticsearch non protetto ospitato su server Baidu, coprono una vasta gamma di fonti: articoli di giornale, post in stile social, dichiarazioni ufficiali, testi narrativi. Il sistema utilizza due set di istruzioni: uno per la rapidità, l’altro per la precisione. Entrambi ruotano attorno a una classificazione gerarchica dove tre categorie hanno la massima priorità (舆情相关 – “public opinion related, massima priorità”):
- Dinamiche Militari (军事动态)
- Dinamiche Sociali (社会动态)
- Dinamiche Politiche (时政动态)
Contenuti su corruzione, classi privilegiate, proteste ambientali, povertà rurale e soprattutto Taiwan vengono trattati con estrema attenzione. La sola parola “Taiwan” appare oltre 15.000 volte nel dataset. Anche l’ironia politica è un bersaglio esplicito: analogie storiche o proverbi come “Quando cade l’albero, le scimmie si disperdono” – vengono segnalati come potenziali forme di critica al potere.
DeepSeek non è libero nemmeno offline
Una delle ipotesi diffuse era che i modelli come DeepSeek, se scaricati e utilizzati localmente, potessero operare senza restrizioni. Ma un’indagine di Wired ha dimostrato il contrario: la censura è incorporata nel modello stesso, già a livello di addestramento. Interrogato localmente, DeepSeek ha dichiarato di “dover evitare di menzionare” eventi come la Rivoluzione Culturale e di concentrarsi solo sugli “aspetti positivi” del Partito Comunista. Alla domanda su Piazza Tiananmen nel 1989, ha risposto: “Non posso rispondere”, mentre non ha avuto problemi a discutere della strage alla Kent State University negli USA. Questo dimostra che l’intelligenza artificiale censurata non è solo un’applicazione esterna, ma un’architettura interna progettata per obbedire.
Controllo dell’opinione pubblica: la strategia del Partito
L’etichetta “per il lavoro sull’opinione pubblica” (舆论工作) presente nel dataset è più di un semplice riferimento operativo: è un indizio centrale che collega questo sistema censoreo al cuore della strategia comunicativa e di controllo del Partito Comunista Cinese (PCC). Il concetto di public opinion work è un pilastro della governance autoritaria cinese, già formalizzato nei documenti interni del Partito dagli anni ’80, ma radicalmente trasformato nell’era digitale. Oggi è il nome in codice di una strategia sistemica per orientare la narrazione pubblica, prevenire il dissenso e neutralizzare le minacce all’immagine del regime, soprattutto online.
Secondo Michael Caster, esperto di diritti digitali e responsabile Asia di Article 19, l’uso del termine è un chiaro segnale: l’infrastruttura AI descritta nel leak sarebbe direttamente collegata alla Cyberspace Administration of China (CAC), l’organo più potente nel controllo dell’informazione digitale in Cina. La CAC, creata ufficialmente nel 2014, è molto più di un regolatore: è una cabina di regia che combina censura, sorveglianza e propaganda. Supervisiona le piattaforme digitali, impone codici di condotta, emette direttive editoriali alle aziende tech e coordina interventi repressivi sui contenuti. È strutturata per essere rapida, silenziosa e letale nel reprimere le narrazioni considerate devianti. Non si tratta soltanto di rimuovere contenuti critici, ma di modellare attivamente il discorso pubblico: rafforzare temi favorevoli al Partito, spingere parole d’ordine, premiare l’autocensura e creare “zone di silenzio” su temi sensibili.
L’intelligenza artificiale, in questo contesto, è l’evoluzione naturale della strategia: consente di passare dal controllo manuale e reattivo a un sistema predittivo e proattivo, in grado di sorvegliare conversazioni su larga scala, cogliere sfumature linguistiche e segnalare anche contenuti allusivi, ironici o metaforici. Il presidente Xi Jinping ha più volte ribadito che Internet è il “fronte principale” della battaglia ideologica e che la sovranità digitale è un aspetto imprescindibile della sicurezza nazionale. In quest’ottica, il “lavoro sull’opinione pubblica” non è una funzione accessoria, ma un’infrastruttura strategica dello Stato cinese.
L’uso di LLM per addestrare la macchina censoria si inserisce dunque in un disegno coerente: non solo controllare cosa viene detto, ma soprattutto chi lo dice, come lo dice, quando e dove.
Implicazioni globali della censura intelligenza artificiale cinese
Il dataset trapelato e le evidenze raccolte da TechCrunch e Wired non sono un’eccezione isolata: fanno parte di un trend globale che vede i regimi autoritari in prima linea nell’adozione dell’intelligenza artificiale come strumento di repressione. La Cina non è solo uno dei paesi leader nello sviluppo di AI generativa è anche tra i primi ad applicarla in modo sistemico per il controllo sociale, come dimostra il caso DeepSeek, il modello Ernie Bot di Baidu e ora questo corpus di addestramento destinato al “lavoro sull’opinione pubblica”. Le implicazioni sono profonde e toccano almeno tre dimensioni. La prima è quella tecnologica, da passiva diventa proattiva. Tradizionalmente, la censura cinese si è basata su blacklist e semplici algoritmi che bloccano parole chiave come “Tiananmen” o “Xi Jinping”. Con l’avvento dei LLM, la repressione diventa più sottile e intelligente: questi modelli sono in grado di riconoscere forme indirette di critica, espressioni idiomatiche, ironie e metafore. Non si tratta più solo di “vedere e rimuovere”, ma di anticipare, categorizzare e indirizzare ogni contenuto, in tempo reale. Alcuni modelli possono anche auto-migliorarsi, apprendendo costantemente da nuove fonti di testo, il che li rende potenzialmente autonomi nel raffinare la propria logica repressiva. La seconda dimensione è eminentemente geopolitica, l’AI diventa terreno di scontro. L’uso strumentale dell’intelligenza artificiale da parte di Stati autoritari solleva interrogativi urgenti sulla governance globale dell’AI. Mentre in Europa si discute di AI Act, negli Stati Uniti si accendono i dibattiti su regolazione ed etica, in paesi come la Cina l’AI è già un’infrastruttura strategica al servizio del potere. La terza dimensione è quella culturale. L’effetto combinato di censura predittiva, disinformazione generativa e monitoraggio capillare porta a un progressivo svuotamento dello spazio pubblico. Le narrazioni alternative vengono silenziate prima ancora di diventare visibili. Gli utenti imparano ad autocensurarsi. L’idea stessa di verità viene corrotta, manipolata, atomizzata.
Il recente report di OpenAI ha evidenziato l’uso di modelli generativi da parte di attori cinesi per monitorare attivisti sui social media, inoltrare contenuti critici al governo e diffamare dissidenti come Cai Xia, figura emblematica dell’opposizione intellettuale in esilio. Come ha spiegato Xiao Qiang, ricercatore a Berkeley: “È fondamentale comprendere come la censura guidata dall’intelligenza artificiale stia evolvendo, rendendo il controllo del discorso pubblico da parte dello Stato sempre più sofisticato e invisibile.” In questo scenario, l’intelligenza artificiale non è neutrale: diventa parte attiva di una battaglia per il controllo delle menti, delle parole e del futuro della libertà di espressione.
Il futuro della censura intelligenza artificiale oltre la Cina
La repressione alimentata dall’intelligenza artificiale non è più fantascienza. Il passaggio da filtri statici a modelli predittivi segna una svolta: la censura diventa capace di prevenire, non solo di reagire, di selezionare i bersagli con precisione chirurgica, di colpire il pensiero prima ancora che venga espresso chiaramente. La questione non riguarda solo la Cina. Riguarda il futuro della governance dell’AI, la responsabilità dei grandi attori tecnologici e la difesa degli spazi democratici globali.