influenze cinesi

Così la Cina manipola i social media con l’AI generativa: il rapporto



Indirizzo copiato

Prende sempre più piede l’utilizzo dell’Intelligenza Artificiale generativa, tra cui l’astroturfing, per condurre operazioni di influenza maligna anche militare. L’analisi della Rand Corporation con un focus particolare sul pericolo Cina

Pubblicato il 21 set 2023



sorveglianza cina

A fine agosto, Meta, proprietaria di Facebook, Instagram e WhatsApp, ha rivelato uno sforzo pluriennale di rimozione di migliaia di account che facevano parte di una campagna di influenza cinese volta a screditare diversi Stati, in particolare gli Stati Uniti. Secondo quanto riferito dalla società fondata da Mark Zuckerberg, si è trattata della più grande operazione di “pulizia” posta in essere da Meta e della settima attività di influenza cinese che l’azienda ha rimosso negli ultimi sei anni.

La manipolazione corre sui social

Un nuovo documento della RAND Corporation, dal titolo “The Rise of Generative AI and the Coming Era of Social Media Manipulation 3.0 – Next-Generation Chinese Astroturfing and Coping with Ubiquitous AI”, esamina questa minaccia reale e crescente, concentrandosi su come Pechino potrebbe utilizzare l’intelligenza artificiale generativa (ad esempio i modelli linguistici di grandi dimensioni come ChatGPT) per condurre le sue operazioni di influenza maligna.

Man mano che i modelli di intelligenza artificiale migliorano nel sembrare umani e nel generare immagini realistiche – e lo fanno su larga scala – i messaggi falsi e ingannevoli provenienti dalla Cina, così come quelli di Russia ed Iran, diventeranno probabilmente più efficaci e più difficili da rilevare, avverte lo studio.

Siamo all’inizio di una nuova era di potenziale manipolazione dei social media“, scrivono gli autori. Sebbene non esistano soluzioni facili, il documento sostiene che ci sono “strategie di mitigazione tecniche, politiche e diplomatiche da considerare”. La cosa più importante, aggiunge il paper, “è che il Governo degli Stati Uniti e la più ampia comunità tecnologica e politica affronti ora in modo proattivo questa minaccia […] Pertanto, suggeriamo fortemente lo sviluppo di una strategia coerente, proattiva e ampia per affrontare questa nuova minaccia”.

Rischio per la sicurezza nazionale: l’uso improprio dell’AI generativa

Per gli autori, il 2022 potrebbe essere ricordato come l’anno dell’intelligenza artificiale generativa (AI). L’anno, in cui i modelli linguistici di grandi dimensioni (LLM), come GPT-3 di OpenAI, e quelli di testo-immagine, come Stable Diffusion, hanno segnato un cambiamento epocale nel potenziale di manipolazione dei social media.

“Gli LLM ottimizzati per la conversazione (come ChatGPT) possono generare contenuti testuali naturalistici e dal suono umano su scala, mentre i modelli text-to-image open-source possono generare immagini fotorealistiche di qualsiasi cosa (reale o immaginaria) e possono farlo su larga scala”.

In particolare, aggiunge il gruppo di esperti, “utilizzando la tecnologia esistente, gli avversari degli Stati Uniti potrebbero costruire un’infrastruttura digitale per produrre contenuti realistici ma inautentici (falsi) che potrebbero alimentare personaggi umani online altrettanto realistici ma inautentici: account su Twitter, Reddit o Facebook che sembrano reali ma sono costrutti sintetici, alimentati dall’AI generativa e che promuovono narrazioni che servono gli interessi di quei governi”.

In questa prospettiva, gli autori sostengono che l’emergere di un’AI generativa onnipresente e potente possa rappresentare una potenziale minaccia per la sicurezza nazionale in termini di rischio di uso improprio da parte di avversari e per questo gli Stati che la pensano allo stesso modo dovrebbero affrontare il problema senza alcun indugio.

Sebbene gli autori si concentrino sulla Cina e sul suo Esercito Popolare di Liberazione (PLA) come esempio illustrativo della potenziale minaccia, una varietà di attori potrebbe utilizzare l’AI generativa per la manipolazione dei social media, compresi soggetti non statali tecnicamente sofisticati (sia nazionali che stranieri). Per gli artefici dello studio, le capacità e le minacce discusse in questa prospettiva sono rilevanti anche per altri attori, come la Russia e l’Iran, che si sono già impegnati nella manipolazione dei social media.

Cos’è l’intelligenza artificiale generativa?

Gli autori definiscono l’Intelligenza Artificiale Generativa “come un termine generico per i modelli di AI che possono produrre media, principalmente basati su messaggi di testo generati dall’utente (Sætra,2023), ma sempre più spesso anche attraverso altri media, come le immagini”.

L’AI generativa, dunque, è un modello avanzato di apprendimento automatico che è a sua volta un tipo di AI molto diffuso. Nel genus di quella generativa, i modelli LLM e quelli testo-immagine sono considerati al momento i più maturi ed utilizzabili. Altri, come gli audio, i video e la musica, potrebbero rapidamente evolversi.

I modelli generativi

Gli LLM e i modelli text-to-image sono particolarmente adatti alla manipolazione dei social media perché è possibile insegnare loro a svolgere compiti specifici, sostengono gli autori. L’intelligenza artificiale generativa, in particolare, “può produrre rapidamente testi e immagini molto convincenti con solo un piccolo sforzo aggiuntivo, sotto forma di ulteriore formazione umana”.

Modelli linguistici di grandi dimensioni

“Gli LLM sono rappresentazioni matematiche degli schemi che si trovano nell’uso del linguaggio naturale e sono in grado di generare testo – rispondere a domande, sostenere una conversazione – facendo inferenze probabilistiche sulla parola successiva in una sequenza, costruendo essenzialmente un linguaggio appropriato al contesto e dal suono molto umano parola per parola”.

Modelli da testo a immagine

“I modelli text-to-image (come Midjourney o DALL-E 2) utilizzano un trucco per creare immagini: il modello è stato addestrato su milioni di immagini etichettate (“un ragazzo che tiene un palloncino rosso”) che vengono rappresentate numericamente e proiettate in uno spazio latente e il modello impara ad aggiungere lentamente rumore finché l’immagine non diventa completamente casuale. Questo processo può essere invertito: utilizzando un prompt di testo, il modello inizia con pixel casuali, rimuovendo lentamente il rumore finché non corrisponde al testo (o al testo più un’immagine) immesso dall’utente. Infine, il modello esegue l’upscaling dell’immagine generata a una qualità migliore, producendo un’immagine sintetica che potrebbe essere difficile da distinguere da una fotografia reale”.

Modelli generativi video e musica

Esistono modelli di intelligenza artificiale generativa per media che vanno oltre il testo e le immagini, come i video e la musica. Secondo il documento della Rand, questi non sono così maturi e accessibili come gli LLM e i text-to-image “e quindi probabilmente non rappresentano la stessa minaccia”. Tuttavia, queste capacità stanno avanzando rapidamente, come ad esempio “l’uso dell’intelligenza artificiale generativa per produrre audio sintetico realistico da un campione vocale di una persona reale combinato con suggerimenti di testo”. Gli autori sostengono che la generazione di intelligenza artificiale audio, video e musicale sarà probabilmente (molto presto) potente e accessibile quanto quella di testo e di immagini. “Il confine tra ciò che è reale e ciò che è sintetico (falso) è già sfumato e presto lo sarà ancora di più”.

La minaccia dell’astroturfing

Come detto, gli artefici dello studio sostengono che l’emergere di un’intelligenza artificiale generativa onnipresente e potente possa rappresentare una potenziale minaccia alla sicurezza nazionale, espandendo e consentendo operazioni di influenza maligna sui social media.

“La confluenza di molteplici tipi di intelligenza artificiale generativa è particolarmente preoccupante perché questi modelli riducono drasticamente il costo della creazione di media non autentici (falsi) di qualità sufficiente a ingannare la dipendenza degli utenti dai propri sensi per decidere cosa è vero nel mondo”.

La manipolazione dei social media può essere suddivisa tra la generazione di contenuti (ad esempio, scrivere propaganda) e la distribuzione di contenuti (ad esempio, convincere le persone a leggere la propaganda). Gli autori evidenziano, in particolare, il rischio dell’intelligenza artificiale generativa perché la generazione di contenuti convincenti e autentici su larga scala è stata finora una delle maggiori sfide nella manipolazione dei social media.

L’Ai generativa, in sostanza, farà sì “che gli account falsi abbiano effetti più ampi con una maggiore portata virale, poiché contenuti che sembrano più autentici creeranno meglio personaggi dinamici e credibili (sintetici)”, aumentando potenzialmente in modo drammatico l’effetto complessivo di una campagna di manipolazione dei social media. In altre parole, “i contenuti di alta qualità sono una condizione necessaria ma non sufficiente per una manipolazione efficace dei social media; richiede inoltre che il contenuto sia risonante e che l’interazione complessiva sia simile a quella umana”.

Ma la preoccupazione maggiore, denuncia il documento, proviene dalle “prospettive di un miglioramento rivoluzionario nell’astroturfing”.

L’astroturfing viene definito dal Technology and Social Change Project di Harvard come “tentativo di creare la falsa percezione del sostegno della base per un problema nascondendo le identità [degli attori] e utilizzando altre pratiche ingannevoli, come nascondere le origini delle informazioni diffuse o gonfiando artificialmente i parametri di coinvolgimento”

Astroturfing, in sostanza, è una pratica che consiste nel far sembrare spontaneo il consenso intorno a un’idea, un messaggio o un movimento (di tipo politico o pubblicitario), mascherando gli sponsor o i soggetti che l’hanno promosso e facendoli passare così per idee o movimenti nati dal basso per favorire gli interessi di individui o organizzazioni.

La pratica può essere vista come una strategia di pubbliche relazioni, come si legge nella definizione del Collins Dictionary, tramite la quale degli individui vengono retribuiti per esprimere il proprio supporto a un prodotto, a una nuova misura politica o a un’idea specifica, facendo apparire tutto ciò come spontaneo e non indotto.

Lo scopo sarebbe manipolare l’opinione pubblica e aumentare la credibilità o migliorare la reputazione di un prodotto, una persona o un’organizzazione, facendo credere che esista un’opinione collettiva favorevole e indipendente nei confronti di questi ultimi senza che essa esista davvero.

Per fare un esempio, in ambito politico questa pratica può essere usata per far credere agli elettori che ci sia un’alta percentuale di persone a favore di una determinata misura politica o simpatizzante per un candidato alle elezioni, cercando di condizionare in questo modo le decisioni di voto.

La strategia in questione, unita alle potenzialità delle tecnologie odierne, può rivelarsi molto potente quando messa in atto da istituzioni particolarmente rilevanti. Un esempio eclatante in tal senso è quello rivelato dalla ricercatrice ed ex giornalista della CNN Rebecca MacKinnon che, nel 2010, ha accusato il governo di Pecchino di aver assunto almeno 280mila persone per lavorare come «commentatori online», promuovendo così conversazioni positive sul governo cinese e manipolando il dibattito all’interno di chat, social network , blog e così via.

In definitiva, il rischio è che l’astroturfing di prossima generazione possa rappresentare una sfida diretta alle società democratiche, se attori maligni fossero in grado di modellare segretamente la comprensione condivisa degli utenti del dibattito politico interno e quindi sovvertire il processo democratico.

“Se l’interferenza elettorale della Russia nel 2016, che ha preso di mira i principali dati demografici e gli stati indecisi, rappresentava la manipolazione dei social media 2.0, allora l’intelligenza artificiale generativa offre il potenziale per colpire l’intero Paese con contenuti su misura nel 2024”, hanno avvertito gli autori.

“A questo rischio si aggiunge il fatto che l’intelligenza artificiale generativa richiede grandi quantità di dati di addestramento per insegnare al modello come funzionare in modo realistico: enormi quantità di testo reale e immagini provenienti dai social media possono servire bene a questo scopo. Stati autoritari come la Cina hanno un’ampia capacità di sorveglianza a livello nazionale e possono avere accesso ai dati provenienti da piattaforme di proprietà cinese (ad esempio TikTok) e quindi probabilmente hanno un accesso più facile ai dati di formazione”.

L’AI generativa nella logica del PCC

Per la Cina, l’intelligenza artificiale generativa offre la possibilità di realizzare le ambizioni di lunga data del Partito di Xi Jinping per svolgere operazioni informative mirate.

È opinione ormai diffusa tra ricercatori indipendenti, piattaforme di social media e Governi di tutto il mondo che il PCC stia conducendo una manipolazione dei social media.

Per la Rand, la Cina ha una crescente capacità tecnica domestica nello sviluppo degli LLM che, formati principalmente su dati in lingua cinese, forniscono al governo di Pechino una solida capacità di manipolazione di tali social su larga scala sia per uso interno che estero.

In particolare, il think tank è certo che Pechino, con il suo vasto ecosistema tecnologico ed il forte sostegno governativo, ha il potenziale per sviluppare modelli di intelligenza artificiale generativa simili a quelli delle aziende statunitensi.

Ad aprile 2023, si ritiene che almeno 30 aziende, università e altri istituti di ricerca cinesi stiano sviluppando modelli di intelligenza artificiale generativa, tra cui grandi aziende tecnologiche come Alibaba, Baidu, Huawei, iFlyTek e SenseTime. Questi modelli includono LLM , come PanGuAlpha di Huawei e ERNIE 3.0 Zeus di Baidu. quest’ultima, ha anche sviluppato un modello da testo a immagine ottimizzato per i prompt in lingua cinese, ERNIE-ViLG 2.0. Nello stesso mese, inoltre, almeno dieci aziende di AI con sede in Cina hanno rilasciato dichiarazioni pubbliche in cui affermavano di essere al lavoro su servizi simili a ChatGPT.

Va anche ricordato che sempre ad aprile, il presidente della Microsoft ha affermato che un istituto affiliato al governo cinese, l’Accademia di Intelligenza Artificiale di Pechino (nota come  BAII), era tra i migliori al mondo, insieme a OpenAI/Microsoft e Google, nello sviluppo dell’AI generativa e qualsiasi vantaggio tecnologico statunitense durerebbe “mesi, non anni”. BAII, in particolare, è stato fondato nel 2018 da Huang Tiejun, vicepreside dell’Istituto per la PKU Intelligenza Artificiale, per integrare neuroscienze, scienze cognitive e scienze dell’informazione al fine di realizzare sistemi di “intelligenza artificiale forte” e di “super-cervello”.

Il Ministero cinese della Scienza e della tecnologia ha descritto tale obiettivo come “rivoluzione trasformativa e dirompente”. Le sue realizzazioni recenti sono la piattaforma di simulazione Shenji e quella “open source di bio-intelligenza”. Il progetto BAAI ha sviluppato anche Wudao 2.0, un Modello di intelligenza artificiale paragonabile a GPT-3, inteso a “consentire alle macchine di pensare come gli umani e di muoversi verso l’AI generale”, “addestrato con FastMoE, un sistema di formazione Fast Mixture-of-Expert (MoE) sviluppato dalla stessa BAAI, su 1,75 trilioni di parametri”. Per comprendere meglio le sue dimensioni, BAAI è strutturato in sei centri di ricerca: l’Health and Bio Computing Research Center, il Big Model Research Center, il Life Simulation Research Center, l’Autonomous Medical Examination Systems Research Center, il Qianfang Research Center for Smart Medical Treatment, il Social Experimental Research Center for Artificial Intelligence, il Research Center for Strategies e l’AI Ethics and Sustainable Development Center.

Come si è detto, il “Piano di sviluppo dell’IA di nuova generazione”, pubblicato nel 2017, e altri proclami ufficiali dichiarano l’intenzione della Cina di guidare il mondo nell’intelligenza artificiale entro il 2030 e ottenere un “first mover advantage” attraverso l’IA per generare un divario sempre più ampio tra Pechino e le nazioni meno capaci. In sostanza, la Cina andrebbe alla ricerca di un software in grado di funzionare in circostanze nuove, con maggiore autonomia ed efficacia, in grado di assomigliare sempre più all’intelligenza umana.

Per gli autori, dunque, “è ragionevole supporre che la RPC, se lo desidera, avrà presto i mezzi tecnici per condurre una manipolazione indigena dei social media 3.0. Indipendentemente da ciò, anche se gli LLM della RPC sono attualmente inferiori alle capacità occidentali, il governo della RPC potrebbe, in quanto attore motivato da stato-nazione, trovare molto probabilmente un modo per sfruttare i modelli di intelligenza artificiale generativa statunitensi, anche se è improbabile che le società occidentali come OpenAI aprono intenzionalmente i loro LLM a operazioni di propaganda affiliate allo stato cinese o russo. In effetti, ChatGPT non è supportato per gli utenti con indirizzi IP (protocollo Internet) nella Cina continentale, ma gli utenti con sede in Cina hanno trovato rapidamente modi per accedere e utilizzare il programma, sebbene il governo della RPC si stia muovendo per bloccare questo accesso. Inoltre, l’LLM di Facebook, LLaMA, è trapelato online pochi giorni dopo essere stato rilasciato a un gruppo limitato di utenti; quindi, ora può essere scaricato e utilizzato da chiunque e sono disponibili molti modelli open source”.

Il potenziale dell’AI generativa per il regime cinese

Per la Rand, l’intelligenza artificiale generativa offre al PCC il potenziale per soddisfare i desideri di lunga data di plasmare il dibattito globale su sé stesso e sulla Cina in modo più ampio. Il segretario generale cinese Xi Jinping ha ribadito questo obiettivo nelle sue osservazioni alla sessione di studio collettivo del Politburo del PCC del maggio 2021 incentrata sul “rafforzamento della capacità di comunicazione internazionale della Cina”. Xi ha anche affermato che la Cina dovrebbe “creare un ambiente favorevole all’opinione pubblica esterna per le riforme, lo sviluppo e la stabilità del Paese”, in parte sviluppando narrazioni propagandistiche più avvincenti ed adattando meglio i contenuti ad un pubblico specifico. Il Segretario del PCC ha anche sottolineato che da quando è salito al potere nel 2012, Pechino ha migliorato il “potere di guida degli sforzi della nostra opinione pubblica internazionale [della Cina]”; tradotto, significa che il PCC intende influenzare e manipolare l’opinione pubblica straniera.

Sul punto, lo studio evidenzia proprio come Xi abbia già scelto l’intelligenza artificiale come un modo per realizzare questi desideri, anche se, precisano gli autori, “sembra che l’apparato di propaganda del Partito-Stato sia ancora in ritardo rispetto alle capacità nazionali complessive degli Stati Uniti in materia di IA generativa”. In una sessione di studio collettiva del Politburo del gennaio 2019, Xi ha esortato i suoi compagni che era necessario studiare l’applicazione dell’AI nella raccolta, nella produzione, nella distribuzione e nel feedback delle notizie per migliorare la capacità di orientare l’opinione pubblica”.

Per questo, si stanno istituendo anche “dipartimenti editoriali di AI, anche se nella pratica “sembra che questo sforzo sia più concentrato sul processo di redazione, ad esempio utilizzando l’apprendimento automatico, i video, come il programma “smart clip” di China Media Group e il processo di produzione (ad esempio, Xinhua utilizza l’apprendimento automatico e le reti generative avversarie per produrre video deepfake di conduttori umani”.

Tuttavia, la Rand tiene a precisare che almeno fino a maggio 2023 il PCC non ha ancora pubblicizzato alcuna capacità di AI generativa e Pechino è stata finora poco incisiva nel ricreare un modello simile a ChatGPT. “La manipolazione cinese dei social media, pertanto, non sembra utilizzare al momento l’AI generativa”.

Anche le Forze Armate cinesi (PLA), il braccio armato del PCC, sono coinvolti nell’influenzare l’opinione pubblica straniera. La PLA, infatti, ha sempre cercato di sfruttare la tecnologia emergente per obiettivi a lungo termine, quali la sicurezza e la sopravvivenza del regime e la strategia militare della guerra dell’informazione (Tre Guerre) che include la guerra dell’opinione pubblica in tempo di pace e di guerra.

Per gli autori, dunque, “l’intelligenza artificiale generativa sarà molto probabilmente parte integrante della prossima generazione di guerra d’informazione militare cinese, nell’ambito di un concetto operativo emergente chiamato operazioni di dominio cognitivo che analogamente cerca di utilizzare i social media per plasmare l’opinione pubblica straniera, con con una maggiore enfasi sulle tecnologie emergenti”

Almeno dal 2005, aggiunge il think tank, i ricercatori della PLA hanno espresso il desiderio di creare ciò che talvolta chiamano con il termine di “informazione sintetica”, cioè la creazione di contenuti non autentici utilizzando una certa quantità di informazioni originali che si intende diffondere in rete per scopi maligni. Numerosi ricercatori della PLA hanno infatti evidenziato il valore delle informazioni sintetiche per una varietà di obiettivi, tra cui i video che imitano la leadership avversaria per per impartire falsi ordini alle truppe, per creare “notizie politiche esplosive” sul governo avversario, per creare contenuti di messaggistica subliminale e, cosa più rilevante, per influenzare on line l’opinione pubblica.

Soprattutto, scrive la Rand, la PLA è interessata ad una versione di AI generativa potenzialmente di grande impatto: l’astroturfing. Secondo un articolo del 2018 dei ricercatori di Base 311, che probabilmente voleva essere una guida alla manipolazione di Facebook, l’approccio consigliato è quello di integrarsi in comunità online preesistenti, partecipare a conversazioni anodine e non politiche e non attirare troppo l’attenzione, per poi (al momento giusto) iniettare le narrazioni politiche desiderate. “Questa tattica è esattamente ciò che temiamo, essendo l’AI generativa particolarmente utile per questo”.

In sostanza, per la PLA l’AI generativa “offre la possibilità di fare qualcosa che non ha mai potuto fare prima: manipolare i social media con contenuti di qualità umana, su larga scala”.

Come punto focale della manipolazione dei social media cinesi all’estero, Taiwan evidenzia bene le potenziali implicazioni di un’eventuale adozione l’AI generativa. Pechino è nota per aver usato i social media per interferire nella politica taiwanese almeno dal 2016. E lo fa non solo attraverso la manipolazione dei social media, ma anche appoggiandosi a figure mediatiche tradizionali e coltivando influencer elettorali attraverso mediatori di potere locali, tra cui bande criminali, gestite dal Dipartimento di lavoro del Fronte Unito del PCC. Le prime notizie di interferenze elettorali cinesi attraverso la manipolazione dei social media contro Taiwan sono emerse nel 2018, quando il governo dell’isola ha accusato la PLA Strategic Support Force (SSF) – l’Organizzazione di Comando che centralizza le missioni e le capacità della guerra strategica, informatica, elettronica e psicologica della PLA – di aver creato falsi account social e di diffondere notizie false per interferire con le elezioni di novembre 2018, come pratica per manipolare le elezioni del 2020 a sostegno di candidati con politiche favorevoli a Pechino.

“Guardando al futuro, i benefici teorici dell’AI generativa potrebbero essere confermati dagli sforzi della RPC contro Taiwan”, avverte quindi la Rand. Con questa forma di AI, infatti, “gli attori maligni della RPC saranno probabilmente in grado di apparire più autentici, semplicemente utilizzando l’intelligenza artificiale generativa immediata per produrre contenuti di testo per i post sui social media”.

Ed infatti, fanno notare i ricercatori, nell’aprile scorso il direttore generale del principale organo di intelligence di Taiwan, l’Ufficio per la sicurezza nazionale, ha avvertito i legislatori taiwanesi che “Stiamo osservando attentamente se [la Cina] utilizzerà nuove applicazioni di intelligenza artificiale generativa per diffondere disinformazione”.

Tale AI, inoltre, “migliorerebbe la propaganda palese, come quella posta in essere dalla China Global Television (un’organizzazione chiave di propaganda all’estero della RPC) e, cosa ancor più importante, renderebbe l’astroturfing più convincente”, prosegue il think tank.

Come mitigare i rischi?

Al momento, le misure di mitigazione prevedibili nel breve termine non sembrano essere all’altezza, denuncia il documento. Cosa propone, quindi, la Rand?

  • Il principio generale dovrebbe essere quello di identificare e rimuovere personaggi (account) non autentici al fine di ripristinarli con quelli veri. Ciò è particolarmente utile per infondere fiducia nella conversazione pubblica sui social.
  • Non bisogna disperarsi. L’avvento dell’intelligenza artificiale generativa non significa che la manipolazione dei social sia per sempre impossibile da contrastare.
  • Investire in tecnologie difensive in grado di rilevare contenuti non autentici su larga scala o in quelle di watermarking per verificare la fonte dei contenuti.
  • Operare anche sul versante della distribuzione dei contenuti. Con i miglioramenti offerti dall’AI generativa per la creazione di contenuti, la loro distribuzione (in particolare gli account non autentici) potrebbe essere il nuovo fattore limitante per la manipolazione. Le piattaforme dovrebbero, quindi, raddoppiare i loro sforzi per rendere più difficile l’apertura di nuovi account da parte di attori maligni e per identificare e rimuovere gli account non autentici.
  • Rafforzare la fiducia del pubblico nei contenuti autentici. Un sistema blockchain per i media, che agisca come una sorta di catena pubblica di custodia e autenticità, potrebbe aiutare a creare la certezza che un’immagine o un documento sia autentico e provenga nel luogo e nel momento affermato. Ciò renderebbe visibili le alterazioni dei documenti o delle immagini e potrebbe evidenziare quelli non autentici come privi di una discendenza verificabile ed affidabile. Allo stesso modo, i sistemi di reputazione giornalistica tramite blockchain possono offrire al pubblico un modo per verificare rapidamente fonti affidabili.
  • Limitare l’adozione dell’AI da parte di attori maligni, attraverso il controllo dell’hardware sottostante utilizzato per addestrare i modelli attuali e futuri di generazione del linguaggio.
  • Attuare politiche pubbliche di mitigazione. Regolamentare le piattaforme per creare norme di trasparenza, responsabilità pubblica e accesso per i ricercatori. Serve una politica di regolamentazione che definisca le minacce e le responsabilità delle piattaforme, tutelando al tempo stesso le libertà civili. Questo deve essere considerato il primo passo verso la riduzione della vulnerabilità delle piattaforme come vettori di trasmissione della manipolazione.
  • Un altro intervento politico potenzialmente potente (ma ritenuto complicato) richiederebbe alle piattaforme di verificare l’identità degli utenti dietro gli account, creando uno standard uniforme per le piattaforme di social.
  • Attuare una politica di sicurezza nazionale rivolta all’esterno. I governi devono essere preparati ad operare in un ambiente di informazione conteso in cui la propaganda con l’uso dell’IA generativa la rende onnipresente. Sono necessarie, quindi, formazione ed istruzione attraverso anche l’uso ambienti di formazione simulati ed infrastrutture di supporto. Vanno condotte ricerche approfondite, informando i settori statali competenti in materia di sicurezza nazionale. Dato che l’individuazione di contenuti di IA generativa è molto impegnativa, anche l’attribuzione pubblica sarà altrettanto. La comunità politica, quindi, dovrebbe discutere subito sugli “standard per l’attribuzione” e considerare come come sostenere l’attribuzione pubblica degli attori maligni. Un altro un altro passo è quello di sensibilizzare l’opinione pubblica sulla minaccia dell’IA generativa, espandendo gli sforzi di educazione pubblica e di alfabetizzazione mediatica.

Le mitigazioni diplomatiche

Si potrebbe anche prendere in considerazione l’avvio di un dialogo con la Cina sul tema dell’intelligenza artificiale generativa e sui rischi della manipolazione dei social media. Sebbene qualsiasi dialogo sia impegnativo, date le tensioni in corso, i dialoghi possono contribuire a facilitare almeno una parte del dialogo tra le comunità politiche e di ricerca. I governi potrebbero anche fare una dichiarazione pubblica sui principi per l’utilizzo di questa capacità emergente, come quella del febbraio 2023 del Dipartimento di Stato americano sull’”uso militare responsabile dell’intelligenza artificiale”.

È necessario che i governi inizino a monitorare l’impiego da parte della Cina di contenuti generati dall’intelligenza artificiale come indicatore delle intenzioni del regime di Pechino e del progresso tecnologico. Un’attenzione particolare dovrebbe essere prestata agli sforzi cinesi contro Taiwan, che storicamente è stato il banco di prova di Pechino per la guerra dell’informazione, compresa la manipolazione dei social media. A livello multilaterale, Stati dovrebbero iniziare a dialogare tra loro (in particolare con Taiwan) su questi rischi emergenti, sull’evidenza dell’occupazione cinese e sulle potenziali contromisure. Anche se il primo obiettivo sarebbe la sensibilizzazione e la condivisione delle informazioni, in particolare sull’impiego cinese dell’intelligenza artificiale generativa, il raggiungimento del consenso sulle norme di comportamento e la cooperazione sulle contromisure sarebbero buoni obiettivi a medio e lungo termine. Tali conversazioni possono essere inserite in dialoghi bilaterali comuni 2+2 sulla diplomazia e sulla difesa o in forum multilaterali, come per gli USA il Global Cooperazione e il Quadro di formazione, che fornisce a Taiwan una piattaforma per mostrare la propria esperienza sull’argomento.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati