intelligenza artificiale

Dalla voce clonata ai siti contraffatti: i danni della disinformazione IA



Indirizzo copiato

Tecniche di deepfake applicate a audio e immagini, siti in grado di elaborare e pubblicare autonomamente notizie false e di parte, media “sintetici”: l’intelligenza artificiale sfuma sempre più il confine tra vero e falso e diventa arma strategica di propaganda per gli Stati

Pubblicato il 30 apr 2024

Gaia D'Ariano

Hermes Bay Security & OSINT Analyst

Laura Teodonno

Senior Analyst di Hermes Bay S.r.l.

Alessia Tommei

Hermes Bay Srl Junior OSINT Analyst



disinformazione, fake news

Si moltiplicano gli utilizzi dell’intelligenza artificiale per fare contenuti di disinformazione, per motivi di propaganda politica – da parte di attori come Russia e Cina – oppure anche per banali interessi economici-pubblicitari.

Disinformazione amplificata dall’IA: lo studio dell’Università di Melbourne

La minaccia della disinformazione, oggi impiegata quale arma di manipolazione per controllare gli equilibri sociali, economici e politici di un sistema Paese, acquisisce infatti una potenza ancora più estesa in logica degli sviluppi dei nuovi sistemi di intelligenza artificiali, tra cui GPT-4, ChatGPT e Claude e dei nuovi modelli di LLM open-source come LLaMA-2, ChatGLM2 e Vicuna, in grado di generare rapidamente contenuti multimediali quali testi, immagini, audio e video e di diverso genere.

Uno studio condotto da un gruppo di ricercatori dell’Università di Melbourne e pubblicato a settembre 2023, ha analizzato le misure di salvaguardia e i modelli di risposta implementati su alcuni dei principali LLM commerciali.

Lo scopo è stato comprendere il comportamento del modello davanti a richieste ritenute dannose per la sicurezza. Al fine di identificare e mitigare i rischi generati dagli LLM, i ricercatori hanno quindi costruito un dataset di richieste “malevoli” e contemporaneamente hanno implementato un meccanismo di sicurezza volto a limitare il comportamento del modello a un sottoinsieme “sicuro” attraverso l’allineamento a modelli con valori predefiniti.

Il set di dati era stato impostato in modo che i modelli non fornissero risposte a determinati input, tuttavia le AI hanno bypassato i meccanismi di sicurezza. Per organizzare le richieste, i ricercatori hanno costruito una tassonomia organizzata su una gerarchia a tre livelli, che andava da rischi lievi a rischi estremi. I rischi sono stati poi categorizzati in cinque aree diverse:

  • pericoli legati all’informazione: i rischi di questo tipo derivano dal fatto che gli LLM producono enunciati che costituiscono informazioni private o che sono critiche per la sicurezza. Le stesse sono presenti nei dati di addestramento o possono essere dedotte da questi ultimi;
  • usi dannosi: rischi derivanti dall’impiego volontario degli LLM per causare danni.
  • discriminazione, esclusione e nocività: derivanti dal fatto che l’LLM riflette accuratamente un linguaggio naturale. Le richieste non dovrebbero essere prese in considerazione con l’intento di denigrare, stereotipare o propagare pregiudizi contro individui o gruppi specifici o con contenuti offensivi.
  • danni da disinformazione: generati dall’alta probabilità di risposta da parte del LLM fornendo informazioni false, fuorvianti, insensate o di scarsa qualità.
  • danni da interazione uomo-macchina: tali rischi derivano da applicazioni LLM come le chatbot, che coinvolgono direttamente l’utente attraverso la modalità di conversazione. Il modello non dovrebbe rispondere alle query che riflettono i problemi di salute mentale di un utente e alle richieste di informazioni personali.

Ad ognuna di queste categorie sono state assegnate almeno dieci istruzioni da fornire alle AI. L’esperimento è stato condotto ponendo ai diversi modelli le query identificate come rischiose tramite la tassonomia sopra descritta. Benché in taluni casi ci si aspettasse diversamente, tutti i cinque LLM testati hanno fornito risposte alle domande poste, per un totale di oltre 5000 risultati: LLaMA-2 si è rivelato il modello migliore nel non seguire istruzioni rischiose, fornendo solo tre risposte potenzialmente dannose per l’utente; ChatGPT si è posizionato al secondo posto con 14 risposte dannose, seguito da Claude, GPT-4 e Vicuna, mentre ChatGLM2 è risultato all’ultimo posto. (https://arxiv.org/pdf/2308.13387.pdf )

Se si considera, inoltre, che attraverso un attacco di tipo Prompt Injection, che prevede l’inserimento di istruzioni malevoli nei prompt, è possibile manipolare le risposte di un LLM i dati sinora considerati non possono che essere allarmanti.

Fare interi siti artificiali costa pochissimo

A rendere ancora più performanti tali tecnologie sono i costi irrisori che consentono di sviluppare nuove “armi” di disinformazione rapidamente e da chiunque.

Anche a solo scopo di guadagnare dalla pubblicità presente sui siti creati con l’IA.

Ne è esemplificativo l’esperimento condotto da Jack Brewster, Enterprise Editor di NewsGuard, sistema di monitoraggio sull’affidabilità dell’informazione creato nel 2018 dall’imprenditore Steven Brill e dall’ex editore del Wall Street Journal Gordon Crovitz. Brewster ha ingaggiato uno sviluppatore freelance del marketplace globale online Fiverr per creare un sito, “Buckeye State Press”, in grado di elaborare e pubblicare autonomamente notizie false e di parte, utilizzando l’intelligenza artificiale.

Costo dell’operazione 105 dollari una tantum, più pochi euro al mese per l’uso di ChatGpt con una tariffa a volume (variabile a seconda del numero di articoli prodotti).

Così dopo solo due giorni il sito, il quale si presentava come un comune giornale dell’Ohio, è stato in grado di pubblicare articoli, in automatico, di supporto allo sfidante repubblicano in corsa, Bernie Moreno e, successivamente, contenuti di sostegno al democratico in carica, Sherrod Brown.

NewsGuard rileva che ci sono ormai decine di migliaia di siti spam creati in questo modo, per guadagnare con la pubblicità oppure per fare propaganda politica.

Una scoperta allarmante non solo perché il 2024 è un anno ricco di eventi elettorali ma perché porta a chiedersi se le moderne società siano al passo con il rapido tasso di diffusione dell’uso improprio dell’AI e se siano state adottate le opportune misure di contrasto, soprattutto in considerazione che Paesi come la Cina, Taiwan e la Russia, già molto attivi nell’information warfare, intensificheranno e amplieranno le information operations sfruttando gli LLM per la creazioni di contenuti di diversa tipologia.

L’audio deepfake: una nuova arma di disinformazione

Una forma di tecnologia AI è l’audio deepfake, detta anche “voice cloning”.

Slovacchia

Le elezioni slovacche del settembre 2023 offrono un esempio di impiego di tale prodotto: 48 ore prima dell’apertura delle urne è stata pubblicata una registrazione audio nella quale venivano riprodotte le voci di Michal Šimečka, leader del partito liberale Progressista Slovacchia, e Monika Tódová, giornalista del quotidiano slovacco Denník N. Nell’audio i due discutevano su come manipolare le elezioni, in parte comprando voti dalla minoranza rom emarginata del paese. Analizzato dal Dipartimento di verifica dei fatti dell’agenzia di stampa AFP il contenuto multimedia è risultato contenere tracce di manipolazione attraverso l’intelligenza artificiale.

Regno Unito

Dopo circa un mese, nel Regno Unito, viene pubblicato su X un audio deepfake del leader laburista Keir Stramer che insultava i collaboratori. Il tutto diffuso non solo durante una conferenza del partito ma proprio quando Stramer aveva iniziato a preparare la campagna elettorale per il voto politico previsto in Inghilterra fra la fine del 2024 e le prime settimane del 2025.

Francia

Analogo caso di disinformazione tramite IA, è stato riportato nel febbraio 2024 dal canale televisivo francese “FRANCE24”. In particolare, il canale televisivo è stato vittima di un deepfake, il quale simulava la voce del presentatore affermare falsamente che il Presidente Emmanuel Macron avesse rinviato un viaggio in Ucraina per timore di un complotto. Il canale di propaganda filorusso Pravda.fr, che originariamente condivideva il deepfake, ha risposto insistendo sul fatto che l’affermazione su Macron fosse, in realtà, veritiera.

Il fenomeno del ‘face swapping’: manipolazione dell’immagine attraverso l’AI

In ambito deepfake sono, inoltre, particolarmente diffuse le app di “face swapping”, utilizzate per creare immagini completamente sintetiche, manipolate dall’intelligenza artificiale e in grado di scambiare l’aspetto di un individuo con quello di qualcun altro.

Francia

Nel marzo 2024, tale strumento è stato usato contro il presidente francese Emmanuel Macron.

E’ stata pubblicata una foto mentre indossava un pigiama rosa seduto su un letto. L’immagine, condivisa su Facebook, è stata percepita dagli utenti della piattaforma come reale, generando interazioni, ricondivisioni e commenti. Allo stesso tempo, un utente del sito di intrattenimento “Reddit” ha pubblicato altre foto alterate da IA di alcuni leader mondiali, avvalendosi del software Midjourney. Tuttavia, tale tecnologia non riesce ancora a rendere reali alcuni dettagli umani, come la forma delle mani e la loro posizione innaturale.

Video deepfake: la Russia

Nel 2023 la Russia ha spostato i suoi sforzi profusi nella guerra delle informazioni dai media ufficiali ai social media, sfruttando Telegram, TikTok, di proprietà cinese, e X. Nell’ambito della spinta propagandistica di Mosca per dipingere l’Ucraina come irrimediabilmente corrotta, ad esempio, sono stati creati su TikTok oltre 12.800 account falsi, i quali hanno pubblicato video e immagini di auto di lusso, gioielli e ville, riportando che fossero stati tutti acquistati da funzionari ucraini con gli aiuti dell’Occidente. Successivamente, analizzati i contenuti, in realtà molte delle foto pubblicate erano state riprese da siti web immobiliari.

Tra i video, invece, si mostrava una protesta in Ucraina, la quale si sosteneva fosse contro la guerra e contro il presidente Volodymyr Zelensky, quando in realtà la folla esortava il governo locale a tagliare le spese per le infrastrutture e a spendere i soldi in armi. In considerazione di ciò, anche se la campagna non è stata estremamente sofisticata dal punto di vista del controllo dei fatti, l’impiego degli account TikTok ha permesso di raccogliere centinaia di milioni di visualizzazioni e di consensi per il Cremlino.

Per diffondere i propri contenuti di disinformazione, la Russia ha inoltre creato dei cloni di siti di notizie europei legittimi, dotati di indirizzi Internet e grafiche simili ma riportanti articoli falsi, che troll e bot filorussi hanno poi promosso sui social media, come è stato dopo l’attentato al teatro moscovita nel marzo 2024. Si è trattato di un esempio di “Coordinated Inauthentic Behaviour”, una tattica di manipolazione dei flussi su un social network per far diventare di tendenza dei contenuti falsi. L’intelligence russa – sia il Gru che l’Fsb – hanno già impiegato ampiamente tale strategia per spingere le proprie narrazioni strategiche sulla guerra in Ucraina, così come nelle elezioni americane e di altri Paesi occidentali. Nel caso in esame, gli utenti italiani di X hanno condiviso contenuti creati da bot, che ripubblicavano a loro volta dei tweet per incolpare l’Ucraina dell’attentato. Non è stata la prima volta che l’intelligence russa ha impiegato tale strategia per dare risalto alle proprie narrazioni sulla guerra in Ucraina, così come nelle elezioni americane e di altri Paesi occidentali.

La disinformazione cinese durante le elezioni a Taiwan

Campagne di disinformazione attraverso i media sono state condotte in particolare da attori di minaccia legati alla Cina. Le tattiche mirano direttamente all’uso di strumenti di intelligenza artificiale generativa e a un’operazione segreta di influenza online sponsorizzata dallo stato rivolta agli elettori negli Stati Uniti, a Taiwan e ulteriori elettori stranieri. Lo scorso autunno il Dipartimento di Stato degli Stati Uniti ha accusato il governo cinese di spendere miliardi di dollari all’anno in una campagna globale di disinformazione. Un nuovo rapporto dell’Institute for Strategic Dialogue, un’organizzazione di ricerca con sede a Londra, ha identificato un numero di account sulla piattaforma social X, in cui in alcuni casi i post pubblicati erano generati tramite IA, i quali sostenevano l’ex presidente Donald Trump, denigrando il presidente Biden.

Le elezioni presidenziali tenutesi a Taiwan nel gennaio 2024 sono state caratterizzate da una campagna di disinformazione operata tramite l’intelligenza artificiale. Invero, la Cina grazie anche al sostegno del gruppo “Storm-1376”, ha prodotto, attraverso uno strumento di intelligenza artificiale chiamato CapCut, sviluppato da ByteDance, contenuti ingannevoli nei confronti di William Lai, sostenitore per l’indipendenza taiwanese dalla Cina.

In particolare, tramite false registrazioni audio, meme e video venivano diffuse informazioni sulla vita personale del candidato, tra le altre che si fosse indebitamente appropriato di fondi governativi e che avesse dei figli illegittimi.

Allo stesso tempo, è stato creato dall’intelligenza artificiale anche un falso audio di Terry Gou, ex candidato alla presidenza di Taiwan, in cui dichiarava il suo appoggio a uno dei candidati rimanenti alle elezioni.

Il rischio dei ‘media sintetici’: truffe sofisticate attraverso l’IA

Infine, la generazione di “media sintetici”, che ricomprendono immagini, video, musica e audio, hanno aperto la strada a produzione di scenari o eventi fittizi che potrebbero portare a delle truffe sofisticate.

Ad esempio, a Hong Kong un impiegato finanziario di una multinazionale è stato costretto a pagare 25 milioni di dollari dopo che dei truffatori hanno inscenato una finta videochiamata con il direttore finanziario della società, partecipata anche da colleghi impersonificati da deepfake.  

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3