Siamo ormai abituati a vedere l’intelligenza artificiale come il “gioco” – o, meglio, la “moda” – del momento, con sempre più strumenti a nostra disposizione pronti ad allietare le nostre giornate, tra momenti di svago e ausilio alle nostre attività professionali. Quello che, però, emerge meno è la pericolosità che si cela dietro tale tecnologia, sempre più capace di incidere – anche in negativo – nelle vite di tutti noi.
E non parliamo solo dei singoli strumenti generativi, ma anche di geopolitica. Stiamo vivendo, a livello planetario, una vera e propria “corsa agli armamenti”, ove questi ultimi sono rappresentati dalla tecnologia in esame, ago della bilancia del grande gioco “a quattro” (o “a cinque”, se ci inseriamo l’India) tra Stati Uniti, Unione Europea, Russia e Cina.
Le applicazioni dell’IA generativa: da ChatGPT a Voice Engine
Parlando di intelligenza artificiale generativa, ChatGPT – diadema di casa OpenAI – è indubbiamente la regina del momento, con tutte le sue infinite applicazioni testuali e visive. Anzi, aggiungiamoci anche la “voce”.
È infatti notizia di poche settimane fa che OpenAI ha introdotto il suo “Voice Engine”[1], modello generativo (in fase di sviluppo) in grado di addestrarsi sulla voce di una persona e di leggere qualsiasi testo utilizzando quella voce. Immaginiamo Siri o Google Assistant leggere il contenuto di una pagina web, con la differenza che la voce sembra proprio quella nostra. Anzi, “forse” lo è.
Al momento non abbiamo molto su cui basarci per giudicare le capacità di Voice Engine, a parte gli esempi forniti dalla casa madre. E anche se sembrano impressionanti, è probabile che rappresentino il migliore dei casi e non un risultato tipico. Al momento tecnologie simili tendono ad avere un suono molto accurato in alcuni casi e suoni “robotici” in altri.
A OpenAI bastano quindici secondi di audio per riprodurre la voce umana nei contesti più disparati. Al momento possiamo solo ipotizzare gli sviluppi di tale tecnologia, anche perché parliamo di dati forniti da OpenAI.
I rischi della disinformazione attraverso l’audio artificiale
Quello che possiamo azzardare sono le ipotesi circa i prevedibili pericoli insiti in tale tecnologia. Il primo pericolo, a cui probabilmente si pensa quando si viene a conoscenza di questa tecnologia, è la disinformazione (cosiddette “fake news”), e questa è una preoccupazione reale. Supponendo che tale tecnologia funzioni bene come afferma OpenAI, un malintenzionato potrebbe prendere solo quindici secondi di discorso di una persona qualsiasi e creare una registrazione di quello che dice facendole affermare cose che non avrebbe mai affermato.
Con un po’ di impegno poi, si potrebbe associare il falso audio a un falso video, magari in combinazione con Sora, il modello di generazione video di OpenAI. Si pensi a quanti crimini “sofisticati” si potrebbero compiere. In teoria, dei truffatori potrebbero usare la nuova tecnologia per camuffare l’accento, parlando qualsiasi lingua in modo naturale per sembrare uno del posto, anche se non è ancora chiaro come potrebbero farlo in modo fluido in una conversazione in tempo reale. I truffatori potrebbero anche utilizzare un “clone vocale” per leggere il testo emesso da un chatbot, automatizzando le truffe che inducono le persone a fornire le proprie informazioni personali.
Ma questo è già possibile: l’aspetto rivoluzionario di Voice Engine è che il bot parla come una persona specifica. Molte di queste sfide potrebbero essere superate in un’eventuale versione consumer del Voice Engine di OpenAI. Ad esempio, le app potrebbero richiedere più di 15 secondi di audio e potrebbero richiedere all’interlocutore di leggere parole o frasi specifiche per confermare che si tratta di una persona reale e non di una registrazione. OpenAI potrebbe anche incorporare watermark audio in tutti i discorsi generati per facilitarne l’individuazione, e lo smartphone potrebbe avvisare l’utente se qualcuno lo chiama utilizzando il motore. OpenAI ha anche suggerito una “lista di voci non consentite”, in base alla quale i sistemi si rifiuterebbero di costruire modelli di voci di persone importanti. Ma, comunque, stiamo parlando per ipotesi.[2]
L’ascesa dei generatori di immagini: i rischi
Passando “dalla voce all’immagine”, è risaputo che modelli come DALL-E di OpenAI e Midjourney possono produrre immagini impressionanti e molto realistiche. Ricercatori e politici di diversi paesi hanno espresso il proprio disappunto che le immagini prodotte da tali modelli generativi possano essere utilizzate in modo improprio per la produzione di informazioni false e, quindi, per commettere crimini. Si pensi alle possibili gravi implicazioni per la sicurezza dei bambini e per le immagini intime non consensuali che potrebbero essere prodotte.
La capacità di produrre immagini accattivanti, inedite e coinvolgenti, in modo economico e istantaneo, è anche ciò che rende la tecnologia generativa interessante per i truffatori e i criminali in genere.[3] Anche Papa Francesco, qualche mese fa, mise in guardia dai possibili pericoli dell’Intelligenza Artificiale, dopo che diversi mesi prima il Santo Padre fu oggetto di una bufala di bassa lega che faceva sembrare che indossasse un grande cappotto bianco. L’immagine, diventata virale, era stata realizzata grazie all’Intelligenza Artificiale.
L’ascesa dei generatori di immagini dell’intelligenza artificiale ha causato una notevole preoccupazione tra coloro che vedono l’uso di immagini false nel tentativo di influenzare l’opinione popolare online. Ma non si tratta solo di creare un’immagine falsa per far credere che qualcosa sia reale. C’è anche il pericolo che le persone non credano che qualcosa sia reale quando non lo è assolutamente.[4]
Geopolitica e IA: l’uso dei sistemi generativi per influenzare le elezioni
Dal punto di vista geopolitico, come accennato in premessa, l’Intelligenza Artificiale rappresenta un indiscutibile arma a disposizione delle nazioni più forti del globo. Tra le notizie più recenti, vi sono quelle secondo cui per le agenzie di intelligence statunitensi, Russia, Cina e Iran stanno cercando di minare l’immagine degli Stati Uniti e dei loro alleati (leggasi NATO e Unione Europea) nel mondo e di aggravare le divisioni sociali interne ai paesi coinvolti, con l’Intelligenza Artificiale che offre a entrambi i paesi euroasiatici nuovi strumenti per interferire, per esempio, nella politica e nelle elezioni statunitensi. Con la guerra in corso in Ucraina, secondo gli USA la Russia sta valutando come i risultati delle elezioni americane del 2024 potrebbero avere un impatto sul sostegno occidentale all’Ucraina e non è escluso che cercherà di influenzare le elezioni nel modo migliore per sostenere i propri interessi e obiettivi. Secondo gli USA, i russi potrebbero aver fatto progressi per nascondere il loro potenziale tecnologico, come l’Intelligenza Artificiale generativa, per migliorare le loro capacità e raggiungere il target euro-americano.
Il ruolo delle super potenze nella “corsa all’armamento” dell’IA
Per quanto riguarda la Cina, secondo gli americani il governo di Pechino ha adottato una campagna di informazione segreta più assertiva per estendere la propria influenza e minare il potere dell’America, con tattiche che ricordano l’approccio della Russia (e con entrambi gli attori pronti a influenzare le elezioni statunitensi 2024). Secondo gli USA, la Cina sta mostrando una maggiore “sofisticazione” nei suoi sforzi, sta sperimentando software di Intelligenza Artificiale sempre migliori. Infine l’Iran che, legato fortemente con la Russia, secondo l’intelligence a stelle e strisce potrebbe continuare a condurre operazioni di disinformazione per cercare di seminare discordie e divisioni nella società civile statunitense, compresa la possibilità di interferire nelle elezioni del 2024. È risaputo che l’autorità degli Ayatollah ne abbia la capacità: sulla volontà, vedremo a breve.[5]
Il futuro dell’IA: da strumento di sviluppo a potenziale arma di conflitto
Insomma, è facile vedere come dal “piccolo”, ossia dalla dimensione umana, si possa arrivare al “grande”, ossia a un conflitto planetario, semplicemente partendo da una tecnologia che ha tanti risvolti pratici e che, effettivamente, può aiutarci nella vita di tutti i giorni. Solo che dipende sempre dall’utilizzo che ne facciamo. Stiamo parlando di uno strumento che può essere usato anche come arma. Strumento che può essere utilizzato tanto per distruggere una sola persona, con le varie manipolazioni vocali e visive, tanto per colpire intere nazioni a livello globale. Dipende, in altri termini, da chi ha il coltello dalla parte del manico e dalle sue “dimensioni”.
Note
[1] Navigating the Challenges and Opportunities of Synthetic Voices. OpenAI. https://openai.com/blog/navigating-the-challenges-and-opportunities-of-synthetic-voices
[2] OpenAI’s new Voice Engine could bring real benefits, and real dangers. The Sydney Morning Herald. https://www.smh.com.au/technology/openai-s-new-voice-engine-could-bring-real-benefits-and-real-dangers-20240403-p5fgz9.html
[3] How Spammers, Scammers and Creators Leverage AI-Generated Images on Facebook for Audience Growth. Stanford University. https://cyber.fsi.stanford.edu/io/news/ai-spam-accounts-build-followers#:~:text=Scam%20Pages%20attempted%20to%20sell,do%20not%20follow%20the%20Pages.
[4] Il Papa: l’intelligenza artificiale sia via di pace, non promuova fake news o la follia della guerra. Vatican News. https://www.vaticannews.va/it/papa/news/2023-12/papa-messaggio-giornata-mondiale-pace-intelligenza-artificiale.html
[5] AI gives Russia, China new tools to sow division in the U.S., undermine America’s image, intel agencies say. NBC News. https://www.nbcnews.com/politics/national-security/china-russia-ai-divide-us-society-undermine-us-elections-power-rcna142880