Il 2024 è l’anno delle elezioni, definito anche il “più elettorale” di sempre, in cui sono chiamate al voto 2 miliardi di persone in 76 Paesi. Nella maggior parte di questi, come in Regno Unito, India, Russia, Austria, Portogallo, Iran e nell’Unione europea, il processo elettorale è stato già portato a compimento con i conseguenti cambiamenti, o meno, nell’assetto politico e naturalmente geopolitico. Al momento, tra i 76 Paesi, rimane ancora aperto il discorso delle presidenziali degli Stati Uniti, le cui elezioni sono previste per il 5 novembre, in base alla vittoria di Kamala Harris o Donald Trump potrebbe cambiare la postura del Governo di Washington su determinate tematiche di politica ed economia internazionale; ma anche industriali tra cui quelle relative al settore digitale e, in modo particolare, alle policy per la sicurezza cibernetica. (https://www.rainews.it/articoli/2023/12/il-2024-sara-anno-piu-elettorale-di-sempre-oltre-50-elezioni-nel-mondo-alle-urne-76-paesi-92b3804d-2921-43da-8e10-faec53454cae.html) Sebbene in ognuno dei suddetti Paesi siano state registrate campagne di disinformazione e misinformazione, tramite l’utilizzo dell’Intelligenza Artificiale per la creazione di synthetic content e deepfake, nel periodo precedente al voto, con una diffusione e un peso maggiore nei Paesi con istituzioni democratiche, le presidenziali americane sembrano essere il bersaglio principale di attacchi mediatici da parte sia di attori esterni, molto spesso gruppi APT affiliati ad apparati di intelligence di Governi rivali, sia di elementi interni alle stesse correnti politiche.
Innanzitutto, al fine di contestualizzare gli attuali eventi cibernetici nelle presidenziali americane, è utile differenziare i concetti di synthetic content e di deepfake. Secondo il Dipartimento dell’Homeland Security degli Stati Uniti, da un mero punto di vista pratico, il termine synthetic content o synthetic media include al suo interno tutti i media che sono stati creati attraverso strumenti digitali o artificiali o i media che sono stati modificati o manipolati attraverso l’uso della tecnologia, sia analogica che digitale. Di questi sono un esempio gli audio delle cassette a nastro tagliati e riuniti al fine di rimuovere delle parole o frasi intere alterando il contenuto e, quindi, il significato; oppure, ne sono un ulteriore esempio i “cheapfakes”, ossia ai contenuti sono applicate tecniche digitali per alterare la percezione di un evento da parte dell’osservatore, come la riduzione della voce e l’accelerazione del video. Restringendo il punto di vista solo sul settore di appartenenza dei synthetic content, questi si possono definire come il risultato del processo creativo di video, voce, immagini e testo generato dall’Intelligenza Artificiale e rientra nel panorama della realtà sintetica, artificiale o virtuale. A prescindere da ciò, il deepfake è una sottocategoria dei synthetic content e il termine deriva dal fatto che le tecnologie coinvolte nella creazione di questo particolare stile di contenuti manipolati, ossia “fake”, prevede l’uso di tecniche di deep learning. Questo rappresenta un sottoinsieme delle tecniche di apprendimento automatico, che sono a loro volta un sottoinsieme dell’Intelligenza Artificiale. Durante l’apprendimento automatico, un modello utilizza dati di addestramento per sviluppare un modello per un compito specifico e quanto più robusti e completi sono i dati di addestramento, tanto migliore è il modello. Immagini, video, audio e testo sono tutti tipi di media che potrebbero essere utilizzati per simulare o alterare un individuo specifico o la sua rappresentazione ottenendo come risultato un contenuto deepfake. (https://www.dhs.gov/sites/default/files/publications/increasing_threats_of_deepfake_identities_0.pdf; https://blog.paperspace.com/2020-guide-to-synthetic-media/ )
Preoccupa pertanto la sinergia creatasi tra l’Intelligenza Artificiale e l’informazione al fine ultimo di destabilizzare l’opinione pubblica di un Paese rivale. Ad inizio 2024, il World Economic Forum nel suo Global Risk Report 2024 aveva classificato la misinformazione e la disinformazione come una delle minacce globali con il rischio più elevato nei prossimi due anni. ((https://www.welivesecurity.com/en/cybersecurity/deepfakes-election-year-2024-weapon-mass-deception/; https://www.cybersecurity360.it/cybersecurity-nazionale/elezioni-e-fake-news-russe-il-peso-del-digital-services-act-sulla-stretta-ue-alle-big-tech/ )
In ragione di ciò, è opportuno chiedersi come disinformazione e deepfake potrebbero essere impiegati. L’Homeland Security, per esempio, ha immaginato uno scenario in cui i due elementi interagiscono tra loro nel seguente modo: “nel periodo che precede le elezioni, un gruppo di esperti di tecnologia e sostenitori del candidato A e decide di lanciare una campagna di disinformazione contro il candidato B. Gli attori maligni potrebbero sfruttare deepfake audio, video e testuali per raggiungere i loro obiettivi. Mentre i singoli deepfakes audio e video possono creare titoli sensazionali e attirare l’attenzione delle persone, la minaccia dei deepfakes testuali risiede nella loro capacità di permeare l’ambiente informativo senza necessariamente destare allarme. Un altro uso chiave dei deepfake testuali è il controllo della narrazione sulle piattaforme dei social media. In conclusione, questo approccio potrebbe acuire le tensioni sociali, danneggiare la reputazione di un avversario, incitare una base politica o minare la fiducia nel processo elettorale.” (https://www.dhs.gov/sites/default/files/publications/increasing_threats_of_deepfake_identities_0.pdf)
Dalla descrizione di tale scenario possiamo riprendere degli eventi avvenuti nel solo 2024 in vista delle presidenziali di novembre. A gennaio 2024 in vista delle primarie democratiche nel New Hampshire, alcuni potenziali elettori avevano ricevuto una robocall che simulava la voce del presidente Biden generata da IA e li esortava a non andare a votare alle primarie per “risparmiare” il voto in vista delle presidenziali di novembre. Ad architettare questo attacco di spoofing, ossia una tecnica di inganno consistente nel tentativo di convincere la vittima di star interagendo con una fonte affidabile e nota, era stato il consulente politico Steve Kramer. In ragione di ciò, il 26 settembre la Federal Communications Commission degli Stati Uniti lo ha multato con sei milioni di dollari, mentre il 26 agosto aveva raggiunto un accordo per il pagamento di una penale di un milione di dollari con la compagnia telefonica Lingo Telecom che non aveva rispettato le policy relative all’autenticazione ID “Know Your Customer” and “Know Your Upstream Provider” per l’affidabilità del servizio. (https://docs.fcc.gov/public/attachments/DOC-405811A1.pdf; https://docs.fcc.gov/public/attachments/DOC-404951A1.pdf )
Più recentemente, ad inizio settembre, il senatore democratico Ben Cardin è stato oggetto di un’avanzata operazione di deepfake finalizzata all’estorsione di informazioni sensibili sul conflitto tra Ucraina e Russia e sulla posizione del senatore sulla questione. L’ufficio del senatore, dopo aver avuto una corrispondenza per e-mail con chi credevano essere il ministro degli Esteri ucraino Kuleba, aveva organizzato un incontro via zoom tra il senatore e quest’ultimo. Tuttavia, durante la videochiamata il ministro Kuleba ha iniziato a porre domande del tipo “siete favorevoli ai missili a lungo raggio in territorio russo? Ho bisogno di conoscere la sua risposta” e altre sulle imminenti elezioni presidenziali, facendo capire allo staff del senatore e a Cardin che in realtà non era il vero Ministro degli Esteri dell’Ucraina, ma un deepfake generato tramite Intelligenza Artificiale. È plausibile ritenere che le informazioni ricercate dall’attore malevolo sarebbero state impiegate in un’operazione di disinformazione successiva.
La questione del crescente utilizzo dei deepfake, ma più in generale della strumentalizzazione dell’Intelligenza Artificiale come arma impiegabile nella guerra ibrida da parte di attori con secondi fini, rimane una questione che merita una costante attenzione da parte di tutti gli attori coinvolti nel settore digitale. Bisogna ricordare anche che l’Intelligenza Artificiale è al centro di una vera corsa a chi deposita più brevetti per attestarsi la proprietà intellettuale, ed avere quindi l’uso esclusivo di una tecnologia, il che significa superiorità tecnologica ma anche ulteriore pratiche protezionistiche. Secondo un rapporto dell’agenzia delle Nazioni Unite per la proprietà intellettuale, la Cina è il Paese che sta depositando il maggior numero di brevetti per invenzioni di intelligenza artificiale generativa al mondo, subito dopo seguono gli Stati Uniti, la Corea del Sud, Giappon, India, Regno Unito e Germania. Inoltre, secondo l’Organizzazione Mondiale della Proprietà Intellettuale (OMPI), nell’ultimo decennio sono state presentate più di 50.000 domande di brevetto di intelligenza artificiale: in Cina sono state depositate più di 38.000 invenzioni che coinvolgono l’IA generativa, mentre gli Stati Uniti 6.276.