L’Istituto interregionale delle Nazioni Unite per la ricerca sul crimine e la giustizia (UNICRI) ha presentato un rapporto in collaborazione con il Centro ONU antiterrorismo (UNCCT) che getta luce sul possibile utilizzo di tecnologie legate all’intelligenza artificiale (IA) per finalità terroristiche. Le stesse peculiarità che rendono l’intelligenza artificiale un importante driver per l’innovazione in innumerevoli campi potrebbero spingere terroristi con competenze più o meno sviluppate ad asservirla ai propri scopi malevoli: anche se non vi sono al momento particolari evidenze su un tale utilizzo, si ritiene sia solo una questione di tempo prima che ciò accada.
Se l’intelligenza artificiale uccide, senza controllo umano: ecco i punti chiave del dibattito
Cosa spinge i terroristi verso l’IA
I sistemi di intelligenza artificiale di cui tratta il rapporto spaziano da sistemi implementati in software di riconoscimento ad automobili o droni a guida autonoma, comprendendo, quindi, sia applicazioni di machine learning che di deep learning e reti neurali. Si è soliti pensare che le organizzazioni terroristiche prediligano il ricorso ad armi e strumenti più efficaci e testati, anche se datati, ma d’altra parte hanno dimostrato negli ultimi anni una particolare capacità di adattamento e innovazione anche nell’uso di strumenti quali internet e social media. Non solo utilizzano quotidianamente tali piattaforme per reclutare e propagandare, ma hanno anche dimostrato di saper piegare il sistema ai loro scopi utilizzando, ad esempio, canali di comunicazione cifrati o includendo porzioni di video innocui all’inizio dei video di propaganda per eludere i sistemi di controllo automatizzati. Pur non essendoci ancora prove concrete di un effettivo uso diretto dell’IA da parte di gruppi terroristici, si riporta come siano invece già adoperate estensivamente tecnologie a essa legate, quali i droni.
I principali fattori che spingerebbero attori malevoli a sfruttare l’IA per finalità terroristiche sono stati individuati come segue:
- Democratizzazione: tecnologie avanzate come l’IA sono oggi accessibili a una sempre più vasta platea di utenti, anche sprovvisti di particolari conoscenze, in virtù della loro semplicità d’uso e convenienza, natura open source o possibilità di impiego dietro pagamento come nel caso dei sistemi as-a-service.
- Scalabilità: la natura scalabile dell’IA rende difficile organizzare difese contro minacce che potrebbero sviluppare notevoli volumi di attacco, come nel caso di uno sciame di droni autonomi.
- Asimmetria: la natura asimmetrica della minaccia terroristica si riflette anche sull’utilizzo dell’IA, dal momento che tali attori non sarebbero limitati da normative di alcun genere, facilitandone il compito.
- Dipendenza della società da dati e tecnologia: la crescente dipendenza verso tecnologie, dispositivi e strutture critiche connesse rendono attacchi veicolati per mezzo di IA, o diretti contro sistemi da essa gestiti, di particolare rilevanza per il tremendo impatto che avrebbero sulla popolazione.
Scenari di utilizzo dell’IA a fini terroristici
Il rapporto si spinge a ipotizzare una serie di scenari in cui diversi sistemi di IA potrebbero essere impiegati a tali fini, sia come una maniera per potenziare capacità cyber o permettere attacchi fisici veri e propri che sfruttino vulnerabilità e manomissioni di dati e sistemi, nonché per una varietà di altri metodi volti a recuperare fondi, facilitare propaganda e disinformazione, attuare tecniche di social engineering o rubare identità e falsificare passaporti. Le prime due categorie sono sicuramente le più preoccupanti, dal momento che pongono seri ed immediati rischi per individui e proprietà laddove, ad esempio, un attacco DDoS (come quelli già effettuati dall’ISIS) potenziato mediante l’uso del machine learning potrebbe portare alla paralisi di intere città o infrastrutture critiche, richiedendo uno sforzo minimo non paragonabile a quello che sarebbe richiesto con i metodi classici. Anche gli attacchi cinetici potrebbero essere realizzati efficacemente tramite la manipolazione, ad esempio, dei sistemi di guida autonoma, sia di auto che di droni. Una o più automobili a guida autonoma potrebbero essere utilizzate per facilitare attacchi esplosivi o anche semplicemente per causare incidenti e investire pedoni: non solo con mezzi propri, ma anche manipolando i sistemi di guida delle vetture di ignari guidatori. Si potrebbero, ad esempio, alterare i segnali “letti” dai sistemi di deep learning inducendo il veicolo a cambiare rotta o aumentare la velocità, se non intervenire direttamente sui comandi. Oltre che direttamente sui veicoli, si potrebbe intervenire sui sistemi di navigazione con attacchi di data poisoning al fine di convogliare i veicoli nella zona desiderata per massimizzare gli effetti di un attacco o rallentare i soccorsi e le forze dell’ordine. Similmente, sciami di droni autonomi potrebbero essere utilizzati per i medesimi scopi, sia a fini di sorveglianza che per lanciare attacchi esplosivi, con l’aggravante che, al momento, non dispongono degli stessi sistemi di sicurezza che potrebbero in qualche modo mitigare attacchi mediante automobili.
Le tipologie di attacco
Essenzialmente, le tipologie di attacco elencate nel rapporto possono essere distinte fra minacce che prevedono l’utilizzo dell’IA e minacce che, diversamente, ne abusano. Nel primo caso si tratta di attori che utilizzano direttamente tecnologie legate all’intelligenza artificiale per effettuare attacchi o massimizzarne l’efficacia, mentre nel caso di abuso si tratta di attacchi all’operatività o funzionalità di un sistema di intelligenza artificiale manipolato mediante tecniche cyber o cinetiche. Al momento, i rischi maggiori deriverebbero dai casi di abuso, sia per la novità della tecnologia, sia a causa della sempre maggiore integrazione dell’IA in sistemi fondamentali quali quelli delle infrastrutture critiche, la cui compromissione avrebbe effetti rilevanti su tutta la popolazione con uno sforzo minimo.
Pur riconoscendo come, al momento, l’utilizzo dell’intelligenza artificiale a fini di terrorismo non sia una minaccia così sviluppata o incombente, il rapporto sottolinea come la dinamicità dei gruppi terroristici e la crescente disponibilità di tecnologie a basso costo impongano una seria riflessione sul tema per non farsi trovare impreparati. Nonostante non vi siano, attualmente, gruppi con la capacità di portare avanti attacchi di questa natura, gli stessi hanno dimostrato di riuscire ad acquisire piuttosto velocemente le capacità necessarie a implementare tecnologie più avanzate: si pensi, ad esempio, all’ISIS che cominciò a utilizzare droni per le sue operazioni in meno di un anno.
Sono quindi presentate una serie di raccomandazioni per forze di polizia, istituzioni e università volte a sviluppare ulteriormente la ricerca e la cooperazione multilivello, migliorare la conoscenza e le capacità tecniche al riguardo, nonché sviluppare normative chiare e utilizzare le stesse tecnologie legate all’intelligenza artificiale per combattere proprio quelle organizzazioni terroristiche che potrebbero sfruttarle a proprio vantaggio.