La guerra russa contro l’Ucraina sta diventando anche un esteso campo di sperimentazione relativo alla promozione dell’uso dell’intelligenza artificiale (IA) nel settore militare. In particolare, si tratta di sistemi d’arma automatizzati, come diversi tipi di droni che stanno sempre più condizionando gli eventi sui campi di battaglia.
Il ruolo militare e geopolitico delle tecnologie digitali
Mentre i parlamenti ed i governi occidentali discutono ancora di possibili esportazioni di armi, le tecnologie digitali hanno assunto da tempo un ruolo militare e geopolitico decisivo. L’invasione dell’Ucraina da parte della Russia è la prima guerra in cui entrambe le parti hanno fatto ampio uso di attrezzature da combattimento digitali come i droni. Inoltre, ci sono circa 200 attacchi informatici al giorno, che Mosca utilizza in particolare come parte della sua guerra ibrida. L’Ucraina, inoltre, sta avendo un sorprendente successo nel tenere testa alla potenza militare mondiale Russa utilizzando in modo creativo anche tecnologie originariamente non militari.
Tuttavia, non esiste un quadro giuridico internazionale per l’utilizzo di gran parte di questi strumenti e sono diverse le ragioni che, ad oggi, interferiscono con i tentativi di regolamentazione parzialmente avviati.
Le richieste di messa al bando dell’IA militare
Diverse voci critiche chiedono che l’IA militare sia generalmente bandita a livello internazionale. Altri ritengono tali sistemi indispensabili per non mettere a rischio unilateralmente la sicurezza dell’Occidente.
Anselm Küsters e Jörg Köpke del Centre for European Policy Network (CEP) hanno redatto un primo sintetico contributo sull’importanza dell’IA e dei sistemi d’arma automatizzati per l’esercito ucraino nella sua difesa dagli aggressori russi. Il loro documento “Vantaggio Ucraina: Come l’IA sta cambiando i rapporti di forza nella guerra”[1] analizza la situazione sul campo e pone diverse questioni sull’uso “responsabile” dell’IA.
Come l’IA sta ridefinendo il potere militare
L’era dell’intelligenza artificiale, comunque, pare destinata a ridefinire anche il potere militare. Nell’attuale conflitto la Russia sembra avere le carte peggiori al momento anche perché dall’inizio della guerra, più di 100.000 specialisti IT – il 10% di tutti quelli precedentemente impiegati nel settore tecnologico – le hanno voltato le spalle.[2] Nello stesso periodo, il numero di start-up militari ucraine è decuplicato.[3] Inoltre, la scena tecnologica ucraina è meglio collegata a livello internazionale. Utilizza iniziative come “Army of Drones” per ottenere più rapidamente hardware di droni stranieri. Il collettivo internazionale di hacker Anonymous riesce regolarmente a piazzare critiche alla guerra nei media russi e a pubblicare terabyte difile hackerati.[4]
Le conseguenze di questo squilibrio tecnologico sono già chiaramente visibili sul campo di battaglia. Kiev utilizza l’IA in modo più efficace di Mosca. In particolare, per quanto riguarda la ricognizione geografica e il riconoscimento dei bersagli. Ad esempio, i dati open source come le foto sensibili dal punto di vista geopolitico sui social media vengono analizzati con l’IA.[5]Gli sviluppatori ucraini hanno addestrato i sistemi di IA per identificare i carri armati nemici mimetizzati con le riprese in diretta dei droni ed a distruggerli in tempo quasi reale.[6] I sistemi sono programmati per imparare costantemente da soli. L’azienda tecnologica ucraina Primer ha adattato il suo servizio di trascrizione e traduzione vocale AI per elaborare rapidamente le comunicazioni russe intercettate ed estrarre automaticamente informazioni sulle forze armate.[7]
La necessità di controllare lo sviluppo di armi completamente autonome
Anche se le tecnologie digitali offrono vantaggi di politica militare, in Occidente esse sollevano pure la questione della loro controllabilità. In particolare, l’aumento dell’uso di funzioni autonome e di sistemi di intelligenza artificiale nella guerra in Ucraina potrebbe accelerare lo sviluppo di armi completamente autonome, il cui uso non potrà mai essere completamente controllato.
Al primo vertice globale sull’IA militare responsabile, tenutosi nei Paesi Bassi a metà febbraio 2023, il Dipartimento di Stato americano ha presentato una cosiddetta dichiarazione politica sulle condizioni in cui tali armi dovrebbero essere sviluppate.[8] Questa dichiarazione non vieta l’IA militare, ma elenca le “migliori pratiche” in astratto.
Un’iniziativa corrispondente delle Nazioni Unite elaborerà un regolamento nella seconda sessione di quest’anno. Dal 2014, la Convenzione su alcune armi convenzionali (CCW) di Ginevra sta lavorando su questa linea guida a livello di esperti governativi, ma si sta molto arrancando[9], non per ultimo perché le nazioni leader nella ricerca sull’IA, come Stati Uniti, Cina, Israele o Corea del Sud, non hanno finora voluto fissare limiti giuridicamente vincolanti per non limitare lo sviluppo dei propri sistemi.
Alla luce di questi problemi, c’è attualmente un certo consenso sul fatto che i sistemi di IA militari dovrebbero offrire una combinazione di processi automatizzati e capacità di intervento umano. Anche se l’intuizione di un tale modello “human in the loop” è da accogliere con favore in linea di principio, in vista delle decisioni epocali dei sistemi d’arma che riguardano la vita e la morte, occorre contemporaneamente mettere in guardia dall’errata convinzione che tale combinazione di uomo e macchina sia sufficiente per garantirne un uso sicuro e affidabile. Questo perché gli esseri umani spesso accettano la decisione raccomandata da un sistema di IA, anche se è sbagliata – un problema noto come AI overreliance, o “fiducia cieca” nell’IA.
L’ispirazione potrebbe venire dalla legge sull’IA che i legislatori dell’UE stanno attualmente negoziando. La proposta segue un approccio basato sul rischio, in quanto vieta pratiche di IA particolarmente dannose. Anche se l’attuale proposta legislativa dell’UE esclude esplicitamente i sistemi di IA militari, il suo quadro e i suoi requisiti orizzontali possono anche contribuire allo sviluppo di norme pertinenti per le applicazioni di IA in ambito militare.[10] Sarebbero ipotizzabili categorizzazioni analoghe, in base alle quali le armi autonome letali sarebbero vietate, mentre tutti gli altri sistemi militari di IA dovrebbero soddisfare requisiti di gestione del rischio, documentazione, trasparenza, verificabilità, robustezza e sicurezza informatica.
Il ruolo di politica e media nel dibattito sull’IA militare
Nel loro articolo, i ricercatori del CEP Küsters e Köpke osservano, inoltre, che la politica e i media dovrebbero svolgere un ruolo in questo dibattito. L’opinione pubblica deve essere sensibilizzata sui pericoli così come è compito della politica stabilire condizioni quadro vincolanti con classificazioni giuridiche, obblighi di trasparenza e test strutturati sulla controllabilità umana di questi sistemi. Anche perché l’IA a disposizione delle forze armate non riguarda solo le armi del futuro, bensì pure l’utilizzo per un’ampia varietà di funzioni militari che va anche oltre ai robot o i droni combattenti.
Conclusioni
Tuttavia, la richiesta di un divieto basato su principi etici difficilmente potrà essere avanzata nell’attuale situazione geopolitica; da una prospettiva occidentale rischierebbe addirittura di essere ingenua. La guerra in Ucraina dimostra, come tragico laboratorio di prova, che l’IA sarà utilizzata nei conflitti futuri a dispetto di tutti i principi etici. I vantaggi sul campo di battaglia di poter analizzare grandi quantità di dati, prevedere i movimenti del nemico e reagire rapidamente a qualsiasi minaccia sono troppo allettanti. Ma le armi autonome basate sull’IA possono anche portare a problemi incontrollabili come il “fuoco amico” nel proprio campo. Pertanto, è importante non solo da un punto di vista etico, ma anche strategico-militare, sviluppare strategie per il loro monitoraggio già in una fase iniziale e che tenga conto degli errori dei sistemi autonomi precedenti.[11]
[1] https://www.cepitalia.eu/fileadmin/user_upload/cep.eu/cepAdhoc_IA_conflittoUcraina-IT.pdf
[2] How Russia killed its tech industry | MIT Technology Review.
[3] Ukraine wants a robot army (wired.com).
[4] Hacker im Cyberkrieg: Die kuriosesten Angriffe von Anonymous auf den Kreml (watson.de).
[5] Ukraine A Living Lab for AI Warfare (nationaldefensemagazine.org).
[6] Artificial intelligence helps drones destroy camouflaged Russian vehicles (gagadget.com).
[7] One year on: 10 technologies used in the war in Ukraine – TechInformed.
[8] Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy, Department of State. Per una simile analisi, si veda anche: The US Pushing for Responsible AI in Military Use (holisticai.com).
[9] Verhandlungen von der CCW in die UNO? – Tagesspiegel Background.
[10] Challenges of Governing AI for Military Purposes and Spill-Over Effects of the AI Act | Futurium (europa.eu).
[11] Understanding the errors introduced by military AI applications (brookings.edu).