La guerra in Ucraina sta fomentando con ancora più urgenza la corsa agli armamenti hi-tech, basati su sistemi di intelligenza artificiale. Cina e Usa sono in prima fila e investono a ritmo serrato sulle tecnologie emergenti, sebbene non sempre sia scontato un loro utilizzo concreto sul campo di battaglia.
In questo contesto, chi ha più da guadagnare sono le startup (una fra tutte, la statunitense Palantir Technologies), che mirano principalmente a generare profitto, ma allo stesso tempo anche a rinnovare i loro arsenali con le tecnologie più recenti, entrando in concorrenza con i colossi che forniscono i diversi paesi.
Tuttavia, di pari passo con l’avanzamento tecnologico, nell’ultimo lustro sono diventate più urgenti e pressanti anche le preoccupazioni etiche sull’uso dell’intelligenza artificiale in campo militare, mentre la prospettiva di restrizioni e regolamenti che ne disciplinino l’uso sembra più remota che mai (almeno fino a quando il conflitto in Ucraina non cesserà).
AI in campo militare, cosa ci dice il dietrofront di Google sul progetto Maven
Un esempio fra tutti: nel 2018, in seguito alle proteste e all’indignazione dei suoi dipendenti, Google si ritirò dal “Progetto Maven”[1] del Pentagono che mirava a costruire sistemi di riconoscimento delle immagini per migliorare gli attacchi dei droni in zone di guerra. L’episodio suscitò un un acceso dibattito sui diritti umani e sulla moralità dello sviluppo di un’intelligenza artificiale montata su “armi autonome”. Tuttavia, quattro anni dopo il “boicottaggio” di Maven, la Silicon Valley sembra essersi (ri)avvicinata molto al Dipartimento della Difesa USA. E non si tratta solo di grandi aziende, ma anche – come citato – di startup.
Le aziende che investono in campo militare fanno spesso grandi proclami su ciò che la loro tecnologia è in grado di fare. Esse affermano, ad esempio, che può essere d’aiuto per qualsiasi cosa, “dal banale al letale”, dallo screening dei curricula all’elaborazione dei dati, fino ad aiutare i soldati a prendere decisioni più rapide sul campo di battaglia. Il software di riconoscimento delle immagini, ad esempio, può aiutare a identificare gli obiettivi nemici con precisione. I droni “autonomi” possono essere utilizzati per la sorveglianza o gli attacchi su terra, aria o acqua, o per aiutare i soldati a consegnare i rifornimenti in modo più sicuro di quanto sia possibile via terra (o con l’aiuto di mezzi con equipaggio a bordo).
Intelligenza artificiale in guerra, il futuro è già qui: armi, scenari, prospettive
AI sul campo di battaglia: grandi promesse e molti flop
Chiaramente, tali tecnologie sono ancora “agli albori” sul campo di battaglia e le forze armate di diversi paesi del mondo stanno attraversando un periodo di sperimentazione (il teatro bellico ucraino figura tra questi). Ci sono innumerevoli esempi della tendenza delle aziende produttrici di intelligenza artificiale a fare grandi promesse che poi si rivelano dei flop; le zone di combattimento, peraltro, sono forse tra le aree tecnicamente più difficili in cui impiegare l’Intelligenza Artificiale, perché ci sono pochi “dati di addestramento” (training data) rilevanti.
Ciononostante, molte forze armate di diversi paesi stanno andando avanti su questa strada. Gli Stati Uniti, ad esempio, stanno collaborando con le start-up per sviluppare veicoli militari autonomi. Ed ovviamente, non mancano le critiche. Alcuni sostengono che questa spinta verso l’intelligenza artificiale in campo bellico sia in realtà più volta ad arricchire le aziende tecnologiche che a migliorare le operazioni militari sul campo. Mentre altri affermano che i sostenitori dell’intelligenza artificiale stanno alimentando la retorica della Guerra Fredda, cercando di creare una narrativa che posiziona le Big Tech come “infrastrutture nazionali critiche”, troppo grandi e importanti per essere smantellate o regolamentate.
La corsa agli investimenti procede spedita
Dopo che le polemiche su Maven (da parte di Google) si sopirono, negli ultimi due anni le voci che invocano un maggiore impiego dell’intelligenza artificiale in campo militare sono diventate sempre più forti. E la guerra in Ucraina si pone come un vero e proprio “megafono” in tal senso. Si pensi alla National Security Commission on Artificial Intelligence (NSCAI), che fornisce raccomandazioni al Presidente e al Congresso USA in materia di Intelligenza Artificiale, la quale ha invitato (già a partire dal 2021)[2] le forze armate statunitensi a investire almeno otto miliardi di dollari l’anno in queste tecnologie per non rischiare di rimanere indietro rispetto alla Cina.
Secondo un rapporto del Georgetown Center for Security and Emerging Technologies, le forze armate cinesi spendono probabilmente più di un miliardo e mezzo di dollari all’anno per l’intelligenza artificiale (e negli Stati Uniti è già in atto una spinta significativa per raggiungere la parità). E non è solo l’esercito statunitense ad essere convinto della necessità di adeguarsi in tal senso. Anche alcuni paesi europei, che tendono a essere più cauti nell’adozione di nuove tecnologie, stanno cercando di investire nel settore.
Francia e Regno Unito hanno identificato l’intelligenza artificiale come una tecnologia chiave per la difesa, con la Commissione Europea che ha stanziato un miliardo di dollari per sviluppare nuove tecnologie di difesa comune dell’Unione[3].
Intelligenza artificiale in campo militare, il difficile passaggio dalla teoria alla pratica
In ogni caso, creare domanda affinché si implementi l’intelligenza artificiale è una cosa, mentre far sì che le forze armate la adottino è un’altra cosa. Molti Paesi stanno spingendo la “narrativa” sull’intelligenza artificiale, ma faticano a passare dal concetto all’implementazione a quello dell’effettiva adozione.
Ciò è dovuto, in parte, al fatto che l’industria militare nella maggior parte dei Paesi è ancora dominata da un gruppo di grandi appaltatori che non hanno ancora molta esperienza nel campo dell’intelligenza artificiale. In pratica, in molti paesi, il monopolio dei grandi – storici – gruppi di fornitori militari esclude l’ingresso delle startup e del loro grande know-how tecnologico.
Inoltre, i contratti militari possono durare decenni, cosa che le startup “non possono permettersi” (avendo solo un anno o poco più per “decollare”). Il rischio che vadano in bancarotta in attesa di contratti di difesa (che vengano onorati dagli “appaltanti”) è sempre dietro l’angolo. Le forze armate di diversi Paesi si trovano in un vicolo cieco: andare troppo “di fretta” e rischiare di implementare sistemi pericolosi e difettosi, oppure andare troppo piano e perdere l’occasione di sfruttare i progressi tecnologici presenti e futuri.
AI a uso bellico, gli Usa inseguono la Cina
Gli Stati Uniti vogliono andare più veloci (anche perché la Cina è un formidabile corridore), per cui sarà necessario approntare un cambiamento culturale in seno al Pentagono (evitando il rischio di impelagarsi in inerzie burocratiche). E abbiamo già degli esempi: a gennaio scorso ScaleAI, una startup che fornisce servizi di etichettatura dei dati per l’intelligenza artificiale, si è aggiudicata un contratto da duecentocinquanta milioni di dollari con il Pentagono[4]; mentre a febbraio scorso Anduril, una startup che sviluppa sistemi di difesa autonomi (come sofisticati droni subacquei), si è aggiudicata un contratto di difesa da un miliardo di dollari sempre con il Dipartimento della Difesa USA[5].
AI sul campo di battaglia, le preoccupazioni etiche
Nonostante la “costante marcia” dell’intelligenza artificiale sul campo di battaglia, le preoccupazioni etiche che hanno portato alle proteste per il Progetto Maven non sono del tutto scomparse. Consapevole di dover comunque intervenire in materia, il Dipartimento della Difesa degli Stati Uniti ha emanato delle linee guida per una intelligenza artificiale “responsabile”[6] per gli sviluppatori di tali tecnologie in ambito militare.
Anche la NATO ha una strategia simile per le nazioni che ne fanno parte[7]. Tutte queste linee guida invitano le forze armate a utilizzare l’intelligenza artificiale in modo lecito, responsabile, affidabile e tracciabile, cercando di mitigare i pregiudizi (bias) “incorporati” negli algoritmi. Uno dei concetti chiave è che l’uomo deve sempre mantenere il controllo di tali sistemi; cosa che, probabilmente, non può essere garantita per gli anni a venire.
Invero, l’obiettivo di un sistema autonomo è quello di consentirgli di prendere una decisione in modo più rapido e accurato di quanto potrebbe fare un essere umano (svincolando quest’ultimo dal sindacare ogni scelta presa dalla macchina). Tuttavia, i critici sostengono che sono necessarie regole più severe.
Conclusioni
Esiste una campagna globale chiamata Stop Killer Robots che cerca di vietare le armi autonome letali, come gli sciami di droni. Diversi attivisti e funzionari di alto profilo (come il segretario delle Nazioni Unite António Guterres[8]), nonché governi (come quello della Nuova Zelanda[9]) sostengono che le armi autonome sono profondamente immorali, perché danno alle macchine il controllo sulle decisioni di vita e di morte e potrebbero danneggiare in modo sproporzionato le comunità emarginate a causa di pregiudizi algoritmici.
Sciami di migliaia di droni autonomi, ad esempio, potrebbero essenzialmente diventare armi di distruzione di massa. Limitare queste tecnologie sarà una battaglia in salita, perché l’idea di un divieto globale ha incontrato l’opposizione di Stati Uniti, Francia e Regno Unito (membri del Consiglio di Sicurezza dell’ONU). In definitiva, la nuova era dell’intelligenza artificiale impiegata in campo militare solleva una serie di difficili questioni etiche a cui non abbiamo ancora una risposta. [10]
Note
- Google Will Not Renew Pentagon Contract That Upset Employees. The New York Times. https://www.nytimes.com/2018/06/01/technology/google-pentagon-project-maven.html ↑
- BREAKING: AI Commission Recommends Billions in New Spending. National Defense Industrial Association. https://www.nationaldefensemagazine.org/articles/2021/3/1/national-security-commission-on-ai-releases-final-report ↑
- European Defence Fund: €1 billion to boost the EU’s defence capabilities and new tools for defence innovation. European Commission. https://ec.europa.eu/commission/presscorner/detail/en/IP_22_3283 ↑
- Scale AI Awarded $249M DOD BPA to Serve as Governmentwide AI Partner. GovCon Wire. https://www.govconwire.com/2022/02/scale-ai-awarded-249m-dod-bpa-to-serve-as-government-wide-ai-partner/ ↑
- Defense Business Brief: Pentagon backtracks on conference travel ban; Anduril gets $1B SOCOM deal; FBI probes China’s stake in aircraft startup; and more. Defense One. https://www.defenseone.com/business/2022/01/defense-business-brief-pentagon-halts-conference-travel-anduril-gets-1b-socom-deal-fbi-probes-chinas-stake-aircraft-startup-and-more/361032/ ↑
- Defense Innovation Unit Publishes ‘Responsible AI Guidelines’. U.S. Department of Defense. https://www.defense.gov/News/News-Stories/Article/Article/2847598/defense-innovation-unit-publishes-responsible-ai-guidelines/ ↑
- NATO releases first-ever strategy for Artificial Intelligence. NATO. https://www.nato.int/cps/en/natohq/news_187934.htm ↑
- U.N. chief urges action on ‘killer robots’ as Geneva talks open. Reuters. https://www.reuters.com/world/un-chief-urges-action-killer-robots-geneva-talks-open-2021-12-13/ ↑
- New Zealand Comes Off the Fence on Autonomous Weapons. Human Rights Watch. https://www.hrw.org/news/2021/11/30/new-zealand-comes-fence-autonomous-weapons ↑
- Why business is booming for military AI startups. MIT Technology Review. https://www.technologyreview.com/2022/07/07/1055526/why-business-is-booming-for-military-ai-startups/ ↑