Il prossimo stadio della guerra in Ucraina sarà quello che vedrà i soldati ucraini impegnati a combattere contro i robot? Sebbene non si sia ancora materializzato il paventato arrivo in trincea dei robot russi “Marker”, sembra ormai chiaro che il conflitto in corso stia diventando un banco di prova per l’impiego dell’intelligenza artificiale in combattimento.
La cyberwar non è, infatti, soltanto riferibile all’utilizzo dei mezzi informatici per spiare o sottrarre informazioni sensibili all’avversario, oppure interrompere i servizi essenziali che le infrastrutture critiche erogano.
L’evoluzione in ambito cyber ha permesso all’industria bellica di applicare tecnologie moderne, come l’AI (Artificial Intelligence), per aumentare l’effetto già devastante delle armi convenzionali. Pensiamo agli armamenti “intelligenti” sempre più impiegati: le cosiddette armi autonome (LAWs, Lethal Autonomous Weapons), capaci d’identificare autonomamente il target e ingaggiarlo senza la supervisione di un operatore; i droni kamikaze, ovvero sistemi d’arma modernissimi che uniscono le manovrabilità di un drone alle capacità distruttive di un missile; la robotica applicata alle attività di ricognizione e supporto su teatro operativo, etc.
Oltre al vantaggio militare, le armi intelligenti ed autonome garantiscono precisione, selezione dell’obiettivo, riduzione dei collateral damages e comportano ovviamente minor coinvolgimento fisico di personale militare.
Cyber war e sicurezza informatica
Se pensiamo alle connessioni che oggi abbracciano tutte le nazioni, le loro comunicazioni e i loro affari, risulta semplice pensare a questo spazio come luogo dove determinare e gestire la strategia nazionale, la quale necessita l’utilizzo di piattaforme basate su cloud per gestire efficacemente il sistema d’informazione. Questo “nuovo” spazio cibernetico è diventato, di conseguenza, anche la nuova base operativa per offendere, influenzare, manipolare oppure interrompere la “catena di interessi” di qualsiasi Stato. Molte nazioni hanno, infatti, già creato unità militari cibernetiche specializzate, con particolare attenzione all’identificazione delle vulnerabilità della sicurezza nazionale, anche della propria, e al lancio di attacchi mirati.
Conseguentemente all’estensione del cyberspace e l’evoluzione della guerra in cyberwar, cresce la necessità di potenziare le proprie capacità di sicurezza informatica. Parlando di sicurezza informatica, il concetto di cyberwar può essere ridotto ai minimi termini riferendosi “all’uso di computer e comunicazioni da una parte per attaccare i computer e le comunicazioni di un’altra parte”, con il preciso obiettivo di degradare l’infrastruttura critica del nemico. La cyberwar potrebbe essere così definita per via di un impiego di armi differenti rispetto quelle tradizionali, ma comunque riconducibili a una fase operativa del conflitto in atto. Oggi si ritiene che la forza futura sarà basata su un’economia “tecnologica”, ovvero attraverso l’utilizzo dei più potenti computer quantistici e dell’intelligenza artificiale più efficiente, per esempio. La guerra informatica mira a raggiungere proprio questo obiettivo, in gran parte attraverso il furto di informazioni sensibili, lo spionaggio contro le capacità e i piani militari e la sorveglianza delle infrastrutture critiche atta a ricercare quelle debolezze che potrebbero essere sfruttate dal proprio avversario.
In guerra con l’intelligenza artificiale: le nuove mire di Usa e Cina
I robot sul campo di battaglia
Presto i soldati in Ucraina potrebbero combattere i robot sul campo di battaglia, ha riferito il sito euronews a fine gennaio 2023. Le due società Russia’s Advanced Research Foundation e il Russian-based Android Technics hanno annunciato la presto l’operatività del robot “Marker”, già presentato nel 2019, che sarebbe capace di distruggere i carri armati occidentali. In un messaggio pubblicato su Telegram, Dmitry Rogozin, capo del gruppo Tsar Wolves (distaccamento speciale di consiglieri militari del Cremlino) aveva dichiarato che i robot Marker, sia quelli testati per le attività di ricognizione sia le versioni più offensive, ovvero armate, sarebbero stati consegnati alla zona di difesa aerea russa a febbraio. I robot Marker avrebbero preso parte alle operazioni di combattimento dopo una prova sul campo di addestramento. Rogozin ha affermato che i Marker saranno in grado di rilevare e ingaggiare automaticamente Abrams, Leopard e altri tanks occidentali sfruttando un catalogo elettronico installato nei loro sistemi di controllo, con immagini di veicoli nemici.
Le versioni “da combattimento” sarebbero anche dotate di sistemi missilistici anticarro, uno strumento efficace contro i carri armati moderni. Il peso complessivo del robot sarebbe di circa tre tonnellate, ha avanzate capacità di movimento autonomo e un sistema di visione modulare, con dati elaborati da algoritmi di rete neurale.
L’Ucraina terreno di prova per l’uso dell’AI in guerra
L’Ucraina appare effettivamente come un terreno di prova per l’impiego dell’intelligenza artificiale durante un conflitto armato “tradizionale”. La Russia non è ovviamente l’unica a testare e impiegare le proprie tecnologie in territori belligeranti, infatti, anche la coalizione occidentale, Stati Uniti su tutti, sta fornendo aiuti “avanguardisti” all’Ucraina che li utilizza per reagire all’azione del Cremlino.
Basti pensare alla società SpaceX, di Elon Musk, la quale ha messo i propri satelliti Starlink al servizio dell’intelligence ucraina, limitandone l’accesso al solo campo di battaglia. Oppure l’azienda statunitense Palantir, specializzata nell’analisi dei Big Data, che ha fornito a Kiev strumenti basati sull’intelligenza artificiale, i quali permetterebbero di analizzare gigabyte di dati al fine di supportare i vari comandi a comprendere l’andamento del conflitto in tempo reale, valutando posizioni, obiettivi e movimenti delle truppe, e prendere decisioni “informate”. L’Ucraina è stata un banco di prova per la “sensor fusion“, la triangolazione di diverse fonti di informazioni per creare un quadro più completo del campo di battaglia, ha dichiarato Stephen Biddle, esperto di difesa della Columbia University.
Molte altre sono le aziende del settore coinvolte dal Dipartimento della Difesa statunitense nello sviluppo di armamenti autonomi e AI applicata.
“Gli Stati Uniti hanno lanciato un’iniziativa che promuove la cooperazione internazionale sull’uso responsabile dell’intelligenza artificiale e delle armi autonome da parte dei militari”, si legge dalla fonte ABC News in un articolo del 16 febbraio 2023. Tale iniziativa, dichiarata al termine di una conferenza di due giorni a L’Aia, mirerebbe al raggiungimento di un quadro normativo aggiornato ai recenti utilizzi dell’intelligenza artificiale applicata in ambito militare. Tutto ciò con relativa urgenza considerati i progressi nella tecnologia dei droni, nel corso della guerra russo-ucraina, i quali hanno accelerato una tendenza che potrebbe presto far approdare sul campo di battaglia i primi robot da combattimento completamente autonomi al mondo.
Conclusioni
La diffusione dell’impiego dell’intelligenza artificiale e armi autonome porta, naturalmente, numerose preoccupazioni e criticità. Per prima cosa, l’AI può sbagliare e i danni collaterali potrebbero essere incalcolabili, essendo gli esseri umani i primi a farne le spese. L’AI non ha capacità di comprendere un errore mentre lo sta commettendo.
Un errore di programmazione potrebbe far passare dei civili per militari nemici, provocando attacchi su obiettivi illegittimi per un periodo di tempo indeterminato, ovvero fin quando un operatore non riesca a risolvere la problematica emersa. La criticità più elevata si manifesta se pensiamo alla proliferazione di queste armi. Portando i droni kamikaze come esempio, le possibilità di errori catastrofici aumenta esponenzialmente all’impiego di certi armamenti. In conclusione, se certe armi letali finissero nelle mani di organizzazioni criminali o terroristiche potrebbero utilizzarle senza esitazione per raggiungere i loro scopi, con effetti devastanti tra le popolazioni.