E’ l’Intelligenza artificiale la tecnologia protagonista della ricerca in ambito bellico, che impegna le risorse dei principali Paesi nel mondo. Facciamo il punto sull’avanzamento dello sviluppo del settore e sui rischi degli autonomous weapons systems.
Guerra semiautomatica tra passato e futuro
La guerra semiautomatica ha sempre avuto il suo fascino, fin dalla seconda metà del secolo scorso. L’operazione White Igloo condotta dalla fine degli anni ’60 al 1973 in Vietnam dagli USA, risulta il primo caso documentato di guerra elettronica e militare.
Operazioni all’avanguardia prevedevano l’utilizzo di ogni tipo di sensore. Da quelli olfattivi, che sarebbero dovuti essere in grado di rilevare la presenza di ammoniaca (indicatore di urina dei soldati nemici), a quelli sonori, utili per rilevare i rumori dei mezzi nemici messi in accensione. Tutti i sensori riportavano i dati tramite canali a radiofrequenza. In base ai dati stessi furono sviluppate mine anti veicolo, antiuomo, bombe chimiche e molto altro. I dati ricevuti, che nella seconda fase dell’operazione erano raccolti da aerei da ricognizione in orbita, venivano poi analizzati dagli analisti che provvedevano a stilare modelli che avrebbero consentito di predire i percorsi delle truppe nemiche e strategie relative.
Costi che si aggiravano nell’ordine del miliardo di dollari (annui) dell’epoca, non servirono però agli Stati Uniti per aver successo nella lotta intrapresa nel sud-est asiatico. Ancora oggi infatti sia per gli elevatissimi costi, che per la scarsa affidabilità dei sensori questa operazione viene ritenuta dai più come fallimentare.
Ma che punto siamo oggi con l’Intelligenza artificiale? E’ evidente nella vita di tutti i giorni che un certo tipo di tecnologia abbia fatto molta strada, soprattutto in settori come Sanità digitale e finanza.
I governi, inoltre, investono sempre più risorse in quello che sembra essere il campo di applicazione al momento più ambito, i sistemi di arma autonomi.
Come era stato per la corsa agli armamenti nucleari, protagonista della seconda metà del Novecento, così oggi abbiamo una vera e propria gara agli armamenti di intelligenza artificiale. Quest’ultima sta accelerando in maniera decisa. Vi partecipano tutte le maggiori potenze militari come USA, Israele, Russia, Cina, Gran Bretagna e Francia.
Con la gara, ormai partita, per sviluppare armi sempre più autonome, gli stati fanno ancora maggiore affidamento sui produttori. Tecnologie sviluppate lavorando su un crescente bisogno di determinate caratteristiche.
Controllo dell’uomo e sistemi automatici
I sistemi militari in aria, terra e mare devono poter funzionare in numero sempre maggiore, per periodi più lunghi e in aree più ampie, con meno controllo remoto da parte di un essere umano. Questo però solleva seri dubbi su come sia garantito il controllo dell’uomo su questi sistemi d’arma.
Michael Horowitz dell’Università della Pennsylvania paragona l’intelligenza artificiale al motore a combustione interna o all’elettricità – una tecnologia pratica dotata di una miriade di applicazioni – dividendo le sue applicazioni militari in tre categorie. Una consiste nel permettere alle macchine di funzionare senza supervisione umana. Un’altra nel processare e interpretare ampi volumi di dati. La terza nel contribuire, o addirittura nel dirigere in prima persona, le attività belliche di comando e controllo.
Ma cos’è l’intelligenza artificiale? Spesso viene usata come espressione piuttosto generica e imprecisa. La verità è che l’IA è una materia molto vasta che varia dalla raccolta e processo di grandi quantità di dati al fascino dell’automazione più estrema. Le moderne tecnologie sono in grado di garantire un apprendimento davvero profondo da parte delle macchine. Queste ultime già oggi possono fare cose impossibili per gli essere umani. “Già oggi, un sistema d’intelligenza artificiale può avere prestazioni più elevate, all’interno di un combattimento aereo simulato, di quelle di un pilota militare esperto”, spiega Kenneth Payne del King’s College di Londra.
Nel febbraio scorso l’agenzia statunitense di progetti di ricerca avanzati per la difesa (Darpa), con la sezione che si occupa di sviluppo del settore aereo del Pentagono, ha condotto i più recenti test su una flotta di sei droni capaci di collaborare in un ambiente “ad alto rischio”, anche in assenza di un contatto con esseri umani.
Come potrebbe essere in pratica una guerra semi-automatizzata? La raccolta dati dai sensori, il processo con algoritmi sempre più complessi in grado di predire le mosse del nemico sono al centro del dibattito. L’IA sta modificando la natura stessa del campo di battaglia. Il Pentagono per il 2020 ha previsto l’ingente somma di quasi 1 miliardo di dollari per lo sviluppo delle nuove tecnologie artificiali. Investimenti nel campo, quindi, non solo finalizzate a migliorare la vita di tutti i giorni ma anche a creare armi potenzialmente letali.
Guerra semiautomatica, i player in campo
In questo scenario ovviamente non ci sono solo gli USA, ma un altro attore internazionale fortemente presente è la Cina che punta a diventare leader nel settore entro i prossimi 10 anni. Così come la Russia, dove Putin non ha mai nascosto di subire un certo fascino sull’argomento, dichiarando che chiunque diventerà leader in questo campo avrà un controllo incontrastato sullo scenario geopolitico.
Uno dei principali problemi che si pongono è proprio quello del come l’IA cambierà le guerre penetrando nei processi decisionali militari (la terza categoria descritta da Michael Horowitz), dalle unità di basso livello ai quartier generali nazionali.
Ci sono già diversi prodotti sul mercato, israeliani e britannici in primis, in grado di aiutare e affiancare i comandi militari a pianificare le missioni assemblando grandi quantità di dati riguardanti variabili come la posizione del nemico, il meteo, terreno, tipo di armi in uso e molto altro tra cui persino le possibili emozioni delle truppe nemiche. Analisi che con l’utilizzo dei metodi convenzionali richiederebbero agli uomini dalle 12 alle 24 ore di lavoro. Queste piattaforme riescono ovviamente a funzionare molto più velocemente di un cervello umano. In alcuni test le differenze sono state di 2 minuti contro le 16 ore occorse all’uomo.
Ovviamente a chi si concentra sui pro sull’uso di questa tecnologia si contrappongono coloro che guardano con scetticismo all’ascesa delle “autonomous weapon systems (AWS)”. Il dibattito sul loro uso per fini militari coinvolge grandi e piccole aziende in tutto il mondo ed in particolare nella Silicon Valley.
Il nodo etico al centro della scena
I problemi etici sono al centro della questione. Alla Carnegie Mellon University di Pittsburgh lavorano spalla a spalla personale militare e ricercatori civili collaborando a progetti avanguardistici guidati dal Pentagono. Questo percorso di affiancamento si è reso necessario proprio a causa delle molte critiche piovute dal mondo accademico e non solo.
Laura Nolan (ex ricercatrice di Google) ha affermato di recente, con un intervista al “The Guardian” che l’IA potrebbe avviare guerre o commettere atrocità di massa. “Pochissime persone ne parlano, ma se non stiamo attenti, robot assassini potrebbero accidentalmente iniziare una guerra lampo, distruggere una centrale nucleare e causare atrocità di massa”.
L’ ex ricercatrice di Mountain View ha sottolineato l’indiscutibile valore di alcuni progressi fatti nel campo dei missili guidati o di sistemi di difesa antimissile, ma ha spiegato anche come questi ultimi siano però sotto il totale controllo umano, e che quindi in ogni caso vi può essere un responsabile da identificare.
Difficile, invece, poter avere il controllo di sistemi governati integralmente da software, quasi impossibile poterli “addestrare” a discernere coscienziosamente tra un ribelle ed un cacciatore. Di chi sarebbe la responsabilità a quel punto in caso di un errore della macchina, basandosi questa prettamente su calcoli e apprendimento? La stessa Nolan aveva lasciato Google per concentrarsi su Project Maven, un’iniziativa sempre di Big G ma sponsorizzata dal Dipartimento della Difesa degli Stati Uniti (DARPA). Alla scadenza del contratto di progetto, 3.000 dipendenti di Google hanno firmato una petizione per protestare contro il coinvolgimento dell’azienda in un progetto di intelligenza artificiale (AI) del Dipartimento della Difesa statunitense che studia le immagini e potrebbe eventualmente essere utilizzato per migliorare gli attacchi dei droni sul campo di battaglia.
Obiettivi del Project Maven
Ma cosa era realmente Project Maven? Si trattava di una collaborazione tra Google e il Pentagono. Un progetto pilota per sviluppare sistemi di intelligenza artificiale per i droni militari di ultimissima generazione.
Maven, conosciuto anche col semplice acronimo AWCFT (Algorithmic Warfare Cross-Functional Team) avrebbe avuto lo scopo di “accelerare l’integrazione delle tecnologie per il machine learning e l’elaborazione dei big data da parte del Ministero della Difesa”. Nell’ambito appena descritto Google si sarebbe occupato proprio dello sviluppo di sistemi di analisi dei contenuti dei filmati catturati dai droni, non è chiaro se solo per compiti di sorveglianza o anche per dotare gli stessi di avanzate capacità di attacco autonomo tramite il riconoscimento di obiettivi sensibili.
Abbiamo visto come negli ultimi 40 anni il progresso in questo campo sia stato notevole con una brusca accelerata nell’ultimo decennio. Il futuro è quindi segnato, e l’utilizzo dell’IA in campo militare sembra destinato ad aumentare.
Ma d’altro canto si fa sempre più forte l’esigenza di una regolamentazione della materia dato l’insorgere della cosiddetta dimensione etica. Sono innegabili infatti le possibili implicazioni che riguardano le ripercussioni sulla dignità umana e il principio di non discriminazione. Senza per forza voler pensare a possibili scenari di guerra, ci basti pensare che questo tipo di tecnologie sono già oggi in uso all’interno delle nostre auto, nel mondo medico diagnostico, o per dirimere questioni legali all’interno di tribunali come già succede in Estonia dove sulla base di cause già risolte vengono emessi giudizi grazie proprio all’AI.
La Commissione Europea recentemente ha stilato delle linee guida in cui viene evidenziato il bisogno di avere al più presto una strategia comune atta a garantire l’etica delle intelligenze artificiali fondata su un approccio umano centrico. La strada sembra essere quella giusta, ma molto c’è ancora da fare, specie in ambito nazionale.