Nel mondo dell’intelligenza artificiale si sta diffondendo una nuova preoccupazione, che riguarda un possibile controllo da parte dell’AI sulla guerra, sull’informatica e sulle armi nucleari.
Le restrizioni del presidente Usa Joe Biden di qualche mese fa sulla vendita dei chip alla Cina non erano finalizzato solo a rimettere in gioco l’industria americana. Vediamo perché.
AI e armi: i timori sulla gestione del campo bellico
Quando a ottobre scorso l’amministrazione USA aveva annunciato forti restrizioni sulla vendita di chip per computer avanzati alla Cina, l’intento non era solo quello di consentire all’industria americana di tornare in pista come competitor, ma anche il controllo degli armamenti. In questo modo gli USA e gli altri paesi avevano la possibilità di regolamentare l’applicazione dell’intelligenza artificiale nei sensori, nei missili e nelle armi informatiche, così da scongiurare anche il pericolo di robot killer e computer autonomi, mentre la Cina rallentava lo sviluppo delle armi guidate dall’AI, non potendo reperire i chip necessari.
Secondo i funzionari del Pentagono, però, sicuramente né Cina né Russia sarebbero state fermate da questa pausa nello sviluppo di ChatGPT aggiornate e iniziative simili. È evidente che si è diffuso un certo alone di timori sulla gestione dell’intelligenza artificiale del campo bellico, informatico e, tra i più temuti, nucleare. Tra gli interrogativi, quello sulla possibilità che ChatGPT possa favorire gli scontri tra le grandi potenze, senza passare da colloqui diplomatici e negoziali.
I tentativi di autoregolamentazione da parte dell’industria
L’ex presidente di Google, Eric Schmidt, presidente inaugurale del Defense Innovation Board dal 2016 al 2020, ha parlato dei vari tentativi di autoregolamentazione da parte dell’industria e delle “conversazioni informali che si stanno svolgendo nel settore – tutte informali – su come dovrebbero essere le regole della sicurezza dell’A.I.”. Lo si vede già dalle prime iterazioni di ChatGPT, che non risponde a domande “pericolose”, ad esempio su come paralizzare le centrifughe nucleari o su come far esplodere una diga.
Vero è che se ChatGPT ha sollevato il problema oggi, il Pentagono si è trovato ad affrontarlo già anni fa, quando ha istituito il Joint Artificial Intelligence Center, dedicato proprio allo studio dell’applicazione dell’intelligenza artificiale in guerra.
Le armi autonome già esistenti
Il possibile sviluppo di armi autonome, che escludano la presenza e l’intervento dell’uomo, sta facendo tremare i governi delle grandi potenze. Esistono già armi che funzionano con il pilota automatico, come i missili Patriot, che hanno una modalità automatica che permette loro di abbattere missili o aerei che entrano in uno spazio aereo protetto, senza che debba azionarli l’essere umano, e, in più, lo fanno anche in maniera più rapida, anche se in teoria è prevista una supervisione umana.
Come abbiamo già visto in precedenza, l’Ucraina, da questo punto di vista, si sta dimostrando più tecnologica dell’Occidente. Infatti, sono già in suo possesso sistemi di caccia con droni forniti di piccoli radar e veicoli aerei senza pilota, alimentati da intelligenza artificiale, della Fortem Technologies, con sede nello Utah. Questi radar sono programmati per individuare i droni nemici, che vengono disattivati dagli UAV sparando reti contro di loro, senza che vi sia l’intervento dell’uomo.
Al di fuori dell’Ucraina, possiamo citare i droni dotati di intelligenza artificiale di Israele, gli Harpy, esportati da anni e capaci di distruggere i radar e sostare al di sopra di quelli antiaerei per nove ore in attesa che si accendano.
Pechino è in possesso dell’elicottero senza pilota chiamato Blowfish-3; in Russia, abbiamo, ancora in fase di progettazione, Poseidon, il drone subacqueo AI a propulsione nucleare, che sarebbe in grado di attraversare un oceano in modo autonomo, eludendo le difese missilistiche esistenti, per consegnare un’arma nucleare pochi giorni dopo il lancio. Infine, nei Paesi Bassi è in fase di test su un robot terrestre dotato di una mitragliatrice calibro 50.
Necessaria una regolamentazione
Non esistono ancora delle linee guida sull’utilizzo di strumentazione autonoma, ma sono certamente necessarie, in particolare in ambito militare e di sicurezza nazionale. Questo per la rapidità con cui agiscono, anche a seguito di allarmi fuorvianti o addirittura falsi. Se la presenza umana garantisce un tempo decisionale, con la sola presenza dell’AI ne esiste un altro, più automatico appunto, e quindi più veloce, con un ovvio aumento del rischio di attacchi accidentali.
Come lo stesso Schmidt ha dichiarato, “Un problema centrale dell’IA in ambito militare e di sicurezza nazionale è come difendersi da attacchi che sono più veloci del processo decisionale umano, e credo che questo problema sia irrisolto […] In altre parole, il missile arriva così velocemente che deve esserci una risposta automatica. Cosa succede se si tratta di un falso segnale?”. Un esempio clamoroso di falso allarme lo troviamo nella Guerra Fredda, uno dei tanti in realtà, che fu generato dall’inserimento di un nastro di addestramento per esercitarsi alla risposta nucleare nel sistema sbagliato, da cui scaturì l’allarme di un potente attacco sovietico.
Il problema dell’intelligenza artificiale è che oltre a accelerare il potere decisionale delle armi autonome, con i rischi già citati che ne derivano, potrebbe accelerare anche quello dei governi. Anja Manuel, ex funzionario del Dipartimento di Stato e ora responsabile del gruppo di consulenza Rice, Hadley, Gates e Manuel, ha scritto di recente che anche se la Cina e la Russia non fossero pronte per i colloqui sul controllo degli armamenti in materia di AI, gli incontri sull’argomento porterebbero a discutere quali usi dell’AI sono considerati “al di là del limite”.
Se, da una parte, i governi potrebbero arrivare a delle conclusioni in questo senso, la vera preoccupazione risiede nell’uso che ne potrebbero fare i singoli, terroristi o gruppi hacker, che potrebbero, per esempio, scoprire che il software di intelligenza artificiale generativa è perfetto per accelerare i cyberattacchi e puntare alla disinformazione.
Conclusioni
Gli esperti ritengono che sia difficile arrestare l’evoluzione di questi sistemi avanzati come ChatGPT e simili, ma bisogna porre dei limiti sui chip speciali e altre potenze di calcolo che consentono l’avanzamento della tecnologia, almeno per cercare di controllare gli armamenti.