Robot da guerra autonomi, animati da intelligenza artificiale: che tentazione sempre più forte per le nazioni.
Già, perché è molto allettante l’idea di possedere un esercito da inviare in qualsiasi zona di guerra, anche la più ostile alla sopravvivenza umana; per ingaggiare una battaglia che, almeno dalla propria parte, non avrà perdite di vite umane.
Non a caso, in giro per il mondo, stanno nascendo società che integrano carri armati, torrette di controllo, sottomarini e droni già dotati di AI e la tentazione, per molti governi, è palesemente forte.
La funzione chiave di questi sistemi utilizzati nei conflitti militari dovrebbe essere quella di saper discernere soggetti nemici in azione su un campo di guerra ed aprire il fuoco in maniera (teoricamente) discriminata ed autonoma, a differenza dei sistemi di tracciamento già in uso in tutti gli eserciti che, però, lasciano il potere decisionale a un umano che preme fisicamente il grilletto.
Dal Golem alle tre leggi della robotica di Asimov
Del resto, si perde nella notte dei tempi la leggenda del Golem, statua di argilla dalle fattezze umane, che obbediva ciecamente agli ordini del suo padrone.
Un essere possente ed indistruttibile che, oltre a sollevare il proprio padrone dai lavori più difficili e pesanti, difendeva i possedimenti dai possibili nemici.
Questa leggenda ha portato negli anni e nei secoli passati a cercare la soluzione nell’esoterismo o persino nell’alchimia. Invece, un fervido incipit di quello che sta succedendo e potrebbe succedere nella nostra epoca è stato sviluppato e discusso ampiamente dalla fantasia degli scrittori e registi del genere fantascientifico. Il più emblematico è Isaac Asimov che, con grande anticipo, cominciò non solo a disquisire di AI ma a porsi domande sulla eticità dei robot ovvero a studiare quale regolamentazione fosse possibile sulle potenzialità dell’autonomia decisionale di esseri artificiali: le tre leggi della robotica.
Le problematiche nella gestione di entità dotate di AI
Tornando al giorno d’oggi, alcune dissertazioni di Asimov fanno riflettere a sorta di anatema su quali possano essere le problematiche nella gestione di entità dotate di intelligenza artificiale.
Se da un lato possiamo ritenerci orgogliosi di riuscire a creare il nostro Golem, capace di prendere azioni autonome nel caso fossimo colti da infarto, dall’altro dobbiamo preoccuparci della possibilità che una AI decida, in maniera autonoma, che noi siamo dei soggetti violenti da attenzionare alle forze dell’ordine per il semplice fatto che imprechiamo davanti ad un gol subìto dalla nostra squadra del cuore.
Se può far sorridere l’esempio appena citato, non dovrebbe far sorridere il fatto che, negli ultimi anni, alcuni stati cerchino di far ratificare dall’ONU la possibilità di utilizzare delle armi dotate di AI. Sistemi automatici capaci di discernere soggetti nemici in azione su un campo di guerra ed aprire il fuoco in maniera (teoricamente) discriminata ed autonoma.
Tali tecnologie sono chiamate, a mio avviso beffardamente, LAWS (Lethal Autonomous Weapon System).
Tale generazione di armi è l’evoluzione delle armi già in uso in tutti gli eserciti. Sistemi di tracciamento del nemico che, però, lasciano come ultimo potere decisionale un umano che preme fisicamente il grilletto. Ad esempio, i sistemi di puntamento dinamico della contraerea.
La tentazione dei robot da guerra
La tentazione è palesemente forte. Gli Usa sono accarezzati dall’idea di poter migliorare il loro sistema di combattimento da remoto. Per ora droni terrestri, aerei e marini vengono pilotati nell’azione offensiva da un umano che, dati alla mano, decide se “ingaggiare un attacco”.
La Cina e altri stati sperano che la AI possa riempire il gap di strategie militari conseguite col tempo dagli avversari. Quindi, possedere un esercito da inviare in qualsiasi zona di guerra, anche la più ostile alla sopravvivenza umana, per ingaggiare una battaglia che, almeno dalla propria parte, non avrà perdite di vite umane è un’idea molto allettante. Soprattutto se, in giro per il mondo, stanno nascendo società che integrano carri armati, torrette di controllo, sottomarini e droni già dotati di AI. Non solo, la funzione chiave della AI nei conflitti militari dovrebbe essere quella di saper discernere, in maniera oggettiva, tra un reale nemico ed un civile magari utilizzato come scudo umano.
La AI non dovrebbe creare incresciosi incidenti relativi al “fuoco amico” dovuti ad inesattezze o, anche, da pregiudizi ai quali può cadere anche il più addestrato militare professionista.
Ritornando alle tre leggi di Asimov, un robot dotato di IA potrebbe lasciarsi sacrificare sotto il fuoco nemico in caso di incapacità di raggiungere il proprio obiettivo o difficoltà a comprendere chi siano i buoni ed i cattivi.
Ecco. Negli ultimi paragrafi ho utilizzato il condizionale poiché, è bene ricordarlo, la AI parte da una programmazione umana che, progressivamente, acquisisce informazioni e capacità decisionali autonome fino ad arrivare, in linea teorica, alla singolarità con l’intelligenza umana.
AI, eserciti e rivolta dei robot
Chi ha un vissuto da programmatore ha già compreso la mia perplessità.
Innanzitutto, se, ab initio, instillo nell’algoritmo una discriminante relativa ad una etnia, in linea teorica tutto l’apprendimento della AI si baserà su questo “peccato originale”. Un easter egg per intenderci che dal lato scientifico può risultare interessante ma, dal lato pratico, apre a scenari inimmaginabili legati ad un inconscio artificiale ereditato da quello umano.
Ma non solo. Una delle maggiori attività compiute dagli esperti informatici è la continua ricerca di vulnerabilità nei sistemi informatici. Se già perdere il controllo di una centrale nucleare non è una prospettiva rassicurante, figuriamoci ritrovarsi con mezzi navali, terrestri ed aerei che, improvvisamente, decidono in “maniera autonoma” di rivoltarsi contro. Ancor di più terribile se la rivolta dei robot non è basata su un’intrusione informatica ma una semplice conseguenza logica del “non ci prenderete vivi”.
Concludo con il classico dubbio sulla sicurezza dei dati trattati ed elaborati dalla AI. Ponti radio e/o satelliti per la trasmissione dei dati sono di per sé una superficie d’attacco per chi volesse intrufolarsi malevolmente in tali trasmissioni. Inoltre, come oramai succede per la totalità dei servizi informatici, chi garantirà che un sistema gestito in outsourcing, in uno Stato terzo, sia la migliore strategia?