Un documento dell’ONU ha evidenziato per la prima volta l’uso in Libia di droni gestiti da sistemi di intelligenza artificiale, che non necessitano dunque di controllo umano per colpire l’obiettivo. L’impiego di armamenti di questo tipo sta sollevando diversi dubbi in merito alla legittimità dell’utilizzo di tali dispositivi per scopi militari, e dibattiti etici sulla responsabilità giuridica delle conseguenze del loro impiego.
Intelligenza artificiale in campo militare: stato dell’arte, scenari e ruolo dell’Italia
Lethal Autonomous Weapons, i vantaggi
Gli esperti incaricati dalle Nazioni Unite di far luce sulle violazioni commesse durante la guerra civile in Libia hanno riferito, in un report pubblicato di recente, dell’utilizzo di particolari droni di fabbricazione turca che sarebbero stati impiegati contro obiettivi delle forze del generale Haftar. Nonostante i droni siano ormai da molti anni in dotazione alle forze militari, gli “STM Kargu-2” citati nel report presentano l’ulteriore caratteristica di essere gestiti e guidati da un’intelligenza artificiale. Infatti, le munizioni esplosive in dotazione possono essere sganciate contro un obiettivo in maniera autonoma, senza alcun controllo specifico dell’operatore: una volta assegnato il bersaglio, il drone è in grado di individuarlo tramite sistemi di computer vision.
L’utilizzo di tali tecnologie, oltre a presentare un vantaggioso rapporto costi-benefici dato dal dispiegamento minore di forze “umane”, fornisce importanti opportunità dal punto di vista strategico. Infatti, le forze militari spesso non sono addestrate a far fronte a simili minacce, e ciò garantisce un notevole vantaggio alla controparte avversaria, così come avvenuto nel recente conflitto in Nagorno-Karabakh.
Non stupisce quindi che diversi paesi stiano puntando sullo sviluppo di questi armamenti, che vengono definiti “Lethal Autonomous Weapons” (LAW).
Gli interrogativi di diritto internazionale
La proliferazione di queste armi e l’uso dell’intelligenza artificiale applicata al contesto bellico aprono degli interrogativi di diritto internazionale, specialmente per quel che concerne il diritto umanitario. Il dispiegamento di droni guidati dall’intelligenza artificiale, infatti, deve ancora essere pienamente compreso e incluso in categorie giuridiche che ne dovrebbero delimitare i confini. Gli stessi droni, anche se pilotati dall’uomo, sono tutt’ora oggetto di studio e dibattito in merito alle varie implicazioni in tema di responsabilità e attribuzione, ma l’utilizzo di sistemi di IA, che li renderebbero autonomi, richiedono senz’altro un’attenzione più profonda e una regolamentazione più puntuale.
L’intelligenza artificiale non può infatti render conto del modo in cui prende le decisioni in relazione a una determinata azione: eventuali errori e incapacità di giudizio sollevano quesiti sul tema della responsabilità, tanto da un punto di vista etico quanto giuridico.
Un eventuale errore di valutazione della macchina in un conflitto armato può tradursi nella violazione dei principi di diritto umanitario di distinzione e proporzionalità. In merito al primo, si può ben capire come la macchina, non avendo la capacità di discernimento dell’uomo, potrebbe interpretare le circostanze in modo da attaccare soggetti civili, non riuscendo a distinguere tra essi e i corpi militari. D’altronde, il principio di proporzionalità dell’attacco potrebbe ugualmente essere disatteso nel momento in cui l’intelligenza artificiale non riuscisse a comprendere le mutate circostanze di un conflitto, continuando così a operare su un binario stabilito dagli algoritmi e proseguendo nella sua azione incurante del nuovo scenario.
Le posizioni di Onu e Ue
Le stesse Nazioni Unite hanno evidenziato come l’impiego delle LAW potrebbe provocare la rottura delle regole tradizionali di utilizzo delle armi convenzionali, specialmente per quanto riguarda il rispetto del diritto umanitario, dal momento che verrebbe meno l’elemento umano nella decisione dell’attacco e nel suo stesso svolgimento. Il lavoro delle Nazioni Unite si sta concentrando, infatti, nel tentativo di trovare una nuova sistemazione alle nuove tecnologie militari nell’alveo della Convenzione di Ginevra e dei principi di diritto umanitario. Nonostante le riunioni del Group of Governmental Experts (GGE) dedicato siano ultimamente in stallo a causa della pandemia, già nel 2019 erano stati rilasciati 11 principi guida che dovrebbero regolare lo sviluppo di tali armamenti. Lo stesso presidente del Comitato internazionale della Croce Rossa ha recentemente evidenziato l’urgente necessità, per tutti gli stati, di concertare una regolazione stringente sull’impiego delle LAW, dal momento che “la maggior parte di noi può essere d’accordo sul fatto che un algoritmo – un processo automatico – non dovrebbe determinare chi vive o chi muore, che la vita umana non deve essere ridotta ai dati dei sensori e ai calcoli delle macchine”.
All’inizio del 2021, anche l’Unione Europea ha espresso la propria posizione sullo sviluppo di armamenti dotati di intelligenza artificiale attraverso il Parlamento Europeo che, con la maggioranza dei voti, ha adottato un testo di linee guida per definire un perimetro legale ed etico che regolamenti l’uso dell’Intelligenza Artificiale in ambito civile e militare. Con riferimento a quest’ultimo punto, l’Istituzione europea ha ribadito come sia imprescindibile il requisito del controllo umano, impedendo la realizzazione di sistemi d’arma c.d. “human out of the loop”, così come dei c.d. killer robots. Esso rimarca infatti come l’identificazione di un obiettivo e la decisione di intraprendere un attacco dovrebbe sempre essere riconducibile a un controllo umano.
Conclusioni
È evidente come, oltre alle lacune di interpretazione giuridica, ci si trovi di fronte a un tema dalla fortissima impronta etica. Proprio per questa ragione, si notano tendenze diverse per quanto riguarda lo sviluppo e l’utilizzo delle LAW. Se alcuni stati si oppongono fermamente al loro sviluppo e utilizzo, ve ne sono altri, quali Russia e Stati Uniti, che al contrario evidenziano come tali armamenti potrebbero contribuire a una maggior accuratezza dei sistemi di guida e quindi a minori danni collaterali che potrebbero coinvolgere la popolazione civile.
In questo contesto, appare importante capire come possa essere applicabile il senso etico, una qualità spiccatamente umana, all’intelligenza artificiale, la quale non è in grado di discernere, ma solo eseguire ragionamenti secondo algoritmi prestabiliti, senza nemmeno la possibilità di reagire a ordini ritenuti ingiusti.
Risulta quindi di difficile individuazione il soggetto in capo al quale ricondurre un’eventuale responsabilità giuridica, sia esso il soldato che ha premuto un pulsante, il comandante che ha impartito gli ordini o, in un futuro prossimo, la macchina stessa che guiderà le azioni di altre macchine.