La Ue continua a lavorare per giungere alla messa al bando internazionale delle armi automatiche dotate di intelligenza artificiale (Autonomous Weapons Systems – AWS) nonostante la contrarietà di alcuni governi. L’utilizzo di questi sistemi nei conflitti armati pone questioni etiche e giuridiche rilevantissime a causa della loro capacità di agire autonomamente, senza bisogno di un operatore umano, ma secondo alcuni Stati ed esperti, non sono necessarie nuove norme, in quanto quelle già in vigore sarebbero sufficienti a regolamentarne l’uso. Facciamo il punto sui principali sviluppi di un processo intergovernativo che non si è ancora concluso.
Autonomous Weapons Systems, tutte le questioni aperte
L’utilizzo di armi tipo AWS viola di per sé i diritti umani? Schierare gli AWS va contro lo jus in bello? Chi è responsabile per le loro azioni? Tali domande si presentano perché per la prima volta si tratterebbe di armi che da semplici “oggetti” potrebbero sostituire i “soggetti” dell’azione militare, i soldati in carne ed ossa, con tutte le ripercussioni del caso in termini di prevedibilità delle loro azioni, adeguatezza al rispetto del diritto internazionale umanitario e dei diritti umani e responsabilità penale in caso di commissione di crimini internazionali.
A dodici mesi di distanza dalla prima riunione del Group of Governmental Experts (GGE) in seno alla Convention on Conventional Weapons (CCW), a Ginevra nel novembre 2017, lo sviluppo tecnologico continua a progredire più velocemente del diritto e della diplomazia multilaterale ma possiamo adesso quantomeno intravedere con più chiarezza quali potrebbero essere gli esiti del processo di regolamentazione a più voci invocato.
La Ue al lavoro per la messa a bando delle AWS
Tale processo è sostenuto soprattutto dall’Unione Europea e dal suo Parlamento, che il 5 settembre 2018 ha adottato una mozione con cui spinge tutti gli Stati membri – e in particolare Francia e Germania, che si sono dimostrati meno collaborativi – a lavorare per una messa al bando degli AWS a livello internazionale.
Nel corso delle due sessioni del GGE di aprile e agosto 2018, nonostante il numero di Stati a favore dell’adozione di un documento vincolante che proibisca i Lethal Autonomous Weapons Systems (LAWS) sia cresciuto da 22 a 26, importanti attori quali Francia, Israele, Russia, UK e USA si sono espressi contro l’adozione di un trattato internazionale apposito.
Sebbene questo possa sembrare certamente un segnale preoccupante per i detrattori degli AWS, anche qualora il progetto di adozione di un nuovo trattato internazionale ad hoc (progetto che potrebbe comunque continuare ad essere perseguito dagli Stati favorevoli) fallisse, esisterebbero altre strade – più o meno efficaci – che possono essere battute per limitarne l’utilizzo.
Gli Stati in ordine sparso sulle armi autonome
Come si evince dal documento finale adottato ad agosto, secondo alcuni Stati ed esperti nuove norme non sono necessarie, in quanto sia il diritto internazionale umanitario – che si applica nei conflitti armati – che gli altri regimi del diritto internazionale rilevanti avrebbero piena applicazione e conterrebbero già delle disposizioni sufficienti a regolamentare l’uso di questi sistemi autonomi di armi robotiche.
Altri sostengono che dovrebbe essere condotto uno studio più approfondito e comprensivo su come tali norme si applicherebbero al contesto degli AWS, che renda chiare le disposizioni più rilevanti e tenga conto di best practices adottate in contesti simili.
Altri ancora propongono come esito dei negoziati la mera adozione di una Political Declaration non vincolante e quindi una soluzione di soft law.
I principali sviluppi del processo intergovernativo
Tra gli elementi su cui sembra però essersi raggiunto un consenso vi è quello forse più rilevante di tutti: la necessità del mantenimento di un certo grado di coinvolgimento di operatori umani (human-in-the-loop) corrispondente ad una “responsible chain of human command and control”.
Nei suoi interventi in occasione delle due sessioni del GGE, il Comitato Internazionale della Croce Rossa (ICRC), custode del diritto internazionale umanitario, ha precisato come il diritto sia formulato per essere applicato da essere umani, che si assumono la responsabilità di eventuali violazioni – e non da macchine.
Per ribadire la fondamentale differenza tra esseri umani e intelligenza artificiale, tra i Guiding Principles individuati nella bozza adottata ad agosto è stato inoltre inserito il divieto di produrre AWS antropomorfi, che allontana l’evocativa e inquietante prospettiva Terminator.
Sarà a questo punto sulla definizione del grado di controllo umano (human control), sulla sua pervasività e sulla definizione stessa di Autonomous Weapons Systems (AWS) – su cui non si è ancora trovato un accordo – che si giocherà la partita in occasione dell’ultima sessione in programma del GGE, che si riunirà per dieci giorni nel corso del 2019.