Era solo questione di tempo. Ora ci siamo. L’intelligenza artificiale (AI) è entrata in campo nei conflitti armati. Dapprima in Ucraina, con l’uso sempre più importante dei droni, poi durante il conflitto in corso nella striscia di Gaza si è fatto un ulteriore passo in avanti (o indietro?).
Uno degli eserciti più tecnologicamente avanzati del mondo, quello israeliano, non poteva non spingere la frontiera al suo limite, con l’utilizzo sul campo di diversi strumenti di intelligenza artificiale.
La storia di Mosab Abu Toha: i risvolti inquietanti del riconoscimento facciale
La storia di Mosab Abu Toha è tristemente famosa e paradigmatica. Mosab è un poeta palestinese che, insieme a molti altri profughi, stava tentando di lasciare la striscia di Gaza. Arrivato ad un checkpoint militare, si è messo in coda con il suo figlioletto di tre anni in braccio.
Dopo pochi minuti, gli è stato chiesto di uscire dalla fila e dopo circa mezz’ora è stato chiamato per nome e portato via per essere interrogato. Notate che tutto ciò è avvenuto senza alcun controllo dei documenti. Magia? No, la combinazione della tecnologia di riconoscimento facciale dell’azienda israeliana Coresight con Google Photos. Infatti, gli ufficiali dell’esercito usano Coresight in combinazione con Photos per caricare database di foto di sospettati e raffinare l’identificazione, grazie ai potenti algoritmi di ricerca immagini di Google. Il povero poeta è stato arrestato e picchiato come sospetto affiliato di Hamas, dopo di che è stato rilasciato con tante scuse perché la sua sospetta affiliazione era stato un errore dell’intelligence.
Il sistema Lavender
Vi è però un altro sistema di AI che desta ancora più preoccupazione, perché si avvicina pericolosamente al concetto di LAWS (Lethal Authonomous Weapon System). Si tratta di Lavender, il sistema utilizzato fin dalle prime fasi della guerra per identificare le persone target da eliminare e guidare le armi a destinazione.
Tecnicamente Lavender non è un’arma autonoma, perché la decisione finale viene presa da un operatore umano. Il sistema suggerisce il bersaglio indicando anche il tipo di persona presente nell’edificio o nell’area con un punteggio in base al livello dell’obiettivo nella gerarchia di Hamas. Magazine 972, fondato nel 2010 da quattro scrittori di Tel Aviv per fornire un’informazione indipendente e “dal campo” (tra i giornalisti ci sono anche molti palestinesi) sullo stato delle relazioni israeliano-palestinesi, riporta che in molti casi l’operatore umano dedica non più di venti secondi prima di autorizzare il lancio dei missili. Insieme a Lavender (che identifica le persone), esiste anche un sistema gemello chiamato Gospel, che identifica come bersagli edifici e strutture utilizzate dal nemico. Stessa modalità di utilizzo. Il sospetto che la conferma dell’operatore sia un puro passaggio formale per poter dire di non aver messo in campo armi autonome esiste ed è concreto.
Il dato inaccettabile delle vittime “collaterali”
In entrambi i casi c’è un altro dato inquietante, riportato sempre dal magazine 972: sembra che i militari israeliani abbiamo ricevuto delle linee guida che dicono che, per eliminare un elemento di basso rango nell’organizzazione di Hamas, sia accettabile la perdita di 10-15 civili innocenti.
Per un elemento di primo piano sono accettabili invece fino a 100 “vittime collaterali”. Non sappiamo se questo sia vero però, considerando che le statistiche sulle morti totali a Gaza parlano ormai di 33.000 persone di cui il 70% sono donne e minori, le linee guida di cui sopra diventano verosimili.
La partecipazione di Google al progetto Nimbus
Ciò che sorprende, nello scenario che si sta sviluppando, è anche l’utilizzo ibrido di strumenti sviluppati appositamente per supportare l’esercito (il sistema messo in campo da Coresight) insieme a strumenti quotidiani che tutti noi utilizziamo, come Google Photos.
Vi ricordate il vecchio motto di Google: “Don’t be evil”? Questo è certo un caso che fa riflettere. Google ha una grande attenzione nelle proprie policies e nelle proprie comunicazioni alle tematiche relative ai diritti umani. Tuttavia, in questo caso specifico, i dirigenti di Google sono stati particolarmente “prudenti” e non hanno rilasciato dichiarazioni.
Il tema si inserisce in una polemica che si trascina da mesi circa la partecipazione di Google al “Project Nimbus”, un progetto da 1,2 miliardi di dollari per la fornitura di tecnologia avanzata da parte di Google e Amazon al governo israeliano. Diversi dipendenti di Google e di DeepMind (azienda di AI controllata da Alphabet, la capogruppo che possiede anche Google) stanno protestando da mesi, chiedendo a Google di uscire dal Project Nimbus: mercoledì 17 aprile, come riportato dal NYT, Google ha licenziato 28 lavoratori dopo che dozzine di dipendenti hanno partecipato a sit-in negli uffici della società a New York e Sunnyvale, in California, per protestare contro il contratto di cloud computing della società con il governo israeliano.
Anche perché nelle policies per l’uso di Google Photo si dice esplicitamente che il prodotto non può essere usato per “promuovere attività, merci, servizi o informazioni che possano causare danni seri ed immediati alle persone”.
Inoltre, Google supporta il documento chiamato “Conflict-Sensitive Human Rights Due Diligence for ICT Companies”, un framework su base volontaria che aiuta le aziende tech a prevenire l’uso improprio dei loro prodotti in scenari di guerra.
La sorveglianza di massa dei palestinesi prima del conflitto a Gaza
In realtà il tema della sorveglianza di massa dei palestinesi si pone ben prima del conflitto a Gaza: nella West Bank questi strumenti sono usati da anni.
Tutto questo ci fa dire, con il Prof. Ethan Mollic di Wharton, che rispetto all’AI ci stiamo “focalizzando sul tipo sbagliato di apocalisse”. Infatti, gli scenari più divulgati dai media sono quelli in cui un’AI malevola prende il controllo del mondo, sono poco verosimili (almeno per ora), ma ci distraggono dai veri rischi dell’AI, che sono fondamentalmente quattro:
- Sorveglianza di massa: a questo proposito si vedano le interessantissime riflessioni della Zuboff o i casi già noti, ad esempio, di Clearview e di Palantir o del controllo del governo Cinese sulle minoranze.
- Disinformazione e manipolazione, deepfake e fake news in primis. Un caso da manuale è quello di Cambridge Analytica e della manipolazione delle elezioni di Trinidad e Tobago.
- Impatto sul lavoro: capire come lo scenario lavorativo cambierà e che impatti ci saranno sull’occupazione è uno dei grandi temi sociali sollevati dall’AI. Alcune ricerche evidenziano guadagni di produttività importanti, ad esempio, con l’uso dell’AI generativa, insieme a rischi che richiedono un’attenta vigilanza.
- Last but not least, le famigerate LAWS o armi letali autonome. Di quest’ultimo punto, che è forse quello che più si avvicina all’idea di apocalisse, parleremo nel prossimo paragrafo.
L’esclusione dall’AI Act della normazione dell’uso bellico dell’AI
Il 13 marzo 2024 il parlamento europeo ha approvato l’AI Act, frutto di un accordo raggiunto tra i paesi membri a dicembre 2023. Si tratta certamente di una pietra miliare, perché per la prima volta si tenta di regolamentare l’uso dell’AI. Si prendono in giusta considerazione i rischi di manipolazione, i rischi di sicurezza, la protezione dei dati, il tema della trasparenza dei modelli. L’approccio si basa sull’analisi dei rischi, che categorizza le AI in:
- Rischio inaccettabile (applicazioni proibite), come sistemi di social scoring, di manipolazione o di identificazione biometrica di massa (con delle eccezioni);
- Alto rischio, come le applicazioni di valutazione in ambito educativo, le applicazioni ad infrastrutture critiche ecc…;
- Rischio limitato: elaborazioni di immagini, chatbots…;
- Rischio minimo: videogiochi, filtri anti-spam…
Al lettore attento non sarà sfuggito che nella lista sopra non si citano le applicazioni militari. Infatti, nel punto 24 del regolamento si spiega che le applicazioni dell’AI per fini militari “should be excluded from the scope of this Regulation”[1], perché normate dal Capitolo 2 – Titolo V del TEU (Treaty on European Union) e da altre leggi nazionali e internazionali.
Time to Act! (ovvero l’elefante nella stanza)
Al di là delle motivazioni legali per l’esclusione dall’AI Act della normazione dell’uso bellico dell’AI, resta il fatto che l’elefante nella stanza è lì ed è davvero ingombrante. Abbiamo normato giustamente tanti aspetti, incluso l’utilizzo ad esempio dell’AI per filtrare le candidature lavorative (AI Act – Annex III punto 4.a), ma ci siamo “dimenticati” dell’elefante.
Senza nulla togliere all’importanza dell’AI Act, strumento fondamentale per orientare la valutazione dei rischi e la predisposizione di controlli e misure di mitigazione appropriate nell’ambito dell’AI “per usi civili”, è ora indispensabile regolamentare quanto prima l’utilizzo dell’AI in ambito militare. Di esempi ce ne sono molti: dalla convenzione di Parigi sul bando delle armi chimiche al trattato per la proibizione delle armi nucleari.
Purtroppo questo non basta, perché il trattato di non proliferazione delle armi nucleari lo hanno firmato… i paesi che non hanno armi nucleari! E il trattato sulle armi chimiche non ha impedito l’uso delle armi chimiche anche nei recenti conflitti.
Le misure che servono ora
Tuttavia, un accordo internazionale che ponga dei limiti, ad esempio, sulle armi letali autonome è fondamentale per definire un contesto generale e per raggiungerlo l’Europa potrebbe dare un contributo fondamentale. È importante però agire ora, prima che si generi una prassi che potrebbe diventare un punto di non ritorno.
Il passo successivo dovrebbe essere una riforma della governance mondiale su questi temi. Ian Bremmer, nella sua lucida analisi sul mondo “leaderless” che sta emergendo, propone la creazione di una WDO o “Wold Data Organization”. Forse sarebbe il caso di pensare invece ad una WAIO o World AI Organization, per governare e orientare la ricerca e lo sviluppo di strumenti di AI a servizio dell’uomo, tenendo lo sguardo fisso sui veri rischi, senza farci ingannare da sensazionalismi mediatici che ci portano a temere il tipo sbagliato di apocalisse. Prima che l’elefante faccia danni irreparabili e forse, da quello che stiamo vedendo emergere sul campo, questa volta veramente apocalittici.
[1] “Devono essere escluse dall’ambito di questo regolamento”