La natura camaleontica ha permesso all’intelligenza artificiale di evolversi e di penetrare nei più disparati campi applicativi, noti e meno noti. Se pressoché tutti noi conosciamo le sue potenzialità in campo consumer – come per i nostri dispositivi elettronici – sono ancora ignote nel dettaglio (o potremmo dire, “top-secret”) le sue applicazioni in campo militare.
L’intelligenza artificiale nel settore militare: vantaggi, rischi e tutele necessarie
Il progetto Maven
Prendiamo, ad esempio, il controverso progetto statunitense Maven, studio portato avanti dal Pentagono (Dipartimento della difesa USA) che utilizza l’apprendimento automatico (Machine Learning) per classificare – attraverso enormi masse di dati di intelligence, di sorveglianza e ricognizione – video, documenti cartacei e dispositivi di archiviazione raccolti dal dipartimento e dalle agenzie di intelligence USA per l’uso operativo (si parla anche di “guerra algoritmica”).
Nel 2018, quando i dipendenti di Google scoprirono il coinvolgimento della loro azienda nel progetto, ci furono diverse proteste e dimissioni, tali da spingere la multinazionale di Mountain View a non rinnovare il contratto per l’anno seguente. Project Maven, tuttavia, esiste ancora e, certamente, non attende un ripensamento di Google (magari lo auspica); altre aziende come Amazon e Microsoft, infatti, hanno “preso il posto” di Google nell’ultimo triennio.
Le linee guida Usa per una AI responsabile in campo militare
Eppure, il Dipartimento della Difesa degli Stati Uniti sa di avere un “problema di fiducia” con le Big Tech; ed è ben cosciente che se vuole svettare tra i suoi competitor (vedi Pechino) è assolutamente necessario che i giganti statunitensi del campo tecnologico collaborino con la “home of the brave”. Nel tentativo di promuovere la trasparenza, la Defense Innovation Unit USA, che assegna i contratti del Dipartimento della Difesa alle aziende, ha rilasciato delle linee guida sulla “Intelligenza Artificiale responsabile”[1], che richiedono agli sviluppatori di terze parti di utilizzare quanto prescritto dal momento della costruzione e dell’implementazione dell’intelligenza artificiale in ambito militare. Le linee guida forniscono un processo “step-by-step” per le aziende da seguire durante la pianificazione, lo sviluppo e la messa in opera della tecnologia. Tali linee guida includono procedure per identificare chi potrebbe usare la tecnologia, chi potrebbe essere danneggiato da essa, quali potrebbero essere questi danni e come potrebbero essere evitati, sia prima della costruzione del sistema che dopo.
Le linee guida statunitensi sull’intelligenza artificiale “responsabile” si piazzano in un vuoto normativo che ha visto, sinora, la piena libertà di campo per le aziende (soprattutto di rifiutare le “avance” del Pentagono!). E si inizia a parlare anche di un’estensione di tali linee guida ad altri dipartimenti USA (quasi azzardando, una sorta di “AI of the Federal government of the United States”). Invero, in tal senso potrebbe cambiare il modo in cui l’intelligenza artificiale viene “vista” dall’esecutivo a stelle e strisce, con queste entità che seguono – tra agenzie e dipartimenti – come primi “interessati”: NOAA (National Oceanic and Atmospheric Administration, agenzia federale USA che si occupa di oceanografia, meteorologia e climatologia); Dipartimento dei Trasporti; Dipartimento di Giustizia (ove è vivo il dibattito sulle questioni etiche); General Services Administration (agenzia USA per il funzionamento di base delle agenzie federali); e l’IRS (“Internal Revenue Service”, agenzia governativa USA per la riscossione dei tributi).
Lo scopo delle linee guida
Lo scopo delle linee guida in esame è quello di assicurarsi che le aziende tecnologiche USA interessate si attengano ai principi etici dell’intelligenza artificiale portati avanti dal Dipartimento di Difesa americano. Il Pentagono ha annunciato questi principi l’anno scorso, a seguito di uno studio di due anni commissionato dal Defense Innovation Board[2], un comitato consultivo di importanti ricercatori e uomini d’affari in campo tecnologico istituito nel 2016 con il fine di creare un “legame” tra Silicon Valley ed esercito degli Stati Uniti. Il Board è stato presieduto fino al settembre 2020 dall’ex CEO di Google Eric Schmidt. Eppure, alcuni critici mettono in dubbio che il lavoro prometta una riforma significativa. Durante lo studio, il Board consultò una serie di esperti, compresi i maggiori critici dell’uso dell’intelligenza artificiale in campo militare (compresi gli organizzatori delle proteste contro il Project Maven in Google).
Le lacune delle linee guida
Tutta la partita, lo si può ribadire più e più volte, si gioca sul consenso che il mondo delle aziende private darà alle linee guida del Dipartimento di Difesa USA. Ove non fossero rispettate non sarebbero seguite. È chiaro che alcune aziende – per evitare vincoli – non le seguiranno; ovviamente queste realtà non sono l’obiettivo di punta del governo USA. Bisogna puntare ad essere realistici su ciò che tali linee guida possono e non possono fare. E qui casca l’asino. Inoltre, le linee guida federali non dicono nulla, ad esempio, su questioni “particolari” come l’uso di armi autonome (ossia senza la presenza dell’uomo), una tecnologia che alcuni attivisti sostengono dovrebbe essere vietata tout court. Tuttavia, l’obiettivo delle linee guida del Pentagono è quello di rendere più facile costruire un’intelligenza artificiale che soddisfi i criteri regolamentari federali. E parte di questo processo è quello di far emergere qualsiasi preoccupazione o suggerimento che gli sviluppatori di terze parti possono avere sul punto. Una valida applicazione di queste linee guida, ad esempio, sarebbe quella di decidere di non perseguire un particolare sistema e di procedere con uno diverso, optando per una soluzione a scapito di un’altra.
Le linee guida in esame possono aiutare a rendere un progetto più trasparente per coloro che ci lavorano (almeno in teoria). Una delle principali critiche mosse dai dipendenti di Google che, come accennato, protestarono nel 2018 per la collaborazione tra la loro azienda e il mondo militare statunitense, era dovuta proprio alla mancanza di linee guida e, in generale, a un’assenza di trasparenza. Con questa “mossa regolamentare”, è utile ribadire, si cerca di attrarre la collaborazione dei colossi puntando alla valorizzazione degli aspetti etici dell’intelligenza artificiale applicata al campo militare USA.
Conclusioni
Vi è ovviamente ancora della strada da fare prima che il Dipartimento della Difesa USA ottenga la fiducia dei colossi Big Tech. Il problema risiede anche nel fatto che alcune delle formulazioni presenti nelle linee guida sono aperte a diverse interpretazioni. Per esempio, nelle linee guida si dichiara che il Dipartimento della Difesa USA prenderà le misure necessarie per ridurre al minimo i pregiudizi involontari che possono inficiare l’intelligenza artificiale, lasciando deliberatamente fuori tutti i pregiudizi intenzionali. Particolarità queste che possono portare a differenze interpretative rilevanti. D’altronde, “the devil is in the details”.[3]
Note
- Defense Innovation Unit Publishes ‘Responsible AI Guidelines’. U.S. Department of Defense ↑
- Artificial Intelligence Test, Evaluation, Validation & Verification (AI TEV/V) for DoD: Introduction Sheet. Defense Innovation Board ↑
- The Department of Defense is issuing AI ethics guidelines for tech contractors. MIT Technology Review ↑