Le linee guida

Armi con l’intelligenza artificiale, la via etica: il Governo Usa si rivolge alle big tech

Il Dipartimento della Difesa Usa sa di avere un “problema di fiducia” con le Big Tech e, nel tentativo di promuovere la trasparenza, ha rilasciato delle linee guida sulla “Intelligenza Artificiale responsabile”. Ecco lo scopo del documento e le lacune da colmare

Pubblicato il 23 Nov 2021

Luigi Mischitelli

Legal & Data Protection Specialist at Fondazione IRCCS Casa Sollievo della Sofferenza

intelligenza artificiale: Foto di Gerd Altmann da Pixabay

La natura camaleontica ha permesso all’intelligenza artificiale di evolversi e di penetrare nei più disparati campi applicativi, noti e meno noti. Se pressoché tutti noi conosciamo le sue potenzialità in campo consumer – come per i nostri dispositivi elettronici – sono ancora ignote nel dettaglio (o potremmo dire, “top-secret”) le sue applicazioni in campo militare.

L’intelligenza artificiale nel settore militare: vantaggi, rischi e tutele necessarie

Il progetto Maven

Prendiamo, ad esempio, il controverso progetto statunitense Maven, studio portato avanti dal Pentagono (Dipartimento della difesa USA) che utilizza l’apprendimento automatico (Machine Learning) per classificare – attraverso enormi masse di dati di intelligence, di sorveglianza e ricognizione – video, documenti cartacei e dispositivi di archiviazione raccolti dal dipartimento e dalle agenzie di intelligence USA per l’uso operativo (si parla anche di “guerra algoritmica”).

Nel 2018, quando i dipendenti di Google scoprirono il coinvolgimento della loro azienda nel progetto, ci furono diverse proteste e dimissioni, tali da spingere la multinazionale di Mountain View a non rinnovare il contratto per l’anno seguente. Project Maven, tuttavia, esiste ancora e, certamente, non attende un ripensamento di Google (magari lo auspica); altre aziende come Amazon e Microsoft, infatti, hanno “preso il posto” di Google nell’ultimo triennio.

Le linee guida Usa per una AI responsabile in campo militare

Eppure, il Dipartimento della Difesa degli Stati Uniti sa di avere un “problema di fiducia” con le Big Tech; ed è ben cosciente che se vuole svettare tra i suoi competitor (vedi Pechino) è assolutamente necessario che i giganti statunitensi del campo tecnologico collaborino con la “home of the brave”. Nel tentativo di promuovere la trasparenza, la Defense Innovation Unit USA, che assegna i contratti del Dipartimento della Difesa alle aziende, ha rilasciato delle linee guida sulla “Intelligenza Artificiale responsabile”[1], che richiedono agli sviluppatori di terze parti di utilizzare quanto prescritto dal momento della costruzione e dell’implementazione dell’intelligenza artificiale in ambito militare. Le linee guida forniscono un processo “step-by-step” per le aziende da seguire durante la pianificazione, lo sviluppo e la messa in opera della tecnologia. Tali linee guida includono procedure per identificare chi potrebbe usare la tecnologia, chi potrebbe essere danneggiato da essa, quali potrebbero essere questi danni e come potrebbero essere evitati, sia prima della costruzione del sistema che dopo.

Le linee guida statunitensi sull’intelligenza artificiale “responsabile” si piazzano in un vuoto normativo che ha visto, sinora, la piena libertà di campo per le aziende (soprattutto di rifiutare le “avance” del Pentagono!). E si inizia a parlare anche di un’estensione di tali linee guida ad altri dipartimenti USA (quasi azzardando, una sorta di “AI of the Federal government of the United States”). Invero, in tal senso potrebbe cambiare il modo in cui l’intelligenza artificiale viene “vista” dall’esecutivo a stelle e strisce, con queste entità che seguono – tra agenzie e dipartimenti – come primi “interessati”: NOAA (National Oceanic and Atmospheric Administration, agenzia federale USA che si occupa di oceanografia, meteorologia e climatologia); Dipartimento dei Trasporti; Dipartimento di Giustizia (ove è vivo il dibattito sulle questioni etiche); General Services Administration (agenzia USA per il funzionamento di base delle agenzie federali); e l’IRS (“Internal Revenue Service”, agenzia governativa USA per la riscossione dei tributi).

Lo scopo delle linee guida

Lo scopo delle linee guida in esame è quello di assicurarsi che le aziende tecnologiche USA interessate si attengano ai principi etici dell’intelligenza artificiale portati avanti dal Dipartimento di Difesa americano. Il Pentagono ha annunciato questi principi l’anno scorso, a seguito di uno studio di due anni commissionato dal Defense Innovation Board[2], un comitato consultivo di importanti ricercatori e uomini d’affari in campo tecnologico istituito nel 2016 con il fine di creare un “legame” tra Silicon Valley ed esercito degli Stati Uniti. Il Board è stato presieduto fino al settembre 2020 dall’ex CEO di Google Eric Schmidt. Eppure, alcuni critici mettono in dubbio che il lavoro prometta una riforma significativa. Durante lo studio, il Board consultò una serie di esperti, compresi i maggiori critici dell’uso dell’intelligenza artificiale in campo militare (compresi gli organizzatori delle proteste contro il Project Maven in Google).

Le lacune delle linee guida

Tutta la partita, lo si può ribadire più e più volte, si gioca sul consenso che il mondo delle aziende private darà alle linee guida del Dipartimento di Difesa USA. Ove non fossero rispettate non sarebbero seguite. È chiaro che alcune aziende – per evitare vincoli – non le seguiranno; ovviamente queste realtà non sono l’obiettivo di punta del governo USA. Bisogna puntare ad essere realistici su ciò che tali linee guida possono e non possono fare. E qui casca l’asino. Inoltre, le linee guida federali non dicono nulla, ad esempio, su questioni “particolari” come l’uso di armi autonome (ossia senza la presenza dell’uomo), una tecnologia che alcuni attivisti sostengono dovrebbe essere vietata tout court. Tuttavia, l’obiettivo delle linee guida del Pentagono è quello di rendere più facile costruire un’intelligenza artificiale che soddisfi i criteri regolamentari federali. E parte di questo processo è quello di far emergere qualsiasi preoccupazione o suggerimento che gli sviluppatori di terze parti possono avere sul punto. Una valida applicazione di queste linee guida, ad esempio, sarebbe quella di decidere di non perseguire un particolare sistema e di procedere con uno diverso, optando per una soluzione a scapito di un’altra.

Le linee guida in esame possono aiutare a rendere un progetto più trasparente per coloro che ci lavorano (almeno in teoria). Una delle principali critiche mosse dai dipendenti di Google che, come accennato, protestarono nel 2018 per la collaborazione tra la loro azienda e il mondo militare statunitense, era dovuta proprio alla mancanza di linee guida e, in generale, a un’assenza di trasparenza. Con questa “mossa regolamentare”, è utile ribadire, si cerca di attrarre la collaborazione dei colossi puntando alla valorizzazione degli aspetti etici dell’intelligenza artificiale applicata al campo militare USA.

Conclusioni

Vi è ovviamente ancora della strada da fare prima che il Dipartimento della Difesa USA ottenga la fiducia dei colossi Big Tech. Il problema risiede anche nel fatto che alcune delle formulazioni presenti nelle linee guida sono aperte a diverse interpretazioni. Per esempio, nelle linee guida si dichiara che il Dipartimento della Difesa USA prenderà le misure necessarie per ridurre al minimo i pregiudizi involontari che possono inficiare l’intelligenza artificiale, lasciando deliberatamente fuori tutti i pregiudizi intenzionali. Particolarità queste che possono portare a differenze interpretative rilevanti. D’altronde, “the devil is in the details”.[3]

Note

  1. Defense Innovation Unit Publishes ‘Responsible AI Guidelines’. U.S. Department of Defense
  2. Artificial Intelligence Test, Evaluation, Validation & Verification (AI TEV/V) for DoD: Introduction Sheet. Defense Innovation Board
  3. The Department of Defense is issuing AI ethics guidelines for tech contractors. MIT Technology Review 

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati