La globalizzazione sta cambiando forma. Mentre assistiamo a una frammentazione delle catene commerciali e a una ricollocazione degli attori per blocchi di affiliazione, sulla scena mondiale è in corso la creazione di un nuovo multilateralismo, costituito da strutture innovative.
La nascita dell’internazionale network of ai safety institutes
È questo il caso dell’International Network of AI Safety Institutes (AISI), che ha avuto i suoi natali a San Francisco, con la sottoscrizione di una dichiarazione di intenti a novembre 2024. I membri fondatori sono l’US AISI, l’UK AISI, l’EU AI Office, il Japan AISI, il Singapore AISI, il Korea AISI, il Canada AISI. AISI è l’acronimo di Artificial Intelligence Safety Institute.
All’evento hanno preso parte anche funzionari governativi, accademici, rappresentanti di organizzazioni private e della società civile, promotori del dialogo per affermare la necessità di una visione globale sulla sicurezza dell’IA
Coerentemente con l’affermazione dell’attuale Segretario per il Commercio degli Stati Uniti, Gina Raimondo, “la sicurezza fa bene all’innovazione. La sicurezza genera fiducia. La fiducia accelera l’adozione. L’adozione porta a più innovazione, il network nasce dall’esigenza di calibrare la sicurezza tecnica e politica dei sistemi avanzati di Intelligenza Artificiale, con la spinta all’innovazione.”.
Obiettivi e strategie della rete
Il focus sociale della rete è la scienza della valutazione dei modelli di IA, con verticalizzazioni sui test dei modelli di base, sulla ricerca e la comprensione coordinata dei sistemi di IA avanzati, nonché sulle strategie di mitigazione dei rischi.
La sicurezza tecnica
La sicurezza tecnica è esercitata come la capacità di comprendere il funzionamento dei modelli di frontiera (l’ASI -Artificial Super Intelligence- e l’AGI -Artificial General Intelligence).
Il campo di indagine sono i contenuti digitali sintetici, immagini, testi o video generati o alterati dagli algoritmi; lo strumento sono i test strutturati sulla trasparenza e tracciabilità dei contenuti e le sperimentazioni collaborative per scovare le vulnerabilità dei sistemi di IA; il risultato atteso sono gli standard – regole, linee guida, caratterizzazioni di processo– e metadata standard autorizzati, nonché misure difensive o di attenuazione sui rischi. Per questa attività sono stati stanziati 11 milioni di dollari.
Ad oggi, il forum ha già in portafoglio il suo primo test congiunto effettuato sul modello di IA open source, denominato Meta’s Llama 3.1 405B, un modello con una capacità di 405 miliardi di parametri.
Diversità e cooperazione tra paesi membri
I diversi AISI hanno una maturità organizzativa e una dotazione di budget molto diversa da paese a paese. Tuttavia gli AISI e gli uffici governativi dei paesi aderenti al forum, Australia, Canada, Francia, Giappone, Kenya, Repubblica di Corea, Singapore, Regno Unito e Stati Uniti e la Commissione Europea, si adopereranno, sulla scorta delle Dichiarazioni di Bletchley – ottobre 2023 – e di Seul – maggio 2024- per far avanzare i risultati della ricerca scientifica e porre le basi per una regolamentazione sui rischi della macchina e dei processi implementativi dell’IA, entro febbraio 2025, quando si terrà il Paris AI Impact Summit.
Aree di intervento e cooperazione
Ciascuno è chiamato a dare il proprio contributo in una o più aree di ricerca, di sperimentazione, di orientamento e di inclusione.
Sono nove in tutto, concentrate su: indagine tecnica degli strumenti di sicurezza – disponibilità di ambienti di test, realizzazione di pratiche di sviluppo sicure dei modelli di fondazione a duplice uso, produzione di standard di settore -; la valutazione delle capacità di creare danni dei sistemi di IA e dell’affidabilità dei modelli per la tutela della privacy e l’autenticazione dei contenuti; la verifica delle modalità di intersezione tra nuova forza lavoro e gestione dei rischi, test, valutazione e convalida dei modelli, ovvero di interdipendenza tra gli attori del ciclo di vita dell’IA, compresi gli utenti finali.
Complementari a tali aree, gli istituti sono inoltre impegnati per la formazione di consorzi tra ricercatori, stakeholder ed esperti, la pubblicazione e la diffusione di linee guida; il monitoraggio dello stato dell’arte dei paesi, in termini di violazione della normativa e di promozione dell’innovazione basata sull’IA.
Stato di avanzamento degli istituti membri
Come accennato gli istituti hanno raggiunto un diverso livello di operatività e istituzionalizzazione: l’AISI statunitense e britannico già eseguono ricerche, test e sperimentazioni sui sistemi di sicurezza e hanno promosso una forte azione di disseminazione delle linee guida presso i decisori politici.
Inoltre in nome del forum, insieme all’Ufficio europeo dell’IA della Commissione europea, hanno assunto il ruolo di coordinatori internazionali. Altri paesi come Canada, Australia, Corea del Sud si trovano ancora nella fase iniziale.
Leadership americana e implicazioni
La presidenza del Forum è stata assunta dall’AISI statunitense, ospitato dal National Institute of Standard and Technology (NIST). Il NIST è nato per dare operatività all’Ordine Esecutivo dell’amministrazione Biden, oggi minacciato di essere abrogato dal neo eletto presidente Trump.
Questo ruolo ha un duplice significato: sin dalla sua costituzione, le principali società sviluppatrici di IA – Amazon, Meta, Microsoft e OpenAI– hanno manifestato la necessità di istituzionalizzare l’AISI su base normativa.
In continuità con la buona pratica dell’agenzia National Highway Traffic Safety Administration (NHTSA), l’AISI consente di mantenere una leadership nazionale e internazionale sull’AI, da un lato permette ad aziende medio-piccole di adeguare i propri sistemi di IA a standard già testati, sulla scorta di parametri e standard sviluppati proprio dall’AISI, come avviene oggi per tutti i produttori di auto.
Dall’altro l’AISI può sostenere la leadership degli Stati Uniti nella governance globale dei sistemi di sicurezza, garantendo agli altri partecipanti la realizzazione di economie di scala nei test di sperimentazione e, per estensione, internazionalizzare i requisiti di sicurezza già definiti per le grandi aziende statunitensi che sviluppano modelli d’intelligenza artificiale di frontiera.
Sfide della cooperazione multilaterale
Il modello di cooperazione verso altre organizzazioni multilaterali come il G7, la Global Partnership in IA (GPAI) l’OCSE e l’Agenzia delle Nazioni Unite è ancora in itinere. Certo è che questo forum rafforza l’influenza della domanda di valutazione dei sistemi di IA sull’offerta, che, per effetto, si riversa su un’auspicata interoperabilità operativa, normativa e di governance. Alla base di questo processo ci sono fattori ancora indeterminati: la condivisione di un lessico tecnologico comune, come il genere, la sottoclasse e l’uso che ne può essere fatto dell’IA di frontiera; scale di valori sui livelli di affidabilità e di robustezza condivisibili;
Il ruolo dell’Italia nel contesto internazionale dell’IA
L’Italia non ha preso parte al Forum con un proprio AISI designato.
Come membro del G7 l’Italia è un soggetto attuatore del Processo di Hiroshima e pertanto sostenitore del quadro di monitoraggio e reporting sviluppato dall’OCSE per le organizzazioni che sviluppano modelli di IA.
Inoltre proprio come riportato nel forum dei leader del G7, il nostro paese ha aderito a diverse inziative atte a promuovere una governance globale sulla sicurezza dei sistemi di IA, oltre ad aver sottoscritto la Dichiarazione di Bletchley.
Dalla Strategia Italiana per l’IA, oltre al ruolo dell’Agenzia per la Cyber sicurezza nazionale ACN, la robustezza degli algoritmi e la definizione di nuovi paradigmi di privacy sono affidati alla ricerca fondazionale, alla regolamentazione europea e da un Comitato etico per lo sviluppo dei modelli linguistici e multimodali di grandi dimensioni.
Ma, la mancata adesione a un nuovo organismo multilaterale può rivelarsi nel tempo una scelta onerosa, l’esclusione dall’esercizio congiunto di ricerca e test sui modelli, oltre ad aumentare il gap tecnologico tra organizzazioni nazionali e quelle degli altri paesi membri, nel medio e lungo termine può influire sulla rappresentazione dei nostri interessi nel ciclo di vita dell’IA, per esempio nella determinazione dei contenuti sintetici che la alimentano, oppure nella velocità di reazione richiesta per mitigare rischi sistemici.