Il Processo di Hiroshima, lanciato a maggio 2023 sotto la presidenza giapponese del G7, ha prodotto documenti di indirizzo quadro sia per i governi, sulle priorità politiche dell’IA generativa, che per le organizzazioni private, sulle modalità di sviluppo e messa sul mercato dei sistemi avanzati di IA.
Fanno parte di questo processo 4 pilastri:
- il Rapporto OCSE sulle iniziative nazionali in tema di IA generativa,
- i Principi guida internazionali per tutti gli attori dell’IA,
- il Codice di Condotta internazionale,
- Azioni di cooperazione basate sull’IA.
Indice degli argomenti
Rapporto OCSE: analisi comparativa delle iniziative nazionali sull’IA generativa
Il primo, il Rapporto OCSE, edito a settembre 2023, fotografa la condizione di partenza di ciascun paese del G7 su 4 campi di indagine: a) Individuazione delle opportunità e dei rischi; b) Priorità in termini di principi basati sui valori; c) Potenziale approccio internazionale collettivo; d) Iniziative nazionali e regionali.
ESG, implementa la tua strategia aziendale: tutto quello che c’è da sapere
Dal quesito “in che modo l’IA generativa può supportare il raggiungimento di obiettivi nazionali o locali” è emersa, per la maggior parte dei paesi, un’alta aspettativa al miglioramento della produttività collegata all’effetto leva su innovazione e imprenditorialità, e un sostegno ad affrontare le crisi del nuovo secolo, in particolare quelle sanitarie e climatiche. Tra i rischi maggiori le autorità pubbliche hanno posto un accento sulla manipolazione dell’opinione pubblica collegata alla diffusione di disinformazioni e sulle minacce per la sicurezza informatica delle infrastrutture e la privacy dei dati
L’uso responsabile dell’IA generativa richiede un impegno urgente e condiviso tra tutti i paesi del G7 per mettere in opera quegli strumenti di contrasto alla violazione dei valori democratici e dei principi etici consolidati nelle democrazie, individuati dall’OCSE come fondamento di base per una governance comune globale.
Il Rapporto pone inoltre in evidenza i diversi approcci regolamentativi e interventi legislativi disposti per regolare l’uso dell’IA generativa nei diversi settori in cui si prevede abbia un impatto esponenziale per la qualità della vita dei cittadini.
Dai principi nazionali alla governance globale: codice di condotta e principi guida internazionali
Rispetto alle politiche nazionali o regionali, il Rapporto supera questa dimensione spaziale e può essere considerato come lo starting point per indirizzare la collaborazione internazionale nella istituzione dei successivi quadri politici:
- Principi Guida Internazionali rivolti a tutti gli attori dell’IA;
- Codice di Condotta Internazionale e, in ultimo il Reporting Framework, che misura proprio l’adozione del codice da parte delle organizzazioni private che sviluppano sistemi di IA generativa.
- Documenti sviluppati con il supporto e un ruolo determinate dell’OCSE e della GPAI.
I Principi Guida Internazionali mirano a promuovere lo sviluppo di sistemi avanzati di IA sicuri e affidabili, adattabili a diverse giurisdizioni, all’interno di una governance globale sostenibile nel lungo periodo.
Gli 11 principi di Hiroshima: azioni concrete per lo sviluppo responsabile dell’IA
Specificatamente le organizzazioni sono invitate a classificare i propri modelli in base al grado di rischio che determinano per le civiltà e il singolo cittadino, con l’impegno di rispettare gli 11 principi di Hiroshima, declinabili in azioni.
All’interno di ciascuna azione il Codice di Condotta individua i rischi a essa associati.
- Adottare misure, come test indipendenti, red-teaming, strumenti di tracciabilità dei dati e degli output, per identificare, valutare e mitigare i rischi lungo il ciclo di vita dell’intelligenza artificiale, dallo sviluppo alla collocazione sul mercato. Le misure identificative dovrebbero consentire la tracciabilità in relazione a set di dati, processi e decisioni prese. Per esempio nell’implementazione dei test di rischio le organizzazioni dovrebbero verificare le barriere in entrata per usi malevoli, auto replicazioni offensive o sfruttamento delle vulnerabilità, e contromisure difensive in relazione a rischi chimici, nucleari, per la salute e/o la sicurezza, o associate a minacce alla violazione delle norme, dei valori democratici e ai diritti umani.
- Monitorare vulnerabilità, identificare gli incidenti e i rischi emergenti documentandone le caratterizzazioni tecnologiche che li hanno determinati e aprire la rilevazione dei problemi a terze parti interessate.
- Segnalare i domini e gli usi impropri dei modelli di IA con appositi report sulla trasparenza, fornire analisi appropriate sul processo di output o degli effetti del sistema, in grado di determinare l’idoneità del modello/sistema a superare la fase di sviluppo e di individuare in modo appropriato l’oggetto di responsabilità.
- Strutturare un ambiente cooperativo tra le organizzazioni che sviluppano sistemi avanzati di IA tra cui l’industria, i governi, la società civile e il mondo accademico, promuovere processi di rendicontazione dei sistemi basati su standard, strumenti e meccanismi comuni di individuazione e gestione del rischio.
- Sviluppare e implementare politiche di governance basate sul rischio per la tutela della privacy dei dati personali e dei prompt degli utenti. È richiesto pertanto alle organizzazioni di implementare i processi di responsabilità aziendale su misure di mitigazione aggiornate e la formazione continua di tutti i coders.
- Attivare controlli di sicurezza sull’accesso fisico e cibernetico ai data server, ai set di dati, alle funzionalità dell’algoritmo, a rilasci non autorizzati delle applicazioni, nonché adottare misure di protezione di pesi dei modelli (semplificando: modalità di elaborazione), della proprietà intellettuale e dei segreti commerciali dei sistemi proprietari.
- Sviluppare e adottare (implementare) meccanismi di autenticazione sulla fonte dei contenuti, se proveniente da e da quale modello di IA avanzato. Possono essere adottate a tale fine filigrane, etichettature o alert di esclusione di responsabilità, tali da consentire all’utente di riconoscere e comprendere le modalità di interazione con l’agente di IA.
- Incentivare la ricerca collaborativa e gli investimenti diretti alla mitigazione proattiva dei rischi gravi collegati al rispetto dei diritti umani, alla protezione dei bambini e dei gruppi vulnerabili, alla salvaguardia degli impatti ambientali e climatici.
- Dare priorità allo sviluppo di modelli avanzati che sostengono il raggiungimento degli Obiettivi di Sviluppo Sostenibile delle Nazioni Unite con la creazione di soluzioni innovative, e l’alfabetizzazione digitale di studenti e lavoratori per trasferire competenze e abilità sulla natura, capacità, limiti e impatto di queste tecnologie.
- Promuovere lo sviluppo e, ove opportuno, l’adozione di standard tecnici internazionali e di buone pratiche, nonché la collaborazione con lo Standards Development Organization (SDO) per la definizione di framework tecnici internazionali e interoperabili sulle metodologie di test adottate, di meccanismi di autenticazione e provenienza dei contenuti, delle policy di sicurezza informatica e di reporting pubblico.
- Individuare e adottare misure/tecniche appropriate di valutazione qualitativa dei dati, relativa immissione e gestione, funzionali ad addestrare i modelli e a favorire un livello di trasparenza conforme ai quadri giuridici applicabili.
Il Quadro di Rendicontazione, denominato HAIP – Hiroshima Artificial Intelligence Process- Reporting Framework si basa sulle 11 azioni/obiettivi delineate nel Codice di Condotta, e misura l’allineamento a queste azioni/obiettivi delle pratiche di gestione e valutazione del rischio di IA, di segnalazione degli incidenti e dei meccanismi di condivisione delle informazioni.
HAIP Reporting Framework: monitoraggio dell’adozione del codice di condotta dell’IA
Il Reporting Framework, versione 1.0, realizzato in collaborazione con l’OCSE, gestore della piattaforma dedicata, è entrato in opera con una prima fase pilota, svolta da luglio a settembre 2024, durante la quale sono state raccolte le informazioni e i dati dei principali sviluppatori di sistemi di IA avanzati, in tutto 20, tra cui Amazon, Anthropic, Fujitsu, Google, KDDI Corporation, Microsoft, NEC Corporation, NTT, OpenAI, Preferred Networks Inc., Rakuten Group Inc., Salesforce e Softbank Corp.
Parte di queste organizzazioni erano rappresentate all’evento Reporting Framework for the G7 HAIP Code of Conduct, tenutosi il 4 febbraio scorso, organizzato dall’Istituto Affari Internazionali – IAI- e il CIGI- Centre for International Governance Innovation, con il patrocinio del Dipartimento per la Trasformazione Digitale della Presidenza del Consiglio dei Ministri. I feedback della prima fase attuativa riconoscono il quadro di monitoraggio come uno strumento utile per sostenere l’uso dell’IA e sottolineano la necessità di adottare un approccio strategico di lungo termine sulla trasparenza e affidabilità dei sistemi avanzati di IA. Questa può tradursi, da un lato, in una maggiore armonizzazione legislativa, trasformando le linee politiche in regole di implementazione condivise, come la certificazione per livelli dei sistemi di IA, differenziati per aree di applicazione; da un altro, rafforzando il coordinamento internazionale sulle buone pratiche di gestione dei rischi e delle vulnerabilità, coerentemente con il progresso tecnologico indotto o assunto dai diversi modelli IA, e con l’evoluzione delle piattaforme implementatrici. Queste organizzazioni si sono impegnate a fornire un primo resoconto dei propri report entro aprile 2025, e ad aggiornarli ogni anno.
Evoluzione del framework: verso una certificazione di eccellenza per l’IA responsabile
Il successivo 7 febbraio, l’OCSE ha pubblicato una versione integrale del Reporting Framework, suddiviso in 7 sezioni: Identificazione del rischio e valutazione; Gestione del rischio e sicurezza delle informazioni; Reporting sulla trasparenza sui sistemi di intelligenza artificiale avanzata; Governance organizzativa, gestione degli incidenti e trasparenza; Meccanismi di autenticazione e provenienza dei contenuti; Ricerca e investimenti per migliorare la sicurezza dell’IA e mitigare i rischi per la società; Promuovere gli interessi umani e globali.
Per ciascuna sezione è stato formulato un set di domande, complessivamente 39.
La versione 2.0 del Reporting Framework dovrebbe condurre alla attribuzione di un marchio di eccellenza abile a distinguere, tra le altre le organizzazioni, quelle che implementano il quadro aggiornato di rendicontazione del Codice. Il marchio esprime l’impegno dei paesi del G7 verso la trasparenza e lo sviluppo sostenibile dell’IA. È composto da un fiore di ciliegio, collegato alla presidenza giapponese del G7 2023, quando è stato lanciato l’Hiroshima AI Process (HAIP), e indica il rinnovamento, la cooperazione e la ricerca del progresso tecnologico; un ulivo che rappresenta la presidenza italiana del G7 2024, ed esprime la natura collaborativa della governance internazionale; le radici della rete neurale ad indicare l’interconnessione e l’innovazione, fondamentali dell’uso responsabile dell’IA.

Il futuro del Processo di Hiroshima: sfide e prospettive per la governance globale dell’IA
La Presidenza italiana del G7, con l’ausilio del Gruppo di Lavoro Digitale e Tecnologia, in stretta collaborazione con l’OCSE, ha segnato importanti passi in avanti del Processo di Hiroshima, dando forma a leve e strumenti implementativi della governance internazionale dell’IA, tra cui:
- il Reporting Framework nella sua prima versione operativa;
- l’Adozione del Toolkit di sistemi di IA per il settore pubblico,
- il Compendium dei Servizi di Governo Digitale,
- una mappatura dei diversi sistemi di identità digitale adottati nei diversi paesi del forum e delle procedure di interoperabilità;
- l’aggiornamento del Data Free Flow with Trust,
- l’istituzione di Gruppo di lavoro sui semiconduttori;
- il riconoscimento delle aree più vulnerabili di applicazione dei modelli di IA per il settore sanitario;
- l’allineamento dei quadri delle competenze alle iniziative internazionali delle Nazioni Unite, dell’ILO e del programma Shaping a Global Perspective on the Future of Work.
Il Processo di Hiroshima è un processo in continuum. Nel passaggio di consegne, lo sforzo maggiore richiesto alla presidenza canadese del G7 2025 è quello di aggiornare il reporting framework su base implementativa, al passo con l’evoluzione tecnologica delle infrastrutture ospitanti i modelli, delle singole fasi del ciclo di vita di sviluppo dei sistemi e dei prodotti e servizi basati sull’IA che entreranno sul mercato; raggiungere un’armonizzazione globale, oltre i paesi del G7, degli standard di misurazione della conformità dei modelli avanzati di IA al Codice di Condotta; coinvolgere una platea più vasta di stakeholders che implementano i sistemi di IA e adattare la gestione comune dei rischi alle minacce di influenza provenienti da ecosistemi emergenti e da adozioni ibride- intersettoriali dell’iA.
Scopri le strategie e gli investimenti che stanno trasformando il volto della Sicilia