Si è concluso da pochi giorni il Forum intergovernativo del G7, che ha visto la partecipazione eccezionale di Papa Francesco.
L’Intelligenza artificiale è stata al centro della sessione Outreach, a cui hanno preso parte diversi leader, tra cui Narendra Modi, Tayyip Erdogan, e rappresentanti di organizzazioni internazionali, come il presidente di turno dell’Unione Africana, Mohamed Ould Ghazouani, e uno dei temi strategici del Comunicato politico dei Capi di Stato e di Governo del Gruppo dei 7 – Italia, Canada, Francia, Germania, Giappone, Regno Unito e Stati Uniti d’America – e dell’Unione Europea.
L’approccio antropocentrico dell’IA nell’agenda del G7
Alla sessione outreach il Pontefice ha ribadito i principi già richiamati nella Rome Call for AI Ethics, ovverosia promuovere uno sviluppo antropocentrico dell’IA, che tuteli i diritti dell’uomo, un’educazione inclusiva e un’etica degli algoritmi.
È noto a molti che, partire dal 2020 la Pontificia Accademia per la Vita ha intrapreso processo di sensibilizzazione e di responsabilizzazione verso un impiego consapevole dell’IA, da identificare come “strumento che tuteli l’uomo e il pianeta, che lasci all’uomo la capacità di decidere e di scegliere, anche sugli algoritmi”. Il Documento è stato già sottoscritto da Microsoft, Ibm, Fao, CISCO, il Dipartimento per la Transizione digitale italiano, e, in ultimo, dall’arcivescovo di Canterbury.
Innovazioni e proposte nel Communiqué del G7
Le conclusioni sono state richiamate nel documento politico denominato Apulia G7 Leaders’ Communiqué, sottoscritto dai rappresentanti del G7.
Il “Communiqué” individua 3 diversi livelli di indirizzo che i governi possono, meglio dovrebbero, adottare per guidare lo sviluppo dell’Intelligenza artificiale. Da una sua lettera, troviamo alcuni principi guida, già vigenti, ma che escono rafforzati dall’impegno congiunto dei paesi sottoscrittori, e altri capisaldi, di assoluta novità, rispondenti alle nuove esigenze di controllo determinate dall’impatto socio-economico dell’IA.
Si consolida la necessità di promuovere un’IA antropocentrica, a misura d’uomo e controllata dall’uomo. L’affidabilità dell ‘intelligenza artificiale viene misurata in base al grado di rischio che presentano i sistemi rispetto alla tutela dei valori democratici e dei diritti umani.
Una metodologia di validazione già adottata dall’AI Act, approvato, in via definitiva, dal Consiglio europeo a maggio 2024. Per i sistemi avanzati di IA, il Forum, da una parte, ha previsto un’azione di coordinamento dei quadri normativi dei rispettivi paesi, dall’altra, ha auspicato un aggiornamento di standard e prassi d’uso internazionali, che ne regolamentano la fase di implementazione.
Il ruolo dell’OCSE e la gestione del DATA Free Flow with Trust
Inoltre, in continuità con i principi stabiliti dal processo di Hiroshima, i paesi del G7 hanno affidato all’OCSE l’individuazione di metriche qualitative di rendicontazione e monitoraggio di tali sistemi, metriche che di fatto costituiscono un’estensione dinamica del quadro di reporting per il monitoraggio del codice di condotta internazionale.
Sempre all’OCSE viene affidato un ruolo guida nella gestione del DATA Free Flow with Trust, letteralmente flusso di dati libero e affidabile. L’attenzione è posta sulla circolazione dei dati transfrontalieri, scambiabili tra imprese, tra persone, ovvero oggetto di monitoraggi sanitari globali o condivisi per programmi e progetti di ricerca clinica.
La governance globale e multilaterale dell’IA
Un elemento di rafforzamento, è costituito dall’enfasi posta su una governance globale e multilaterale, che vede, da un lato, il coinvolgimento di organizzazioni internazionali come la Global Partnership in IA, l’OCSE appunto, dall’altro, l’adozione del G7 toolkit per i servizi pubblici; la stabilizzazione di reti di collegamento centrate su sfere d’azione comuni, come i punti di contatto dei semiconduttori dei singoli paesi, la sicurezza di infrastrutture strategiche come i cavi sottomarini, in particolare per le rotte strategiche dell’Artico e il pacifico; l’impegno a bonificare sia lo spazio extra-atmosferico, che a utilizzare l’IA per comprendere il nesso tra biodiversità e cambiamento climatico.
Inoltre, i paesi del G7 hanno promosso la sottoscrizione della Dichiarazione politica, da parte degli Stati non ancora firmatari, lanciata all’AIA nel febbraio 2023, in occasione del Responsible AI in the Military Domain Summit (REAIM 2023) all’Aia, su un uso responsabile dell’IA in campo militare,
Tra i vettori di novità, meritano una menzione speciale, l’adozione di un marchio identitario, da rilasciare a tutte quelle organizzazioni che sviluppano sistemi di IA in conformità al Quadro di reporting del Codice; la fondazione di un’Accademia virtuale del G7; la costituzione di un HUB di IA dedicato allo sviluppo sostenibile. da realizzarsi in collaborazione con l’UNDP – United Nations Development Programme – finalizzato alla creazione di partenariati multilaterali e locali di IA, con un focus sull’Africa. È recente l’avviso di consultazione pubblica, emesso dal Ministero del Made in Italy, volto a potenziare le infrastrutture dati locali, promuovere la capacità di calcolo, nel rispetto delle diversità locali, e le competenze e conoscenze tecniche per favorire la nascita di talenti.
Un nuovo piano di azione
Sul fronte dell’occupazione e del lavoro, i Paesi del G7 si sono impegnati a definire un Nuovo Piano di Azione per l’utilizzo dell’IA, sostenere una istruzione innovativa, capace di anticipare la domanda di competenze, necessarie per progettare, adottare e lavorare con un’intelligenza artificiale incentrata sull’uomo; organizzare la mobilità dei talenti tra stati e processi di cooperazione tra imprese e soggetti coinvolti nella tutela dei diritti dei lavoratori.
Conclusioni
Il discorso del Pontefice ha aperto una riflessione profonda su tutti gli aspetti sopra richiamati, partendo dall’attuale uso dell’IA nella nostra quotidianità, come per il self-learning, verso gli impatti che questa tecnologia avrà sull’intera umanità man mano che lo sviluppo dell’IA sarà affidato alla fisica quantistica.
Sapienza e saggezza non devono mai abbandonare l’uso delle applicazioni di IA; bisogna essere consapevoli che l’IA non è neutrale, abilita alcune realtà, scartandone altre, e in una condizione in cui l’arte della politica è messa alla prova dalla tecnologia, proprio la politica deve farsi guida e tutore di nuovi processi di crescita della persona, delle comunità e delle nazioni.