Possiamo chiamarlo cigno nero o tsunami, certo è che l’intelligenza artificiale generativa, quella di ChatGPT per intenderci, è capace di formare il senso comune dell’opinione pubblica globale, accelerare i processi di disintermediazione, disorientando secoli di rinascimento e illuminismo intellettuale. Le sue applicazioni sono diventate così diffuse e pervasive nella vita quotidiana che anche i media generalisti cominciano a narrarne gli effetti.
Ecco che i singoli Stati consapevoli che l’IA sia diventata – da anni- un fattore critico che segna il successo o il fallimento delle politiche economiche e di welfare si rincorrono nella proliferazione di istituti normativi e leggi di finanziamento quadro. Al contrario, l’Unione europea si è focalizzata sulla regolamentazione dei rischi e l’affidabilità, vedi l’AI ACT, e sul mantenimento di forme di mercato inclusive, in primis il Digital Market Act, garantendo una concorrenza aperta tra 10.000 piattaforme, per il 90% di piccole dimensioni
Di fronte a questa nuova realtà va ripensato il concetto di territorialità della governance dell’IA, andando oltre le tradizionali zone di influenza politica: è necessario comprenderne la direzione complessiva a livello mondiale, distinguere gli impatti dell’AI generativa dalle traiettorie di lungo termine dell’intelligenza artificiale generale (AGI). Bisogna acquisire la piena consapevolezza che l’IA non è un tema esclusivamente tecnologico.
L’importanza di una governance inclusiva dell’intelligenza artificiale
Quello che c’è in ballo è la governance mondiale dell’ecosistema dell’intelligenza artificiale, chi la guiderà e soprattutto con quale legittimazione. Ad oggi l’azione di cooperazione delle istituzioni internazionali è tutta concentrata nella definizione di regole condivise, standard minimi di monitoraggio e sistemi sanzionatori funzionali a ridurre l’ incertezza strategica, mitigare gli effetti di crisi impreviste ed escalation malevole.
Ogni assisse internazionale cerca di sfruttare la propria leadership muovendosi lungo una progressione lineare tra meta-governance e governance, tra meta-autorità e autorevolezza rappresentativa.
Il ruolo del G7
La manifestazione evidente di questo processo si è avuta con il vertice annuale del G7 tenutosi a Hiroshima, vertice che ha riconosciuto l’importanza di una governance inclusiva dell’Intelligenza artificiale, in grado di garantire affidabilità e rispondenza dei sistemi di AI a valori democratici condivisi. Il processo di Hiroshima fa uno scatto in avanti nella legittimazione del G7 come istituzione multilaterale “efficace” nel coordinare le azioni regolamentative.
Durante l’incontro del 7 settembre, i Ministri della tecnologia e della transizione digitale, sulla base delle risultanza del Rapporto OCSE hanno assunto l’impegno di elaborare linee guida internazionali e codici di condotta per le organizzazioni che sviluppano sistemi di IA avanzati, da presentare ai leader del G7, entro la fine dell’anno. A supporto di tale documento, la Commissione europea ha aperto una consultazione per raccogliere informazioni su una scala di priorità dei principi introdotti dalle linee guida, e fare una valutazione preliminare sul grado di efficacia del sistema di monitoraggio.
Dentro questo impianto si aggiunge un’azione di cooperazione per progetti di ricerca, che vede coinvolti i paesi del G7, l’OCSE, l’Alleanza globale sull’Intelligenza artificiale (GPAI) e l’UNESCO. Una collaborazione propedeutica alla costituzione di una organizzazione multilaterale, denominata “ Global Challenge to Build Trust in the Age of Generative AI”, dove trovano spazio società private, istituzioni accademiche e associazioni della società civile.
Le proposte ONU
Dall’altra parte del mondo, le Nazioni Unite, per mezzo del suo Segretario generale Carlos Gutiérrez, hanno avanzato una proposta di governance dell’Intelligenza artificiale “costituzionalizzata”, che fa leva sul proprio livello di compliance pull, mettendo a punto una architettura multilaterale che vede la partecipazione di 190 nazioni, agenzie specializzate e forum correlati. Il progetto prevede la messa in opera di organi di coordinamento e procedure di interoperabilità, funzionali alla creazione di standard operativi su scala globale; un fondo sovranazionale che finanzia l’assistenza agli Stati impegnati nella rafforzare i propri sistemi di difesa da abusi dell’IA in settori ad alto rischio.
L’attività esecutiva
L’attività esecutiva è affidata a 3 diverse entità: un’assemblea di rappresentanti, con delegati nominati dagli Stati membri, due organi tecnici, un collegio arbitrale. I governi partecipanti hanno l’onere di informare sullo stato di rischio– tutela dei diritti fondamentali dell’uomo, sicurezza e stabilità- in cui si trova il Paese e le misure di prevenzione e gestione delle crisi.
Gli organi tecnici
Agli organi tecnici, una Commissione di esperti indipendenti – “High-Level Advisory Body on Artificial Intelligence”-, un Comitato tecnico e un Segretariato permanente e un Interpol, è demandato l’onere di monitorare le minacce e valutare il potenziale impatto; rilevare le questioni emergenti che richiedono un coordinamento multilaterale; fornire le raccomandazioni agli Stati membri sulle azioni concrete da porre in atto. Il Collegio arbitrale esegue un controllo sulle organizzazioni basate negli Stati membri, e che entrerebbero sotto giurisdizione per le attività di progettazione, sviluppo, implementazione, hosting di sistemi di Ai.
Entro 6-24 mesi, a partire da settembre 2023, è prevista la sottoscrizione di un Patto multilaterale tra Stati Uniti, Regno Unito, Unione europea, Cina, India, Corea del Sud. L’architettura di multi-multilateralismo avanzata dalle Nazioni Unite, è affiancata dal Forum sulla governance di Internet (IGF), fautore di Coalizioni Dinamiche nella gestione dello spazio digitale. Nell’incontro di Kyoto, svoltosi nella prima settimana di ottobre, hanno partecipato oltre 5.000 stakeholder provenienti da 170 paesi. Negli ultimi anni il forum ha rafforzato il dialogo interparlamentare per aree geo-politiche, Africana e indopacifica.
Conclusioni
Le due proposte di governance globale hanno come comune denominatore il carattere normativo, più o meno cogente, ma comunque proiettato a indurre ciascun membro a un buon uso dei sistemi di IA. L’efficacia dipenderà dal processo di ratifica dei nuovi istituti legislativi e soprattutto dal grado di responsabilità (democratica) di un paese nel caso di “incidenti” originati dall’Intelligenza artificiale. Invece per la “supremazia” di una o dell’altra sarà determinante il ruolo riconosciuto all’Unione africana, il potere assegnato alle grandi compagnie private che oggi detengono la tecnologia, la forza negoziale dei paesi produttori di materie prime, come il litio.
Infine, ultimo elemento di riflessione, dobbiamo chiederci se queste attività di edificazione del multilateralismo dell’AI non fungano da punto di osservazione privilegiato di un altro processo: il restauro della tradizionale divisione per blocchi – due – delle aree di influenza politica e istituzionale, oggi rappresentati da Stati Uniti e Cina.