Negli ultimi mesi si è accesa la corsa alla regolamentazione dell’intelligenza artificiale generativa, con buona pace dei ricercatori e di chi fino a ieri ha sperato che questa tecnologia fosse neutra.
Il riposizionamento degli Stati dentro un nuovo ordine internazionale
A livello mondiale, stiamo assistendo a un susseguirsi di alleanze, forum, manifesti di intenti, sottoscrizioni di dicharazioni e codici di condotta, in un gioco di riposizionamento degli Stati moderni dentro un nuovo ordine internazionale postliberale, dove l’intelligenza artificiale sembra avere il potere di donare lo status di Nuovo Stato Globalista.
Proprio come ha affermato Langdon Winner nel 1980, le tecnologie hanno una «politica»: Tale principio, trascinato al 2023, vuole significare che la forma di “leadership” a livello globale, dipende anche dalle modalità in cui le applicazioni algoritmiche rispondono alla compressione spazio-temporale delle grandi sfide del XXI secolo.
Il riequilibrio di potere tra gli attori istituzionali
Ciascuna dichiarazione, come anche le regolamentazioni in corso di adozione, mirano, sul fronte interno, sul riequilibrio di potere tra gli attori istituzionali statali, perlopiù rappresentati da boomers, e le organizzazioni private, prevalentemente di proprietà dei Gens X, e fissano standard globali per un uso strategico dell’Intelligenza artificiale, in una prospettiva di sicurezza internazionale post-moderna. Capi di Stato e Ministri di politica estera, strutture burocratiche e altre istituzioni politiche, istituti strategici, Think thank, Università, aziende tecnologiche e network transnazionali, tutti coinvolti nella definizione di una nuova governance dell’AI. Centralità dell’uomo, cooperazione, regole, etica, trasparenza e condisione sono i tag maggiormente ricorrenti nei testi.
Nuove normative e dichiarazioni internazionali per la regolamentazione dell’IA
Dall’inizio del Processo di Hiroshima, con la presidenza del Giappone, e dei lavori intrapresi dalle Nazioni Unite, in ultimo la costituzione del Gruppo di Esperti, per volontà del suo Segretario generale A.Guterres, si sono accavallati cinque nuovi momenti di global governance o geopolitica dell’Intelligenza artificiale.
La nuova normativa cinese
Dal 15 agosto in Cina è in vigore una nuova normativa di regolamentazione dell’IA generativa, basata sul rispetto dei principi etici e socialisti della società cinese. Hardware e software, box e contenuti, sono sottoposti a un controllo diretto e immediato da parte del governo, tale da assicurare la pluralità e la tracciabilità delle fonti che addestrano gli algoritmi, tanto da ridurre il rischio di disinformazione o condizionamento dell’opinione pubblica. Questa regola è una condizione sine qua non per tutti i providers operativi in Cina, i cui contenuti elaborati sono rivolti agli utenti cinesi. Stesse restrizioni valgono per la tutela della proprietà intellettuale.
La Dichiarazione di Santiago
Il 23 e 24 ottobre, i ministri dell’America Latina e dei Paesi Caraibici hanno siglato la Dichiarazione di Santiago, che mira a definire una regolamentazione ex-ante dell’Intelligenza artificiale, ponendo l’accento su uguaglianza di genere, inclusione e la riduzione delle disparità socio-economiche, promuovendo allo stesso tempo la partecipazione degli stakeholder nello sviluppo di competenze per l’AI. Questa dichiarazione ha avuto il supporto dell’UNESCO e della Banca di Sviluppo dell’America Latina e Caraibica (CAF).
G7: Codice di Condotta e Principi Guida
Il 30 ottobre, i leaders del G7 hanno accolto sia Il Codice di Condotta internazionale per i sistemi avanzati di IA, sia i Principi Guida che dovranno orientare le organizzazioni che sviluppano IA di frontiera, IA generativa e modelli di base in un contesto produttivo globalizzato.
L’AI Safety Summit in Gran Bretagna
Il 1 e 2 novembre, 28 Capi di Stato, tra cui Cina e Stati Uniti, e l’Unione Europea, hanno partecipato all’AI Safety Summit in Gran Bretagna, in 26 hanno siglato la Dichiarazione di Bletchey sull’implementazione di un AI sicura. Un’IA in grado di affrontare i rischi, capire l’impatto sulla società, aumentare le competenze scientifiche per comprenderne gli sviluppi futuri. La Dichiarazione è un documento inter-governativo, per alcuni versi simile al terzo pilastro del Trattato di Maastricht, che poggia sulla cooperazione sistemica tra Stati, proprio per questo pone le basi di una governance globale. Con un video, Re Carlo III ha fatto appello ai delegati dei Paesi presenti ad affrontarne i rischi con tempestività e in una cornice internazionale, perché l’AI si evolve rapidamente e sorpattutto non ha frontiere; ha inoltre paragonato la sfida dell’intelligenza artificiale a quella del cambiamento climatico.
L’Executive Order del Presidente Biden
Il giorno precedente, il Presidente Joe Biden ha emanato un Executive Order per i governi federali sullo sviluppo e l’uso di una Intelligenza Artificiale responsabile, sicura eaffidabile. La posizione degli Stati Uniti è quella di mitigare i rischi sostanziali causati dall’IA per il benessere economico e a tutela della sicurezza e della stabilità sociale del Paese. Le alleanze strategiche con altri Paesi, inclusi quelli concorrenti, saranno volte allo sviluppo di una struttura comune di gestione del rischio, a sbloccare il potenziale dell’Intelligenza artificiale e a promuovere un approccio condiviso sulle sfide comuni.
Focus su una governance multilivello
L’Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence si compone di 12 sezioni e di disposizioni generali finali. La sua attuazione poggia su una governance multilivello che dovrà mettere in campo le azioni esecutive, a step scaglionati, entro un arco temporale massimo di 360 giorni dalla sua entrata in vigore. L’elemento istitutivo principale è la costituzione di un Consiglio sull’Intelligenza Artificiale della Casa Bianca– di pertinenza dell’Ufficio Esecutivo del Presidente- con il mandato di coordinare il lavoro delle agenzie e dei dipartimenti federali nell’attuare standard e principi fissati da questo Ordine. Il Consiglio si compone di 29 membri tra cui il Segretario di Stato, il Segretario del tesoro e della Difesa, i Direttori nazionali dellAgenzie di Intelligence e Cyber.
La responsabilità dell’azione è il fil rouge
La democratizzazzione di tale tecnologia viene garantita con l’adozione di 8 principi che dovranno guidare lo sviluppo dell’AI in tutti gli Stati, a cui dipartimenti esecutivi e agenzie federali dovranno aderire. Il comune denominatore degli 8 principi è la “responsabilità dell’azione”. L’uso di servizi pubblici basati sull’AI o l’acquisto di prodotti dovranno continuare ad assicurare le libertà civili e la tutela della privacy corentemente con il progresso tecnologico dell’IA. Per tutti i lavoratori, specialmente quelli più vulnerabili, dovrà essere rideterminata la negoziazione dei contratti collettivi per evoluzioni della perfomance dei sistemi di AI.
Il ruolo di leadership degli Stati Uniti, nel sostenere uno sviluppo tecnologico responsabile, deve essere difeso anche nel resto del mondo. La Sezione 11 focalizza gli aspetti di politica estera americana dell’IA, affida al Segretario di Stato il compito di individuare, entro 270 giorni dall’entrata in vigore dell’executive order, un Piano di impegno globale per la definizione di Standard internazionali di IA. Entro 365 giorni, Il Segretario di Stato e l’Agenzia per lo Sviluppo internazionale, in collaborazione con il Segretario dell’Energia e il Direttore dell’NSF – Natural Science Foundation- devono sviluppare un’Agenda Globale sulla Ricerca nell’IA.
Conclusioni
Tutte le regolamentazioni e gli interventi politici dovranno tenere il ritmo dell’avanzamento tecnologico dei sistemi di AI, così come considerare la struttura demografica, la ridistribuzione della ricchezza e dei mezzi di istruzione a livello globale. In queste nuova geografia di alleanze non è emersa la forza del Global south e in particolare il nuovo soggettivismo africano. Eppure entro il 2025 la popolazione dell’Africa- 1,4 miliardi di persone-, per lo più millenials e post millenials, sarà il doppio di quella europea. La loro esposizione ai rischi dell’intelligenza artificiale generativa sarà dirompente, e questo è un tema etico.