Ovunque regolamentare lo spazio digitale e, in modo particolare, gli strumenti e i sistemi avanzati di intelligenza artificiale appare un’esigenza ineludibile e, questo, ben al di là del “dovere” di promuovere la tutela delle ideologie, dei valori e dei diritti fondamentali.
La tecnologia è il motore che alimenta i superpoteri. E d’altra parte la lotta per l’industria dei dati è iniziata ormai da tempo.
La Cina non ha mai nascosto le proprie mire in merito all’egemonia nel settore scientifico e tecnologico e in particolare nel campo dell’IA. Ma come si pongono le altre potenze globali di fronte a questa avanzata e con quali impianti regolatori si stanno preparando ad affrontare le sfide poste dalla tecnologia?
Belt and Road: il quadro della Cina per l’intelligenza artificiale
Xi Jinping ne è sempre più convinto: “la Cina è una nazione benevola in cui si raccoglie se si semina”. E “Le Nuove vie della seta” rappresenterebbero l’opportunità di dimostrare la verità di quanto sostenuto e ribadito dal presidente cinese in occasione dell’apertura del terzo Forum Belt and Road, che si è svolto a Pechino il 18 ottobre 2023. Un’iniziativa che, reduce da un rallentamento negli ultimi anni, sia a causa della pandemia di COVID-19 che delle tensioni globali, come la guerra in Ucraina, coinvolge oggi più di centocinquanta Paesi in diversi continenti, anche se alcune nazioni, tra cui Stati Uniti, Canada, India, Brasile, Australia, e alcuni membri dell’Unione Europea (Francia, Spagna e Germania), non vi hanno ancora aderito[1].
Il contesto in cui si è svolto il discorso di Xi Jinping è ben noto e si riporta ad un mondo che sta affrontando diverse sfide globali, gravi e impegnative, in cui la Cina intenderebbe porsi come un fattore di coesione da contrapporre alla frammentazione generata da problemi legati alla “ritenuta” incompetenza del potere americano.
Nel pronunciare il suo discorso Xi Jinping ha, in modo particolare, sottolineato il nuovo ruolo assunto dalla Repubblica Popolare Cinese come difensore di un’economia globale aperta e ha criticato le sanzioni unilaterali, la coercizione economica e l‘interruzione delle catene di approvvigionamento, rivolgendosi principalmente agli Stati Uniti[2] e, in misura minore, all’Europa. Si è detto anche fiducioso che, proprio attraverso l’iniziativa delle Nuove vie della seta, sarà possibile migliorare la connettività politica, infrastrutturale, commerciale, finanziaria e tra i popoli, creare opportunità di sviluppo globale e promuovere la cooperazione economica internazionale.
Nella sua visione, la collaborazione nella Belt and Road dovrebbe infatti basarsi proprio su principi come la cooperazione win-win, la pace, l’apertura e l’inclusione, e il vantaggio reciproco.
Uno tra i maggiori obiettivi perseguiti dalla Cina, oltre all’impegno a sostenere un’economia globale aperta, a promuovere lo sviluppo verde e la cooperazione tra i popoli, è stato il convinto richiamo di Xi Jinping allo sviluppo dell’intelligenza artificiale e al dovere “di incoraggiare l’innovazione scientifica e tecnologica e all’uso della prudenza e della responsabilità da parte di tutti nello sviluppo e nell’utilizzo dell’intelligenza artificiale in campo militare”.
Un onere che ha voluto enfatizzare annunciando la Global AI Governance Initiative.
La Global AI Governance Initiative
“Faremo progredire l’innovazione scientifica e tecnologica. La Cina continuerà ad attuare il piano d’azione per la cooperazione in campo scientifico, tecnologico e dell’innovazione nell’ambito della Belt and Road: organizzerà la prima conferenza Belt and Road sugli scambi scientifici e tecnologici, porterà a 100 il numero di laboratori congiunti costruiti con altre parti nei prossimi cinque anni e incoraggerà i giovani scienziati di altri Paesi a lavorare in Cina con programmi a breve termine. A questo forum, la Cina presenterà l’iniziativa globale per la governance dell’intelligenza artificiale (AI). Siamo pronti a intensificare gli scambi e il dialogo con altri Paesi e a promuovere congiuntamente lo sviluppo sano, ordinato e sicuro dell’IA nel mondo”. Ha asserito il Presidente Xi.
La conseguente dichiarazione della Cyberspace Administration of China (CAC), con la quale è stata introdotta l’iniziativa di governance globale sull’intelligenza artificiale (AI), non si è fatta attendere.
Apertura, sicurezza, inclusività ed equità applicati allo sviluppo dell’IA, oltre al rispetto della sovranità nazionale nell’intelligenza artificiale, sono stati i concetti cardine dell’approccio regolatorio proposto dalla Cina.
“Poiché la pace e lo sviluppo globali si trovano ad affrontare diverse sfide, tutti i paesi dovrebbero impegnarsi a perseguire una visione di sicurezza comune, globale, cooperativa e sostenibile e porre pari enfasi sullo sviluppo e sulla sicurezza. I paesi dovrebbero creare consenso attraverso il dialogo e la cooperazione e sviluppare meccanismi di governo aperti, equi ed efficienti, nel tentativo di promuovere le tecnologie di intelligenza artificiale a beneficio dell’umanità e contribuire alla costruzione di una comunità con un futuro condiviso per l’umanità.
Chiediamo a tutti i paesi di rafforzare lo scambio di informazioni e la cooperazione tecnologica sulla governance dell’intelligenza artificiale. Dovremmo lavorare insieme per prevenire i rischi e sviluppare quadri, norme e standard di governance dell’IA basati su un ampio consenso, in modo da rendere le tecnologie di intelligenza artificiale più sicure, affidabili, controllabili ed eque. Diamo il benvenuto a governi, organizzazioni internazionali, aziende, istituti di ricerca, organizzazioni civili e individui affinché promuovano congiuntamente la governance dell’intelligenza artificiale secondo i principi di ampia consultazione, contributo congiunto e benefici condivisi”.
Gli obiettivi dell’iniziativa
La dichiarazione è un appello ad affrontare congiuntamente i problemi di impatto globale legati all’intelligenza artificiale. In modo assoluto la governance dell’AI viene vista come cruciale per il futuro dell’umanità.
Questi gli obiettivi principali dell’iniziativa:
- Collaborazione: Gli Stati e le organizzazioni dovrebbero lavorare insieme per sviluppare meccanismi di governance aperti, equi ed efficienti per garantire che l’AI benefici l’umanità. L’autorità di regolamentazione ha chiesto sforzi globali per rendere le tecnologie di intelligenza artificiale disponibili al pubblico in termini open source.
- Sovranità nazionale: Rispettare la sovranità nazionale di altri paesi e seguire le leggi locali quando si forniscono prodotti e servizi AI.
- Pace e sviluppo: Utilizzare l’AI per promuovere lo sviluppo sostenibile e affrontare sfide globali come il cambiamento climatico e la conservazione della biodiversità.
- Responsabilità e sicurezza: Prevenire e combattere l’uso improprio dell’AI da parte di gruppi terroristici o criminali e garantire che l’AI militare sia sviluppata in modo prudente e responsabile.
- Equità e non discriminazione: Evitare pregiudizi e discriminazioni basati su etnia, credenze, nazionalità, genere, ecc., nella raccolta dei dati, nella progettazione degli algoritmi e nell’applicazione dell’AI.
- Etica: Stabilire principi etici, norme e meccanismi di responsabilità per l’AI e chiarire le responsabilità delle entità legate all’AI.
- Partecipazione e consenso: Coinvolgere attivamente più parti interessate per raggiungere un ampio consenso nella governance internazionale dell’AI.
- Tecnologie per la governance: Sviluppare e applicare tecnologie per migliorare la governance dell’AI e prevenire i rischi.
- Inclusione dei paesi in via di sviluppo: Aumentare la rappresentanza dei paesi in via di sviluppo nella governance globale dell’AI e fornire assistenza per ridurre il divario nell’AI e nella sua governance.
Riconoscere che lo sviluppo dell’IA avrà una presa significativa sulla società e il progresso umano significherà doversi confrontare continuamente con numerose opportunità e sfide; sarà fondamentale promuovere una visione di sicurezza comune e sostenibile, enfatizzando il dialogo, la cooperazione, e la creazione di meccanismi di governo aperti ed equi per garantire lo sviluppo sicuro e benefico dell’IA.
La Global AI Governance Initiative pensa di poter assolvere a tutte queste istanze attraverso una serie di priorità, tra cui il fatto di richiedere l’applicazione di sistemi di test, valutazione, e gestione basati sui livelli di rischio dell’IA, mettere l‘etica al primo posto e sottolineare la necessità di non discriminazione e inclusione.
“Dovremmo rispettare la sovranità nazionale degli altri paesi e attenerci rigorosamente alle loro leggi quando forniamo loro prodotti e servizi di intelligenza artificiale. Ci opponiamo all’utilizzo delle tecnologie dell’intelligenza artificiale allo scopo di manipolare l’opinione pubblica, diffondere disinformazione, intervenire negli affari interni, nei sistemi sociali e nell’ordine sociale di altri paesi, nonché mettere a repentaglio la sovranità di altri stati.”
Gli sforzi profusi dovrebbero estendersi fino al coinvolgimento di una vasta gamma di stakeholder, dovrebbe spingersi fino al punto di dover sostenere i paesi in via di sviluppo nella governance dell’IA, e impegnarsi a cercare una cooperazione internazionale attraverso organizzazioni come le Nazioni Unite.
“Chiediamo una collaborazione globale per promuovere il corretto sviluppo dell’intelligenza artificiale, condividere la conoscenza dell’intelligenza artificiale e rendere le tecnologie dell’intelligenza artificiale disponibili al pubblico in termini open source. Ci opponiamo alla definizione di linee ideologiche o alla formazione di gruppi esclusivi per impedire ad altri paesi di sviluppare l’intelligenza artificiale. Ci opponiamo inoltre alla creazione di barriere e all’interruzione della catena di fornitura globale dell’intelligenza artificiale attraverso monopoli tecnologici e misure coercitive unilaterali che potrebbero mettere a repentaglio la sovranità di altri stati”, ha affermato la Cyberspace Administration.
Il richiamo dell’autorità cinese si riferisce in modo specifico alle nuove regole, annunciate dall’amministrazione statunitense, parte di un’ampia iniziativa volta a migliorare l’efficacia dei controlli sulle esportazioni di tecnologia dei semiconduttori verso la Cina. Dettami percepiti dai funzionari cinesi più come un ingiustificabile deterrente al progresso tecnologico e militare della nazione, piuttosto che un modo per affrontare le dichiarate preoccupazioni legate alla sicurezza nazionale e alle possibili applicazioni militari del governo cinese. A maggior ragione, ritengono i dirigenti della CAC, dopo che il presidente cinese Xi Jinping, durante il forum Belt and Road, ha già dichiarato come la Cina sia pronta a incrementare gli scambi con altri paesi e a promuovere lo sviluppo sano, etico e ordinato dell’intelligenza artificiale.
Intenzioni dunque non bellicose da parte di Xi, che tuttavia non collimano con le dichiarazioni con le quali, poche settimane fa, la Cina ha annunciato l’applicazione di restrizioni all’esportazione di grafite[3], un materiale chiave nella produzione di batterie per veicoli elettrici, oltre ad altri materiali necessari per produrre semiconduttori. Stesso ragionamento vale per le costrizioni destinate all’esportazione di gallio e germanio, emanate dopo che Stati Uniti, Paesi Bassi e Giappone hanno annunciato i limiti imposti all’esportazione in Cina di macchine per la produzione di semiconduttori di vecchia generazione.
E certamente il piano cinese non fa mistero dell’intenzione di voler offrire un’alternativa internazionale all’Occidente guidato dagli Stati Uniti: negli ultimi anni, sono state diverse le iniziative globali promosse dalla Cina, tra cui la Global Development Initiative, la Global Security Initiative e la Global Civilization Initiative, aventi tutte come obiettivo quello di promuovere una visione con un futuro condiviso per l’umanità.
In sintesi, dunque, mentre gli Stati Uniti intensificano i controlli sulle esportazioni di tecnologia dei semiconduttori verso la Cina, su altri fronti, quest’ultima cerca come può, almeno all’apparenza, di rispondere promuovendo la cooperazione internazionale e l’uso etico dell’intelligenza artificiale attraverso una serie di iniziative globali.
Tanto riflette le tensioni crescenti tra le due superpotenze in materia di tecnologia e sicurezza.
Stati Uniti da una parte e Cina dall’altra sembrano lontane anni luce in questo momento. Tuttavia, sebbene ciò sia innegabile, per qualcuno, il summit della Cooperazione economica Asia-Pacifico di scena a novembre a San Francisco potrebbe ancora rappresentare il giusto palcoscenico per far sì che le due potenze comincino finalmente a confrontarsi proficuamente.
“Ciascun leader dovrebbe discutere di come valuta personalmente i rischi posti dall’IA, di cosa sta facendo il suo Paese per prevenire le applicazioni che pongono rischi catastrofici e di come si assicura che le aziende nazionali non esportino rischi. Per informare il prossimo ciclo di discussioni, dovrebbero creare un gruppo consultivo composto da scienziati statunitensi e cinesi che si occupano di IA e da altre persone che hanno riflettuto sulle implicazioni di questi sviluppi”. Scrivono in un lungo articolo su Foreign Affairs l’ex segretario di Stato americano Henry Kissinger e l’ex assistente segretario alla Difesa americana per la politica e la pianificazione Graham Allison.
Il ruolo dell’Europa
L’Europa come si pone in tutto ciò? Malgrado le sollecitazioni regolatorie dell’ultimo periodo, il ruolo dell’Unione Europea nella contesa digitale resta ancora da decidere; piuttosto che subire i condizionamenti dell’una o dell’altra superpotenza, sembrerebbe molto più conveniente dimostrarsi il terzo grande protagonista.
Anche per quanto riguarda l’Italia, l’anno prossimo alla guida della presidenza del G7, il momento potrebbe essere propizio perché il nostro Paese si dimostri un valido interlocutore sui temi attorno a cui ruoteranno molte discussioni legate all’IA; a cominciare dalla Dichiarazione di Hiroshima con la quale il Gruppo dei Sette ha recentemente riconosciuto le “opportunità innovative” e la necessità di gestire i rischi delle nuove tecnologie attraverso una “governance inclusiva” che certamente rivela la volontà di “costruire una stabile relazione anche con la Cina”.
La Dichiarazione di Hiroshima del G7
La Dichiarazione di Hiroshima del G7: “costruire una stabile relazione con la Cina”. Ma non mancano le “preoccupazioni”
La dichiarazione, firmata dai leader di Canada, Francia, Germania, Giappone, Italia, Regno Unito e Stati Uniti, ha riconosciuto le opportunità e il potenziale trasformativo dell’intelligenza artificiale, ma ha sottolineato anche la necessità di gestire i rischi per proteggere i principi democratici, lo stato di diritto e i valori condivisi. I leader del G7 hanno altresì sostenuto l’esigenza di giungere quanto prima allo sviluppo e l’adozione di standard tecnici internazionali e di misure adeguate di protezione dei dati personali e della proprietà intellettuale.
Il documento si accompagna di altri due atti: uno che individua 11 Principi guida per i sistemi avanzati di intelligenza artificiale e un Codice di condotta internazionale. Scritti che saranno aggiornati, se necessario, per rimanere adeguati alle tecnologie in evoluzione.
Gli 11 Principi guida coprono vari aspetti, inclusa la necessità di identificare, valutare e mitigare i rischi durante lo sviluppo, la distribuzione e la messa in commercio di sistemi avanzati di intelligenza artificiale. Inoltre, raccomanda che le organizzazioni che sviluppano tali sistemi debbano monitorare le vulnerabilità e segnalarne pubblicamente le capacità e le limitazioni.
La gestione del rischio è al centro dell’approccio patrocinato dai Paesi del G7, insieme all’assolvimento di solidi controlli di sicurezza, autenticazione dei contenuti e alla promozione degli Obiettivi di Sviluppo Sostenibile delle Nazioni Unite.
Non solo, perchè gli 11 principi sanciti dal G7 e il Codice di condotta volontario dovranno integrare a livello internazionale le norme comunitarie giuridicamente vincolanti che i co-legislatori del Parlamento e del Consiglio dell’Ue stanno finalizzando nell’ambito dei triloghi sul Regolamento sull’intelligenza artificiale. E tanto sembrerebbe essere visto di buon occhio in modo particolare dalla Commissione UE.
Rapporti con la Cina: le preoccupazioni del G7
Inoltre, come già anticipato la dichiarazione sottolinea anche l’esigenza di costruire una “stabile relazione con la Cina” sebbene individui diverse “preoccupazioni” legate alle politiche e alle azioni cinesi.
Tra queste:
- De-risking: ovvero la necessità di ridurre l’eccessiva “dipendenza dalle catene di approvvigionamento critiche” in ottica di maggiore indipendenza produttiva che, tuttavia, potrebbe influenzare gli impianti cinesi e l’economia del paese.
- Coercizione Economica: La dichiarazione del G7 “accusa” la Cina di utilizzare politiche “non commerciali” che distorcono l’economia globale e pratiche malevole, come il trasferimento tecnologico illegittimo e la gestione dei dati. Si fa riferimento alla coercizione economica, che implica l’uso di leve economiche e forza commerciale per scopi politici.
Oltre ovviamente alle ricorrenti questioni che includono i diritti umani e la sicurezza economica e geopolitica.
La relazione tra il G7 e la Cina rimane, dunque, almeno per ora, alquanto complessa e certo le reazioni alle affermazioni del G7, non hanno lesinato proteste formali da parte delle istituzioni cinesi.
Il “dialogo tecnologico” UE-Cina
Preoccupazioni più o meno analoghe erano già emerse a settembre di quest’anno, quando i funzionari dell’UE e della Cina hanno tenuto una “discussione approfondita” sulle questioni di governance del digitale in un incontro (il secondo dialogo digitale ad alto livello con la Cina) presieduto da Věra Jourová, il nuovo capo digitale della Commissione europea, e dal vice-premier cinese Zhang Guoqing.
Il confronto si è concentrato su questioni chiave come la regolamentazione dei dati, la ricerca e l’innovazione, il flusso di dati industriali transfrontalieri, la sicurezza dei prodotti venduti online e, ovviamente, l‘intelligenza artificiale. Sono stati discussi temi come lo sviluppo normativo nell’UE, la legge sui servizi digitali – DSA e la legge sui mercati digitali – DMA. Proprio nel contesto dell’intelligenza artificiale, sono stati esaminati i possibili sviluppi normativi e l’importanza dell’uso etico e responsabile della tecnologia nel rispetto dei diritti umani. L ‘attenzione sulle questioni cruciali legate alle tecnologie digitali e all’IA ha costituito il fil rouge dell’incontro.
La Commissione ha enfatizzato l’importanza attribuita al supporto agli standard globali e ha chiesto alla Cina di creare un contesto imprenditoriale equo e reciproco nel settore digitale. Le preoccupazioni hanno riguardato le difficoltà delle imprese dell’UE poste di fronte all’incognita dell’utilizzo dei propri dati industriali in Cina, ma non sono mancati neppure i rilievi mossi in questioni di sviluppo economico, catene di approvvigionamento e sicurezza tecnologica. Ad ogni modo, l’incontro si è concluso con la firma di un piano d’azione sulla sicurezza dei prodotti venduti online avente l’obiettivo di migliorare la cooperazione e lo scambio di informazioni sull’affidabilità dei prodotti. Meglio di niente.
L’ordine esecutivo sull’IA del Presidente Biden
Nel mentre anche gli Stati Uniti si sono mossi, nella regolamentazione dell’IA, per mettersi al passo con gli altri governi, Cina e UE in primis.
Lo hanno fatto con un ordine esecutivo del Presidente. Una via preferenziale che non richiede l’approvazione del Congresso ed è immediatamente efficace. E’ importante notare, inoltre, che il decreto, sebbene non possa essere modificato direttamente dal Congresso, tuttavia potrebbe essere reso inefficace in modo indiretto attraverso il rifiuto di stanziare i fondi necessari per la sua attuazione. Fermo restando anche il potere del prossimo Presidente di apportare modifiche al contenuto dello stesso a suo piacimento. Con buona pace, infine, della legittimità associata all’adozione di una legislazione approvata dal Parlamento.
Gli sviluppatori dei più potenti sistemi di intelligenza artificiale dovranno affrontare nuovi obblighi in materia di test di sicurezza, autenticazione dei contenuti e watermarking per i contenuti generati dall’intelligenza artificiale, secondo l’ordine esecutivo emesso a fine ottobre dal presidente degli Stati Uniti Joe Biden. Il provvedimento è arrivato un giorno prima che il vicepresidente Kamala Harris si recasse nel Regno Unito per partecipare a un vertice globale sulla sicurezza dell’intelligenza artificiale convocato dal primo ministro britannico Rishi Sunak.
L’insieme delle riforme costituisce “la più forte serie di azioni che un governo al mondo abbia mai intrapreso in materia di sicurezza, protezione e fiducia nell’intelligenza artificiale”, ha affermato entusiasta il vice capo dello staff della Casa Bianca Bruce Reed.
In modo particolare l’ordine esecutivo sull’IA promuove la previsione di nuovi standard per la sicurezza e la protezione nell’ambito dell’IA, con l’obiettivo di proteggere la privacy degli americani, favorire l’equità e i diritti civili, difendere i consumatori e i lavoratori, stimolare l’innovazione, e certamente mantenere la leadership globale degli Stati Uniti nell’ambito dell’IA e altro ancora. Non c’è da stupirsi, infatti, che al momento della firma, Biden abbia menzionato i nuovi limiti per i chip IA presentati all’inizio del mese per potenziare i controlli sulle esportazioni di chip avanzati verso la Cina.
L’ordine rappresenta la naturale continuazione delle precedenti iniziative intraprese dal presidente, tra cui il rilascio da parte del Dipartimento del Commercio di un quadro di gestione del rischio, il progetto per una Carta dei diritti dell’intelligenza artificiale, incluso l’impegno volontario di 15 aziende leader per promuovere lo sviluppo sicuro e affidabile dell’IA.
Le azioni previse dall’Ordine esecutivo Usa
Le principali azioni menzionate includono:
- Stabilire nuovi standard di sicurezza per l’IA, richiedendo agli sviluppatori dei sistemi di IA più avanzati di condividere i risultati dei test di sicurezza e altre informazioni critiche con il governo federale. Questo è mirato a garantire che i sistemi di IA siano sicuri prima di essere resi pubblici. Il National Institute of Standards and Technology stabilirà gli standard per tali test e i Dipartimenti per la Sicurezza Nazionale e l’Energia saranno strettamente coinvolti nella valutazione delle minacce alle infrastrutture vitali.
- Sviluppare schemi, strumenti e test per garantire la sicurezza dell’IA, con un focus su settori critici come le infrastrutture critiche e la cybersecurity.
- Proteggere gli americani dai rischi legati all’utilizzo dell’IA per progettare materiali biologici pericolosi attraverso nuovi pattern per lo screening della sintesi biologica.
- Creare modelli e migliori pratiche per rilevare i contenuti generati dall’IA e autenticare i contenuti ufficiali, con l’obiettivo di prevenire frodi e inganni basati sull’IA.
- Sviluppare strumenti di IA per individuare e correggere le vulnerabilità del software critico, migliorando la sicurezza informatica.
- Promuovere la privacy degli americani attraverso l’adozione di tecniche di tutela della protezione dei dati personali e la ricerca di tecnologie che preservano la sicurezza dei trattamenti.
- Affrontare la discriminazione, il pregiudizio e altri abusi legati all’IA, garantendo che gli algoritmi dell’IA non aggravino la discriminazione.
- Sostenere i consumatori, ad esempio, nell’ambito sanitario e dell’istruzione, attraverso l’uso responsabile dell’IA.
- Sostenere i lavoratori affrontando le sfide legate ai cambiamenti nei posti di lavoro dovuti all’IA e promuovendo la formazione e lo sviluppo della forza lavoro.
- Promuovere l’innovazione e la concorrenza, facilitando l’accesso degli sviluppatori e imprenditori ai vantaggi dell’IA e supportando la ricerca sull’IA.
- Collaborare con altri paesi per promuovere l’uso sicuro e responsabile dell’IA a livello globale.
- Assicurare un utilizzo responsabile dell’IA da parte del governo federale attraverso l’implementazione di linee guida e prototipi di sicurezza.
Come noto, gli Stati Uniti non hanno ancora adottato una legge generale sull’IA. Leggi e regolamenti federali pertinenti si applicano semmai a specifici settori, come la sicurezza stradale (con l’attenzione sui veicoli autonomi), la privacy dei dati (come la Legge sulla protezione della privacy del consumatore online della California-CCPA), e la discriminazione nei servizi finanziari (con l’uso di modelli di IA).
Il governo federale ha invece adottato normative in materia di sicurezza cibernetica destinate ai settori critici come l’energia, i servizi finanziari e la salute. Iniziative sono state intraprese anche per promuovere la formazione nell’ambito dell’IA.
Sempre l’Amministrazione Biden ha incluso specifici investimenti per l’IA nell’American Jobs Plan al fine di sviluppare e promuovere l’innovazione.
Non mancano le Carte Etiche e anche l’uso di algoritmi di IA nei mercati finanziari è soggetto a normative specifiche per prevenire la manipolazione e l’abuso del mercato.
Inoltre, alcune agenzie governative, come la Federal Trade Commission (FTC) e il Dipartimento di Giustizia, stanno esaminando le implicazioni dell’IA per la concorrenza e la regolamentazione antitrust.
L’AI Executive Order è dunque il primo provvedimento parzialmente vincolante nella storia degli Stati Uniti in termini di regolamentazione dell’IA, differenziandosi dai precedenti impegni volontari delle grandi aziende tecnologiche. La protezione della sicurezza nazionale e la prevenzione dalle interferenze esterne che potrebbero minacciare la sicurezza degli Stati Uniti sono i suoi due capisaldi.
Il compito di attuare le linee guida e i principi contenuti nell’ordine viene affidato alle agenzie federali competenti, in particolare nei settori della sicurezza nazionale, della sicurezza cibernetica e della protezione dei consumatori. E tutto lascia intendere che tanto possa rappresentare un tentativo di responsabilizzare queste stesse agenzie nell’implementazione dei principi dell’atto.
Molti già si chiedono se una simile impostazione potrà mai rivelarsi efficacemente praticabile in un contesto di sostanziale autoregolamentazione.
Gli osservatori cinesi, vanno anche oltre,nritenendo queste nuove regole dell’amministrazione Biden un tentativo di politicizzare l’IA per trasformarla in uno strumento asservito alla competizione tecnologica globale.
La risposta della Cina all’ascesa dei nuovi strumenti di AIGC (come ChatGPT)
Le tensioni crescenti tra le principali economie occidentali e la Cina non hanno distolto l’attenzione di quest’ultima sulle tematiche legate allo sviluppo dei sistemi di IA generativa e sul suo potenziale di trasformazione per le economie e le società, in grado di sollevare enormi sfide di governance.
A tal proposito il Basic security requirements for generative artificial intelligence service è la prima stesura di un documento che il TC260 cinese, l’organismo nazionale di definizione degli standard sulla sicurezza delle informazioni, ha pubblicato per fornire determinate specifiche riguardo ai requisiti di sicurezza che i fornitori di servizi basati su intelligenza artificiale generativa (gAI) dovranno seguire. Sebbene ancora in fase non definitiva, l’atto chiarisce sin d’ora l’approccio scelto dal governo cinese in merito alla gestione dell’impatto dell’IA sulle dinamiche sociali e politiche; in modo particolare sulla disinformazione, il condizionamento dell’opinione pubblica, la discriminazione, la sicurezza e la protezione dei dati personali e industriali. Ed è un approccio che include non solo norme legali ma anche regole tecniche da applicare in chiave sinergica, destinate ad essere rispettate prima dell’erogazione dei servizi e flessibili al punto da poter essere variate più rapidamente rispetto alle leggi o altri atti regolamentari.
C’è inoltre, e non poteva essere diversamente, una chiara enfasi sulla protezione dei confini statali cinesi. Le regole in corso di valutazione stabiliscono infatti che le aziende cinesi possono progettare le proprie gAI come preferiscono quando si rivolgono a un pubblico straniero, ma le gAI straniere destinate al pubblico cinese dovranno rispettare le regole cinesi, anche se i fornitori non sono localizzati in Cina.
Le misure previste impongono una serie di requisiti tecnici che coinvolgono anche i set di dati utilizzati per l’addestramento delle gAI, la trasparenza dei servizi gAI e l’uso delle tecnologie gAI in conformità con i valori socialisti cinesi. Sono comprese anche specifiche disposizioni sulla qualità dei dati di addestramento, l’uso di fonti diverse e la tracciabilità delle stesse. Inoltre, ai fornitori viene richiesta una sorta di assunzione di responsabilità in fatto di qualità e sicurezza dei risultati prodotti dai servizi gAI.
Non dimentichiamo che in Cina, la stretta sulla sovranità tecnologica è a 360 gradi e rappresenta un fattore strategico e geopolitico cruciale: il controllo delle reti e dei dati all’interno dei propri confini costituisce un vantaggio competitivo imprescindibile proprio in vista dell’ambita governance globale dei dati. Allo stesso modo il percorso verso la regolamentazione delle grandi industrie tecnologiche rappresenta una priorità cruciale ben delineata anche nella stretta anti-Big Tech condotta dalle autorità di Pechino per mettere un freno ai comportamenti monopolistici delle grandi aziende del comparto: Alibaba, Tencent, JD.Com, Xiaomi, ma anche Apple, recentemente “schiaffeggiata” dalla Corte suprema della Cina (la cui interpretazione giudiziale in Cina ha valore di legge).
Avendo dunque ben presente la natura totalitaria del regime cinese, la scelta di dotarsi di un’adeguata normativa in materia di intelligenza artificiale, oltre che protezione dei dati e controllo del mercato, non può certo stupire.
Il quadro regolatorio cinese per l’IA
Nulla può esistere al di fuori del Partito, della sua narrazione, della sua visione.
Parliamo di un quadro normativo[4] composto da fonti primarie e secondarie che, inserendosi in un sistema regolatorio in costante evoluzione e già attivo sull’IA: ne fanno parte altri tre provvedimenti di spessore, la Personal Information Protection Law of the People’s Republic of China, “PIPL” entrata in vigore il 1° novembre 2021, la Cybersecurity Law, in vigore dal primo giugno 2017 e la Data Security Law approvata il 10 giugno 2021, oltre alla proposta dell’amministrazionecinese del cyberspazio -CAC e altri sei dipartimenti ministeriali, contenente una serie di misure provvisorie per l’amministrazione di servizi di intelligenza artificiale generativa. Ne sono tasselli di rilievo anche le disposizioni sulla gestione delle raccomandazioni algoritmiche dell’Internet Information Service, le disposizioni sulla gestione della sintesi profonda dell’Internet Information Service e anche le imminenti misure per la gestione delle revisioni etiche delle attività scientifiche e tecnologiche[5] – che costituiscono la base legale primaria e il quadro normativo per garantire la conformità nel settore AIGC). Questi i guardrail normativi applicabili alla ricerca, allo sviluppo e all’uso di prodotti con funzioni di intelligenza artificiale generativa e non. L’attenzione come già detto è in particolare concentrata sulle fasi di addestramento degli algoritmi, sulla selezione dei set di dati, sul rispetto della privacy e della proprietà intellettuale.
Mentre sia innegabile una certa somiglianza con quanto rappresentato nel quadro regolatorio in fieri nella legislazione europea, è altrettanto evidente però lo slancio rivolto al controllo dell’informazione e alla prevenzione dell’uso contrario delle applicazioni di gAI all’ordine pubblico.
Come dire se da una parte la Cina ambisce a mantenere il controllo sulle operazioni delle aziende straniere nel suo mercato interno, dall’altra consente alle aziende cinesi maggiore flessibilità per competere a livello internazionale.
La domanda è: questo approccio programmatico e “a doppio binario” potrebbe offrire ulteriori spunti per il legislatore europeo nell’elaborazione definitiva della normativa pensata per l’IA?
La sfida che si porta dietro la governance del digitale è a dir poco complessa, ardua. La materia è in costante evoluzione e la frontiera che si pone dinanzi a ricercatori e istituzioni è mobile, proiettata costantemente in avanti.
Metodologie e norme eccessivamente dettagliate o prescrittive saranno destinate ad essere velocemente obsolete. Sarebbe come scrivere sulla sabbia.
E come sappiamo bene il contesto digitale non è clemente con chi non sa maneggiare la risorsa più importante che ha a disposizione: il tempo.
Conclusioni
Il potenziale legato al mercato oligarchico condotto dalle multinazionali digitali ne costituisce non a caso il principale campo di battaglia.
Se in Europa, i paletti normativi applicati all’innovazione tecnologica sono presidi fondamentali per promuovere lo sviluppo delle tecnologie emergenti in armonia con i valori costituzionali europei, negli Stati Uniti, tali limiti sollevano preoccupazioni non solo tra i regolatori. In Cina, invece, si rivelano indispensabili, principalmente per mantenere il controllo politico e il potere.
Insomma se l’impianto regolatorio della Cina è senz’altro influenzato dai valori confuciani e dall’ideologia del socialismo cinese, che implica anche una resa dei diritti civili al controllo sociale da parte delle Autorità, l’approccio dell’Unione Europea, invece, sulla scia dei propri valori fondanti, anche nella formalizzazione di regole circa l’intelligenza artificiale, segue in linea di principio il proprio retaggio sorretto dal rispetto dei diritti fondamentali, della democrazia e della legalità. Mentre gli Stati Uniti d’America, benchè l’approccio minimalista alla regolamentazione stia gradualmente incorporando l’attenzione europea verso le potenziali criticità di alcune applicazioni dell’IA, procedono ancora lungo la linea della minimizzazione dell’interferenza governativa in chiave di libero mercato, cercando di evitare l’interferenza eccessiva del governo nell’innovazione e nello sviluppo dell’IA. Tanto peraltro riflette la loro posizione di potenza tecnologica e la loro determinazione a mantenere la leadership nell’innovazione dell’IA, con un’enfasi sulla sicurezza nazionale e sulla competizione con altre nazioni.
Una cosa è certa, più che i quadri regolatori, ciò che determinerà il cambiamento saranno gli effetti delle regole una volta che queste diverranno operative nel contesto politico e istituzionale, sociale e culturale.
Note
- Su altri fronti i leader di India, Arabia Saudita, Emirati Arabi Uniti, Francia, Germania, Italia, Unione Europea e Stati Uniti si sono impegnati a lavorare insieme per stabilire il corridoio economico India-Medio Oriente-Europa per stimolare il commercio e sbloccare il potenziale economico della regione, in un progetto concepito per rivaleggiare con la Belt and Road Initiative cinese. ↑
- “La Cina si oppone fermamente ai controlli aggiornati del governo degli Stati Uniti sulle esportazioni di chip legati all’intelligenza artificiale e apparecchiature per la produzione di semiconduttori verso la Cina”. E’ questo il contenuto di una recente dichiarazione del Ministero del Commercio cinese che prosegue: “I controlli sulle esportazioni aggiornati hanno rafforzato le restrizioni iniziali rilasciate dagli Stati Uniti il 7 ottobre 2022, aggiungendo diverse società cinesi a una “lista di entità” di controllo delle esportazioni. Gli Stati Uniti hanno esagerato con il concetto di sicurezza nazionale e hanno abusato delle misure di controllo delle esportazioni, ha affermato il ministero. La Cina ha esortato gli Stati Uniti a rimuovere le restrizioni il prima possibile e a creare un ambiente commerciale equo, giusto e prevedibile per le aziende cinesi. La Cina adotterà inoltre tutte le misure necessarie per salvaguardare i suoi diritti e interessi legittimi”. ↑
- Le esportazioni cinesi di grafite saranno limitate, ha annunciato il ministero del Commercio cinese. Da dicembre gli importatori dovranno richiedere le licenze, come già fanno per i materiali gallio e germanio. La Cina produce fino all’80% della grafite mondiale, un componente importante nelle batterie dei veicoli elettrici.La restrizione sulla grafite viene anche vista come una reazione all’indagine dell’UE sui sussidi statali cinesi per i produttori di veicoli elettrici, avviata formalmente all’inizio del mese di ottobre. ↑
- Merita di essere ricordato il New Generation Artificial Intelligence Development Plan (AIDP), emanato nel 2017 dal Consiglio di Stato cinese, supremo organo amministrativo dell’ordinamento, a due anni dall’adozione del programma “Made in China 2025”. Il documento sottolinea la necessità dello sviluppo di norme etiche, svolgendo una funzione essenzialmente di moral suasion, e attribuendo responsabilità di coordinamento ai livelli di governo locali. Oltre a ciò, nel marzo del 2019 il Ministero cinese della Scienza e della Tecnologia ha istituito il National New Generation Artificial Intelligence Governance Expert Committee, che pochi mesi dopo ha emanato otto principi fondamentali per il governo dell’AI, tra cui quelli di trasparenza, dignità umana, privacy, responsabilità, in relazione ai quali l’ente nazionale di standardizzazione ha elaborato un libro bianco sugli standard nell’AI che ancora una volta include la riflessione sulla sicurezza di queste tecnologie e la loro sostenibilità dal punto di vista etico. ↑
- Il regolamento che disciplina la revisione dell’etica scientifica e tecnologica, che entrerà in vigore il 1° dicembre, è stato emanato congiuntamente da cinque dipartimenti governativi, quattro accademie di ricerca e dalla Commissione scientifica e tecnologica della Commissione militare centrale cinese. Secondo le misure, le attività che coinvolgono partecipanti alla ricerca umana, campioni biologici umani e dati personali, nonché quelle relative ad animali da esperimento, dovrebbero essere soggette a revisioni etiche. Oltre al controllo interno effettuato dalle organizzazioni e dalle imprese stesse, le misure prevedono un riesame del controllo etico o un secondo controllo etico per le attività sci-tech quando presentano rischi etici relativamente elevati. La seconda revisione etica verrebbe effettuata da un gruppo di esperti organizzato dal governo locale o dall’ente regolatore industriale. Quali attività sci-tecnologiche sono soggette al requisito della seconda revisione saranno determinate da un elenco pubblicato e adattato dinamicamente dal Ministero della Scienza e della Tecnologia, o MOST. ↑