governance dell’IA

Regole sull’IA generativa, la Cina vuole il primato: opposte visioni a confronto



Indirizzo copiato

Regolamentare i sistemi avanzati di IA è ormai un’esigenza ineludibile. La Cina vuole essere pioniera, ma come si sta muovendo il resto del mondo? In gioco non solo relazioni tra governi, ma anche le diverse percezioni che i rispettivi cittadini hanno su temi come i diritti fondamentali e il rapporto col potere

Pubblicato il 11 mag 2023

Barbara Calderini

Legal Specialist – Data Protection Officer



cina tech

La tecnologia è il motore che alimenta i superpoteri.

E d’altra parte la lotta per l’industria dei dati è iniziata ormai da tempo. Il potenziale legato al mercato oligarchico condotto dalle multinazionali digitali ne costituisce non a caso il principale campo di battaglia.

Lo scorso 11 aprile la Cina ha pubblicato una bozza di norme pensate regolamentare lo sviluppo di prodotti generati da tecniche di Generative AI (GAI): ChatGPT e in generale tutte quelle applicazioni appartenenti alla categoria denominata Artificial Intelligence Generated Content (AIGC) che prevede la creazione di contenuti digitali, come immagini, musica e linguaggio naturale, attraverso modelli di AI.

La proposta cinese, sottoposta a commenti pubblici fino al 10 maggio 2023, se implementata, segnerebbe la prima legge scritta al mondo specifica sull’AIGC.

Il contesto globale sulla governance dell’IA

Da Bruxelles, a Seattle fino a Pechino, regolamentare lo spazio digitale e, in modo particolare, regolamentare gli strumenti e i sistemi avanzati di intelligenza artificiale appare ormai un’esigenza ineludibile e, questo, ben al di là del “dovere” di promuovere la tutela delle ideologie, dei valori e dei diritti fondamentali.

La posizione di Beuc e Edpb

In Europa l’Organizzazione europea dei consumatori (BEUC) si è unita al coro di preoccupazione per ChatGPT invitando le agenzie di protezione dei consumatori dell’UE a indagare sui potenziali danni alle persone.

Il Comitato europeo per la protezione dei dati, EDPB, ha dichiarato ad aprile di aver istituito una task force su ChatGPT.

Gli Stati europei

In Francia e in Spagna ChatGTP è attualmente al vaglio delle rispettive autorità garante CNIL e AEPD.

In Italia, il primo paese europeo a bloccare l’uso del software prodotto da OpenAi, ChatGPT pare, invece, aver risolto in maniera soddisfacente i suoi problemi ed è infatti tornato nuovamente disponibile, con un messaggio di benvenuto ai suoi utenti: ciò dopo la temporanea sospensione di marzo disposta dall’autorità per la protezione dei dati, GPDP, per violazioni del Regolamento generale sulla protezione dei dati (Gdpr).

Anche in Germania sono in corso indagini per verificare se OpenAI stia o meno violando il Gdpr.

La posizione della Ue

Tutto, mentre, l’UE sta ancora discutendo l’introduzione della legge sull’IA.

Il provvedimento noto come AI Act disciplinerà l’operato di chiunque fornisca un prodotto o un servizio che utilizza l’intelligenza artificiale. Il concetto di rischio sarà il perno del nuovo regolamento che divide le applicazioni in tre categorie di rischio: basso, alto e inaccettabile.L’approvazione finale è prevista per metà giugno.

Il Regno Unito

Il Regno Unito sta pensando di affidare la regolamentazione delle applicazioni di intelligenza artificiale a quattro enti già strutturati, cioè quelli per la tutela dei diritti umani, della salute, della sicurezza e della concorrenza, abbamdonandop l’idea di una nuova autorità ad hoc.

Il Giappone

In Giappone, il ministro della trasformazione digitale Taro Kono ha manifestato la chiara intenzione di traslare la spinosa questione legata alla governance dell’AI in campo internazionale. Ha infatto chiesto una riunione dei ministri digitali del G7 per discutere specificatamente delle tecnologie AI tra cui ChatGPT e giungere in tal modo ad un messaggio unificato.

Le mosse Usa

Negli USA, l’amministrazione Biden ha già avviato consultazioni pubbliche su potenziali misure di responsabilità per i sistemi di intelligenza artificiale e i conseguenti rischi per la società, la sicurezza nazionale e l’economia.

In Canada

In Canada, il Garante per la privacy federale ha annunciato l’avvio di un’istruttoria a carico di OpenAi. E anche in Australia, il principale organo scientifico del paese è stato investito del compito di giungere ad un parere preventivo su quali misure mettere in campo per regolamentare questi sistemi.

La risposta della Cina all’ascesa dei nuovi strumenti di AIGC (come ChatGPT)

In Cina, la stretta è a 360 gradi e rappresenta un fattore strategico e geopolitico cruciale: il controllo delle reti e dei dati all’interno dei propri confini costituisce un vantaggio competitivo imprescindibile in vista dell’ambita governance globale dei dati. Allo stesso modo il percorso verso la regolamentazione dei grandi poteri privati rappresenta una priorità cruciale ben delineata nella stretta anti-Big Tech condotta dalle autorità di Pechino per mettere un freno ai comportamenti monopolistici delle grandi aziende del comparto: Alibaba, Tencent, JD.Com, Xiaomi, ma anche Apple, recentemente “schiaffeggiata” dalla Corte suprema della Cina (la cui interpretazione giudiziale in Cina ha valore di legge).

Avendo ben presente la natura totalitaria del regime cinese, la scelta della Cina di dotarsi di una stringente normativa in materia di intelligenza artificiale, oltre che protezione dei dati e controllo del mercato non stupisce.

Nulla può esistere al di fuori del Partito, della sua narrazione, della sua visione.

Storicamente, proprio i regimi autocratici si sono rivelati i migliori “amministratori politici” della modernità e dell’innovazione, forti dell’adesione di milioni di persone di cui hanno plasmato il comportamento individuale e sociale e di cui controllano ogni espressione.

Vale a maggior ragione in Cina dove, a partire dagli insegnamenti di Confucio (551-479 a.C), ogni manifestazione dell’autorità di governo viene intesa dal popolo cinese come un assioma ontologico fondamentale per il benessere, e dove annientare tutti i flussi contrari al sistema di controllo diventa un imperativo categorico.

La proposta della Cyberspace Administration of China conferma l’approccio “verticale” e iterativo tipico della propria regolamentazione dedicata all’IA ed è destinata a disciplinare in modo specifico il modo in cui le aziende svilupperanno i prodotti di IA generativa come ChatGPT. Sono infatti previste regole ferree che i servizi di intelligenza artificiale generativa avranno l’obbligo di rispettare.

Tra queste in primis il fatto per cui i contenuti generati dall’IA, che siano essi testi, immagini, suoni, video, codici e altri risultati basati su algoritmi, modelli, dovranno riflettere in maniera chiara i valori fondamentali del socialismo scongiurando qualunque rischio di sovversione del potere statale.

“I contenuti generati utilizzando l’IA generativa devono incarnare i valori socialisti fondamentali e non devono incitare alla sovversione della sovranità nazionale o al rovesciamento del sistema socialista, incitare al separatismo, minare l’unità nazionale, sostenere il terrorismo o l’estremismo, propagare l’odio etnico e la discriminazione etnica, o avere informazioni violente, oscene o false, nonché contenuti che potrebbero turbare l’ordine economico o sociale.” Articolo 4, paragrafo 1 (che richiama l’articolo 12 della Legge sulla sicurezza informatica).

Parliamo di un quadro normativo composto, per il momento, da21 articoli che, inserendosi in un sistema regolatorio in costante evoluzione e già attivo sull’IA (di cui fanno parte altri tre provvedimenti di spessore, la Personal Information Protection Law of the People’s Republic of China, “PIPL” entrata in vigore il 1° novembre 2021, la Cybersecurity Law, in vigore dal primo giugno 2017 e la Data Security Law approvata il 10 giugno 2021, oltre alle disposizioni sulla gestione delle raccomandazioni algoritmiche dell’Internet Information Service, alle disposizioni sulla gestione della sintesi profonda dell’Internet Information Service e alle imminenti misure per la revisione etica of Science and Technology – che costituiscono la base legale primaria e il quadro normativo per garantire la conformità nel settore AIGC), definisce i guardrail normativi applicabili alla ricerca, allo sviluppo e all’uso di prodotti con funzioni di intelligenza artificiale generativa. L’attenzione è in particolare richiamata sulle fasi di addestramento degli algoritmi, sulla selezione dei set di dati, sul rispetto della privacy e della proprietà intellettuale.

L’obiettivo dichiarato del progetto

L’obiettivo dichiarato del progetto è sostenere lo sviluppo sano e l’applicazione regolamentata degli strumenti di intelligenza artificiale generativa. Ciò senza ostacolare, bensì incoraggiando, almeno nelle intenzioni dichiarate dai regolatori cinesi, l’innovazione indipendente, una maggiore consapevolezza e la cooperazione internazionale sulle nuove tecnologie dell’informazione.

Questi i punti salienti emersi dall’esame del progetto e la cornice di obblighi e responsabilità incombenti sulle aziende coinvolte nello sviluppo e utilizzo di AIGC :

  • Fornitori di IA generativa. La definizione contenuta nell’art. 5 è piuttosto ampia. Vengono definiti tali sia le organizzazioni che gli individui, che implementano prodotti di IA generativa per fornire servizi come chat e generazione di testo, immagini e suoni, inclusi coloro che supportano altri nella generazione di testo, immagini e suoni fornendo interfacce programmabili. Sarebbero quindi incluse sia le società che forniscono tecnologie sottostanti sia le società che offrono servizi a livello di applicazione, ma esclude gli utenti finali AIGC. Le misure AIGC possono anche disciplinare i prodotti AIGC “a targeting specifico”, il che significa che anche se un prodotto AIGC non è rivolto direttamente al pubblico, ma a specifici utenti aziendali domestici o prodotti progettati su misura, può comunque essere soggetto alle Misure AIGC.
  • Responsabilità. Le organizzazioni che utilizzano l’IA generativa, le aziende che forniscono l’accesso all’IA generativa tramite “interfacce programmabili”, ovvero API come quelle rilasciate da OpenAI e Google, devono assumersi la responsabilità del produttore per il contenuto generato. Devono garantire “la veridicità, l’accuratezza, l’obiettività e la diversità” dei loro set di dati di formazione, e, se sono coinvolti dati personali, assumersi la responsabilità della sicurezza, correttezza e trasparenza dei trattamenti delle relative informazioni. Inoltre, i fornitori si considerano responsabili della legittimità dei dati di pre-formazione e dei dati di formazione dei processi algoritmici predittivi. Qualora i dati contengano informazioni personali, i fornitori dovranno ottenere il consenso dell’interessato o soddisfare altre circostanze previste dalle leggi applicabili. Sempre i fornitori di servizi avranno l’obbligo di proteggere le informazioni di input dell’utente e i record di utilizzo e non conservare illegalmente quelle informazioni che potrebbero consentire l’identificazione degli utenti.
  • Processo di progettazione dell’algoritmo, selezione dei dati di addestramento, generazione e ottimizzazione del modello e fornitura del servizio. Valutazione d’Impatto della sicurezza. I servizi di IAGC sono tenuti ad adottare misure per prevenire la discriminazione basata su razza, etnia, credo, paese, regione, genere, età, occupazione, ecc.

Prima di offrire un servizio di IA generativa al pubblico in generale, un fornitore dovrà presentare alla Cyberspace Administration of China una due diligence di sicurezza e condividere determinate informazioni riguardanti l’uso degli algoritmi (ad esempio, il nome del fornitore del servizio, il modulo del servizio, il tipo di algoritmo e rapporto di autovalutazione dell’algoritmo) con la stessa. Ovvero dovranno condurre valutazioni in conformità con le “Disposizioni sulla valutazione della sicurezza” e adempiere agli obblighi di archiviazione dell’algoritmo in aderenza alle prescrizioni contenute nelle “Disposizioni per la gestione degli algoritmi”.

  • Proprietà Intellettuale e altri Diritti. I servizi di IA dovranno rispettare i diritti di proprietà intellettuale (“IP”) e l’etica aziendale e non utilizzare vantaggi come algoritmi, dati e piattaforme per attuare pratiche di concorrenza sleale. Oltre a ciò è fatto obbligo di rispettare gli interessi legittimi prevalenti, prevenire danni alla salute fisica e mentale degli altri, preservare la reputazione e la privacy personale degli individui.

Proprio in fatto di copyright, tuttavia, la bozza non arriva a spiegare quali usi didattici dei set di dati da parte degli strumenti di intelligenza artificiale possano essere considerati una violazione. Un’opera è necessariamente riprodotta quando è inclusa in un database, e questa può essere una violazione del copyright, ma può anche essere considerata come rientrante in una delle eccezioni di “fair use” nella legge cinese sul copyright , come per l’utilizzo di opere pubblicate da altri per la ricerca personale.

  • Correttezza ed Esercizio dei Diritti. I servizi di intelligenza artificiale generativa dovranno richiedere agli utenti di fornire informazioni per verificarne la reale identità, stabilire meccanismi per ricevere e gestire i reclami degli utenti e risolvere prontamente le richieste dei soggetti per correggere, eliminare e bloccare i trattamenti delle loro informazioni personali.
  • Ruolo attivo degli utenti. Contenuto illegale o mistificatorio. L’articolo 18 specifica: “Quando gli utenti scoprono che i contenuti generati non soddisfano i requisiti normativi, hanno il diritto di effettuare una segnalazione ai servizi di informazione Internet o ai servizi competenti pertinenti”. A seguito della segnalazione, l’articolo 15 prevede un periodo di grazia. Entro tre mesi dalla scoperta di tali contenuti, i fornitori saranno tenuti, oltre che ad applicare misure di filtraggio dei contenuti, anche ad addestrare e ottimizzare la loro tecnologia per impedire la rigenerazione di contenuti simili.
  • Sanzioni. Le regole prevedono che qualora le correzioni dei dipartimenti informativi di rete non vengano processate o le circostanze siano gravi, l’uso dei servizi di IA generativa possa essere sospeso o interrotto ed è prevista l’applicazione di una sanzione da 10.000 RMB (circa 1.330 €) a 100.000 RMB (circa 1.330 RMB) € 13.308) o anche responsabilità penali.

Trattasi dunque di molteplici questioni, delineate nell’articolo 4 del disegno, piuttosto note nel contesto del dibattito globale sull’intelligenza artificiale: controlli sui contenuti, censura e lotta alle fake news, contrasto alle forme di discriminazione generati da bias algoritmici, salvaguardia dei diritti di proprietà intellettuale, protezione dei dati personali e tutela della concorrenza. E nel caso di specie anche di sorveglianza di Stato.

La linea cinese: muscoli burocratici e ampio kit di strumenti normativi

La proposta della CAC rappresenta l’ultimo mattone della struttura normativa che la Cina sta costruendo attorno all’intelligenza artificiale e alle tecnologie correlate.

Entro i confini della nazione la Cina si rivela, infatti, fermamente intenzionata ad allenare i suoi muscoli normativi rivolgendosi tanto ad operatori esteri quanto a campioni nazionali particolarmente “aitanti”.

Proprio in riferimento a questi ultimi, sia la presa regolatoria preannunciata da Pechino con le “Linee guida per l’anti monopolio nel campo dell’economia delle piattaforme” emanate dal Comitato anti monopolio del Consiglio di Stato il 7 febbraio 2021, sia l’enfasi pubblica del Presidente Xi dedicata alla rinascita della “missione originale” del partito, costituiscono parte integrante dei piani strategici cinesi.

Le grandi società digitali, strette nella morsa della fiorente produzione di azioni normative, che negli ultimi mesi ha messo alla prova dirigenti ed investitori in Cina, si destreggiano come meglio possono fino a convertirsi a improvvise quanto generose svolte filantropiche e benefiche, in nome della “prosperità comune” e del perseguimento degli obiettivi del Partito: “favorire la legittima creazione di ricchezza e promuovere lo sviluppo regolamentato e sano di tutti i tipi di capitale” (Alibaba avrebbe donato 15,5 miliardi di dollari, un terzo della liquidità dell’azienda, in beneficenza per campagne sociali in Cina).

E dunque: le innovazioni AIGC che sono in linea con gli obiettivi dichiarati dal governo saranno incoraggiate e incentivate? Vedremo.

È molto probabile che ciò possa avvenire, anche se tra gli esperti aleggia il dubbio che, stanti i numerosi vincoli burocratici e normativi, certi strumenti possano effettivamente raggiungere il potenziale produttivo, la redditività e l’entusiasmo dei consumatori sperimentati in altri mercati. Le misure impongono infatti elevati obblighi di conformità ai fornitori di servizi AIGC, sollevando la questione del bilanciamento della regolamentazione con lo sviluppo del settore.

Nel frattempo, posto che ChatGPT non è più disponibile in Cina, tanto Baidu, quanto Alibaba e Sense Time, hanno già annunciato il lancio sul mercato cinese dei loro modelli “degni” rivali del prodotto di OpenAI. Baidu si dichiara pronta a integrare la chat AI “ERNIE Bot” nei suoi servizi di ricerca, mentre Alibaba ha già rivelato lo sviluppo di un proprio prodotto in stile ChatGPT chiamato Tongyi Qianwen, “Verità da mille domande”, in grado di redigere lettere di invito, pianificare itinerari e consigliare gli acquirenti. Anche SenseTime ha svelato la sua risposta a ChatGPTcon SenseNova, un servizio con funzionalità chiave tra cui visione artificiale, elaborazione del linguaggio naturale e contenuti generati dall’intelligenza artificiale.

Conclusioni

La tecnologia è giustamente al centro della geopolitica globale.

E certo l’IA generativa ha già reso evidente il suo potenziale di trasformazione per le economie e le società, sollevando enormi sfide di governance. Malgrado ciò le varie strategie normative e i dibattiti politici si rivelano ancora troppo spesso semplicistici e vaghi.

Il mercato delle intelligenze artificiali richiede capacità di adattamento alle sue costanti trasformazioni e cultura organizzativa. Dal momento che gli algoritmi non sono neutrali, imparziali ed oggettivi e che molto difficilmente le loro implementazioni potranno tradursi in mere scelte amministrative, di ordine pubblico e sicurezza nazionale o di business, allora è chiaro quanto la sfida lanciata da queste problematiche sia globale e immensa.

I soli adeguamenti normativi, sebbene necessari, non basteranno a garantire trasparenza e correttezza. Ugualmente non saranno sufficienti le pronunce delle alte Corti per definire precisi ambiti di responsabilità. Neppure i progressi tecnologici, tesi ad abbattere il margine di fallacia dei processi algoritmici, potranno arginare adeguatamente i rischi di discriminazione.

Allo stesso modo non sarà sufficiente “tagliare la catena di approvvigionamento globale della tecnologia di sorveglianza”.

Quello tra l’Occidente e la Cina non è un rapporto di sole relazioni tra governi, è altresì una connessione, ancora per nulla compresa, tra le diverse percezioni, che i rispettivi cittadini hanno su temi divisivi, come può esserlo quello dei diritti fondamentali e del potere che promana dall’autorità.

Se da una parte la strategia cinese mira al controllo totalitario della propria società e al predominio in campo scientifico entro il 2030 e quella russa si concentra sulle applicazioni in materia di intelligence, dall’altra, negli Stati Uniti, il modello liberista crea una biforcazione tra settore pubblico e privato, in cui i colossi tecnologici della Silicon Valley puntano alla mercificazione deregolata delle opportunità tecnologiche.

E, ancora oggi, il ruolo dell’Unione Europea nell’ecosistema digitale globale è in gran parte ancora da decidere.

Parlando di intelligenza artificiale – ci riferiamo a qualcosa che in realtà ha zero intelligenza e zero semantica: il significato e il senso lo danno le persone.

Che si parli di stato totalitario o di sorveglianza di massa piuttosto che di monopolio digitale e di capitalismo di sorveglianza, il solo discrimine e la vera ricchezza tra ciò che ci consentirà o meno di guidare consapevolmente ed efficacemente il percorso verso un progetto umano sostenibile e la necessaria riconciliazione tra l’umanità e lo sviluppo tecnologico, dipenderà in primis dall’uomo stesso, dalle sue scelte.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati