il dibattito

Le opposte visioni Cina-Ue sull’IA: controllo degli algoritmi o tutela degli utenti, quale prevarrà?

La proposta di Regolamento Ue sull’AI si fonda su una regolamentazione finalizzata al consolidamento della fiducia e alla prevenzione dei rischi. L’approccio normativo cinese, invece, mira a costringere le Big Tech del Paese a rivelare informazioni sulle tecnologie che alimentano le loro piattaforme. Quale dei due prevarrà?

Pubblicato il 14 Ott 2022

Marco Martorana

avvocato, studio legale Martorana, Presidente Assodata, DPO Certificato UNI 11697:2017

Zakaria Sichi

Studio Legale Martorana

renAIssance - intelligenza artificiale

Se la proposta di Regolamento europeo sull’AI sembrava un’opera ambiziosa, ancora di più lo è il progetto cinese. La Repubblica Popolare starebbe infatti cercando di andare oltre la semplice disciplina indiretta dell’Intelligenza Artificiale, mettendo le “mani” in modo diretto e immediato sugli algoritmi stessi.

Tra i due approcci – quello europeo e quello avviato dalla Cina – c’è una differenza enorme  che risiede in una domanda importante sollevata da numerosi esperti del settore: è concretamente possibile una regolamentazione diretta degli algoritmi da parte del governo?
Il quesito non è assurdo, proviamo a capire il perché.

Videosorveglianza di massa: la Cina punta al controllo globale con IA e metaverso

L’iniziativa cinese: imbrigliare gli algoritmi

All’inizio di agosto, la Cyberspace Administration of China (CAC) ha pubblicato le informazioni di 30 algoritmi di base appartenenti a ben 24 tra le aziende più attive del Paese nel campo delle tecnologie, come Alibaba e Xiaomi.
In pratica, non è altro che un’iniziativa del Governo cinese per costringere le Big Tech del Paese a rivelare informazioni sulle tecnologie che alimentano le loro piattaforme, soprattutto laddove si tratti di algoritmi capaci di condizionare scelte e opinioni.
Dai frammenti di documenti resi pubblici, è possibile capire diverse informazioni particolarmente interessanti per il pubblico degli utenti, a partire da quanti e quali tipi di dati utilizza un determinato algoritmo o cosa fa con quei dati.
In realtà, dai documenti non emergere niente di sensazionale o compromettente. Le descrizioni degli algoritmi sono appunto frammenti di poche righe sintetiche che non consentono di andare a fondo, al punto che alcuni dubitano che tali algoritmi siano stati effettivamente analizzati. In realtà, è assai più probabile che la CAC li abbia davvero esaminati, limitandosi però a diffondere pubblicamente informazioni superficiali.
Era infatti facile da prevedere che i documenti integrali non sarebbero stati resi pubblici. Questi contengono descrizioni più estese dei dati e degli algoritmi, alcuni dei quali considerati parte di informazioni commerciali riservate. Sempre i risultati integrali contengono anche un’autovalutazione dei potenziali rischi per la sicurezza, stando alla documentazione pubblica di ciò che l’autorità di regolamentazione ha chiesto alle aziende di fornire.
A ogni modo, tutto questo nasce da nuove regole entrate in vigore a marzo di quest’anno, le quali hanno incaricato le autorità di regolamentazione di “ripulire” gli effetti negativi degli algoritmi, come la diffusione di informazioni dannose, la violazione della privacy degli utenti. Il regolamento richiede anche l’uso di algoritmi per promuovere contenuti che elevano l’opinione pubblica e considerano favorevolmente il Partito Comunista.
Ebbene, ciò che rende unica e incredibile la normativa cinese, come affermato da diversi esperti, è che per la prima volta non siamo più di fronte a un regolamento che impone ad aziende e utenti divieti o regole su come usare gli algoritmi, bensì siamo davanti al primo vero tentativo di controllare direttamente gli algoritmi stessi.
Peraltro, la normativa prevede anche l’assegnazione di un codice identificativo a ogni algoritmo, come in una sorta di censimento. La Cina vuole sapere come vengono indirizzate le scelte o come vengono offerte all’utenza notizie e prodotti. A tal proposito, le nuove norme riconoscono alle autorità addirittura la facoltà di richiedere – che non è così distante da imporre – modifiche agli algoritmi allo scopo di impedire che creino dipendenza o altri danni sulle persone, ed in particolare i giovanissimi. Secondo alcune indiscrezioni, le autorità sarebbero ancora in una fase di raccolta delle informazioni, e al momento non sembra che siano state avanzate particolari richieste alle aziende coinvolte.

La proposta di Regolamento europeo: fiducia e approccio risk based

Nel vecchio continente, come è ormai noto, il 21 aprile 2021 la Commissione europea ha presentato una proposta di regolamento sull’Intelligenza Artificiale per l’istituzione di un quadro normativo di riferimento sulla materia, valido per tutti gli Stati membri dell’Unione europea. Le norme sono rivolte agli utenti e ai fornitori di tutti i sistemi di IA situati nel territorio dell’Unione, nonché a quei fornitori e utenti che pur trovandosi al di fuori dell’UE, realizzino un sistema il cui output venga utilizzato comunque all’interno della Comunità. Non si applica invece alle autorità pubbliche di un paese terzo né alle organizzazioni internazionali laddove utilizzino i sistemi di IA nel quadro di accordi internazionali.

Ciò che è interessante considerare, è che si tratta di un intervento che segue sotto diversi aspetti la scia del Regolamento sulla protezione dei dati personali, a partire proprio dalla scelta della fonte. Il regolamento è infatti un atto giuridico derivato di portata generale, obbligatorio in tutti i suoi elementi e direttamente applicabile negli ordinamenti interni degli Stati membri. Ai fini della sua efficacia nell’ordinamento del Paese, quindi, non ha bisogno di essere recepito da leggi o atti aventi forza di legge nazionali.
Da questo si evince come il Regolamento sull’AI si inserisca in un più ampio quadro giuridico in divenire con il quale l’UE mira a governare gli sviluppi futuri della tecnologia in modo uniforme e completo per tutti i cittadini europei, con un modello proprio e un approccio che sono e saranno il biglietto da visita comunitario in di fronte ai competitors e ai partners internazionali.
In questo quadro generale, però, la caratteristica essenziale della proposta della Commissione risiede però sull’approccio risk based o basato sul rischio, altro elemento cardine del GDPR.

Secondo suddetta impostazione, l’AI Act europeo prevede una classificazione dei sistemi di intelligenza artificiale – o del loro utilizzo – in base al livello di rischio che ciascuno di essi presenta.

In prima battuta, sono contemplati dei divieti assoluti, i quali colpiscono una serie limitata di utilizzi dell’IA ritenuti incompatibili con i principi dell’Unione europea e i diritti fondamentali dell’uomo. SI tratta in particolare dei sistemi che condizionano i comportamenti umani, quelli idonei a danneggiare l’integrità psico fisica, i sistemi di punteggio sociale, e quelli che consentono l’identificazione biometrica da remoto, salvo casi eccezionalmente autorizzati dalla legge.
Ci sono poi i sistemi considerati ad alto rischio ma al contempo consentiti, i quali devono rispettare specifici requisiti tecnici e altre condizioni essenziali. Infine, vi sono quelli classificati a basso rischio, per i quali sono richiesti soltanto requisiti minimi di trasparenza, come nel caso dei chatbot.
Infine, l’art. 29 del Regolamento UE sull’Intelligenza artificiale fissa anche gli obblighi a cui gli utenti dei sistemi sono tenuti. Il tutto per creare un quadro giuridico chiaro e completo che disciplini in maniera indiretta l’AI allo scopo di accrescere la fiducia degli utenti, tutelarli, senza però compromettere il conseguimento degli obiettivi economici delle nuove tecnologie.

Conclusioni

Poiché la maggior parte degli algoritmi delle piattaforme odierne si basa sulla tecnologia machine learning, che automatizza le decisioni imparando a prevedere i comportamenti, questo rende difficile decifrarne la logica o anticipare le conseguenze del loro utilizzo. Per questo parlare di ambizione nel caso cinese è più che mai coerente con il regolamento recentemente entrato in vigore, considerabile per certi versi anche aggressivo. Ipotizzare di imbrigliare gli algoritmi, regolamentarli in modo diretto e addirittura prendere scelte politiche per modificarli è di fatto un progetto estremamente ambizioso.
Si tratta, come è evidente, di un approccio totalmente opposto a quello europeo, che si basa invece su una normazione assai più tradizionale, indiretta, finalizzata all’individuazione di regole chiare. In altri termini, l’UE regolamenta l’uomo nell’utilizzo dello strumento, come una sorta di traccia da seguire caratterizzata da principi che oramai distinguono l’Europa dagli altri ordinamenti. La Cina, invece, vorrebbe incidere direttamente sullo strumento stesso che, però, non è un prodotto o un oggetto qualsiasi, ma un qualcosa di molto più complesso.
Quale dei due approcci si rivelerà il migliore, lo vedremo col tempo, ma sono anche questi i dibattiti coi quali si costruisce la futura leadership nel campo dell’AI.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4