Se la proposta di Regolamento europeo sull’AI sembrava un’opera ambiziosa, ancora di più lo è il progetto cinese. La Repubblica Popolare starebbe infatti cercando di andare oltre la semplice disciplina indiretta dell’Intelligenza Artificiale, mettendo le “mani” in modo diretto e immediato sugli algoritmi stessi.
Tra i due approcci – quello europeo e quello avviato dalla Cina – c’è una differenza enorme che risiede in una domanda importante sollevata da numerosi esperti del settore: è concretamente possibile una regolamentazione diretta degli algoritmi da parte del governo?
Il quesito non è assurdo, proviamo a capire il perché.
Videosorveglianza di massa: la Cina punta al controllo globale con IA e metaverso
L’iniziativa cinese: imbrigliare gli algoritmi
All’inizio di agosto, la Cyberspace Administration of China (CAC) ha pubblicato le informazioni di 30 algoritmi di base appartenenti a ben 24 tra le aziende più attive del Paese nel campo delle tecnologie, come Alibaba e Xiaomi.
In pratica, non è altro che un’iniziativa del Governo cinese per costringere le Big Tech del Paese a rivelare informazioni sulle tecnologie che alimentano le loro piattaforme, soprattutto laddove si tratti di algoritmi capaci di condizionare scelte e opinioni.
Dai frammenti di documenti resi pubblici, è possibile capire diverse informazioni particolarmente interessanti per il pubblico degli utenti, a partire da quanti e quali tipi di dati utilizza un determinato algoritmo o cosa fa con quei dati.
In realtà, dai documenti non emergere niente di sensazionale o compromettente. Le descrizioni degli algoritmi sono appunto frammenti di poche righe sintetiche che non consentono di andare a fondo, al punto che alcuni dubitano che tali algoritmi siano stati effettivamente analizzati. In realtà, è assai più probabile che la CAC li abbia davvero esaminati, limitandosi però a diffondere pubblicamente informazioni superficiali.
Era infatti facile da prevedere che i documenti integrali non sarebbero stati resi pubblici. Questi contengono descrizioni più estese dei dati e degli algoritmi, alcuni dei quali considerati parte di informazioni commerciali riservate. Sempre i risultati integrali contengono anche un’autovalutazione dei potenziali rischi per la sicurezza, stando alla documentazione pubblica di ciò che l’autorità di regolamentazione ha chiesto alle aziende di fornire.
A ogni modo, tutto questo nasce da nuove regole entrate in vigore a marzo di quest’anno, le quali hanno incaricato le autorità di regolamentazione di “ripulire” gli effetti negativi degli algoritmi, come la diffusione di informazioni dannose, la violazione della privacy degli utenti. Il regolamento richiede anche l’uso di algoritmi per promuovere contenuti che elevano l’opinione pubblica e considerano favorevolmente il Partito Comunista.
Ebbene, ciò che rende unica e incredibile la normativa cinese, come affermato da diversi esperti, è che per la prima volta non siamo più di fronte a un regolamento che impone ad aziende e utenti divieti o regole su come usare gli algoritmi, bensì siamo davanti al primo vero tentativo di controllare direttamente gli algoritmi stessi.
Peraltro, la normativa prevede anche l’assegnazione di un codice identificativo a ogni algoritmo, come in una sorta di censimento. La Cina vuole sapere come vengono indirizzate le scelte o come vengono offerte all’utenza notizie e prodotti. A tal proposito, le nuove norme riconoscono alle autorità addirittura la facoltà di richiedere – che non è così distante da imporre – modifiche agli algoritmi allo scopo di impedire che creino dipendenza o altri danni sulle persone, ed in particolare i giovanissimi. Secondo alcune indiscrezioni, le autorità sarebbero ancora in una fase di raccolta delle informazioni, e al momento non sembra che siano state avanzate particolari richieste alle aziende coinvolte.
Il dibattito sull’AI
Il dibattito sull’intelligenza artificiale è aperto da tempo e ormai non è più una novità. Si discute tanto delle sue possibili applicazioni in diversi ambiti della quotidianità, quanto delle possibili regolamentazioni finalizzate a incardinare l’uso degli algoritmi entro norme chiare e capaci di tutelare i soggetti dai rischi delle nuove tecnologie.
Da non trascurare è poi il lato economico, che anzi riveste un ruolo importante. Infatti, un altro tema scottante concerne la corsa alla leadership dell’AI, considerata da molti come il vero ago della bilancia degli equilibri mondiali futuri.
In questo senso, un comparto di regole che sappiano da un lato regolamentare produzione, uso e diffusione dell’AI e, dall’altro, garantire lo sfruttamento delle potenzialità economiche, è il principale strumento a disposizione dei Paesi che mirano al primato nel settore.
La proposta di Regolamento europeo: fiducia e approccio risk based
Nel vecchio continente, come è ormai noto, il 21 aprile 2021 la Commissione europea ha presentato una proposta di regolamento sull’Intelligenza Artificiale per l’istituzione di un quadro normativo di riferimento sulla materia, valido per tutti gli Stati membri dell’Unione europea. Le norme sono rivolte agli utenti e ai fornitori di tutti i sistemi di IA situati nel territorio dell’Unione, nonché a quei fornitori e utenti che pur trovandosi al di fuori dell’UE, realizzino un sistema il cui output venga utilizzato comunque all’interno della Comunità. Non si applica invece alle autorità pubbliche di un paese terzo né alle organizzazioni internazionali laddove utilizzino i sistemi di IA nel quadro di accordi internazionali.
Ciò che è interessante considerare, è che si tratta di un intervento che segue sotto diversi aspetti la scia del Regolamento sulla protezione dei dati personali, a partire proprio dalla scelta della fonte. Il regolamento è infatti un atto giuridico derivato di portata generale, obbligatorio in tutti i suoi elementi e direttamente applicabile negli ordinamenti interni degli Stati membri. Ai fini della sua efficacia nell’ordinamento del Paese, quindi, non ha bisogno di essere recepito da leggi o atti aventi forza di legge nazionali.
Da questo si evince come il Regolamento sull’AI si inserisca in un più ampio quadro giuridico in divenire con il quale l’UE mira a governare gli sviluppi futuri della tecnologia in modo uniforme e completo per tutti i cittadini europei, con un modello proprio e un approccio che sono e saranno il biglietto da visita comunitario in di fronte ai competitors e ai partners internazionali.
In questo quadro generale, però, la caratteristica essenziale della proposta della Commissione risiede però sull’approccio risk based o basato sul rischio, altro elemento cardine del GDPR.
Secondo suddetta impostazione, l’AI Act europeo prevede una classificazione dei sistemi di intelligenza artificiale – o del loro utilizzo – in base al livello di rischio che ciascuno di essi presenta.
In prima battuta, sono contemplati dei divieti assoluti, i quali colpiscono una serie limitata di utilizzi dell’IA ritenuti incompatibili con i principi dell’Unione europea e i diritti fondamentali dell’uomo. SI tratta in particolare dei sistemi che condizionano i comportamenti umani, quelli idonei a danneggiare l’integrità psico fisica, i sistemi di punteggio sociale, e quelli che consentono l’identificazione biometrica da remoto, salvo casi eccezionalmente autorizzati dalla legge.
Ci sono poi i sistemi considerati ad alto rischio ma al contempo consentiti, i quali devono rispettare specifici requisiti tecnici e altre condizioni essenziali. Infine, vi sono quelli classificati a basso rischio, per i quali sono richiesti soltanto requisiti minimi di trasparenza, come nel caso dei chatbot.
Infine, l’art. 29 del Regolamento UE sull’Intelligenza artificiale fissa anche gli obblighi a cui gli utenti dei sistemi sono tenuti. Il tutto per creare un quadro giuridico chiaro e completo che disciplini in maniera indiretta l’AI allo scopo di accrescere la fiducia degli utenti, tutelarli, senza però compromettere il conseguimento degli obiettivi economici delle nuove tecnologie.
Conclusioni
Poiché la maggior parte degli algoritmi delle piattaforme odierne si basa sulla tecnologia machine learning, che automatizza le decisioni imparando a prevedere i comportamenti, questo rende difficile decifrarne la logica o anticipare le conseguenze del loro utilizzo. Per questo parlare di ambizione nel caso cinese è più che mai coerente con il regolamento recentemente entrato in vigore, considerabile per certi versi anche aggressivo. Ipotizzare di imbrigliare gli algoritmi, regolamentarli in modo diretto e addirittura prendere scelte politiche per modificarli è di fatto un progetto estremamente ambizioso.
Si tratta, come è evidente, di un approccio totalmente opposto a quello europeo, che si basa invece su una normazione assai più tradizionale, indiretta, finalizzata all’individuazione di regole chiare. In altri termini, l’UE regolamenta l’uomo nell’utilizzo dello strumento, come una sorta di traccia da seguire caratterizzata da principi che oramai distinguono l’Europa dagli altri ordinamenti. La Cina, invece, vorrebbe incidere direttamente sullo strumento stesso che, però, non è un prodotto o un oggetto qualsiasi, ma un qualcosa di molto più complesso.
Quale dei due approcci si rivelerà il migliore, lo vedremo col tempo, ma sono anche questi i dibattiti coi quali si costruisce la futura leadership nel campo dell’AI.