La Cina ha pubblicato la prima serie di linee guida del Paese sull’etica dell’intelligenza artificiale (IA), sottolineando l’importanza della protezione dei diritti degli utenti e della prevenzione dei rischi di sicurezza informatica. Si tratta di una governance dell’IA inserita in una cornice che esalta la coesione nazionale, l’armonia e l’interesse pubblico. I principi guida di Pechino si ispirano ai valori confuciani e differiscono profondamente dall’approccio europeo all’IA.
Inoltre, le linee guida del Ministero della Scienza e della Tecnologia (MOST) cinese sono in linea con la duplice sfida di Pechino: l’obiettivo di reprimere l’influenza delle Big Tech e quello di diventare leader mondiale dell’intelligenza artificiale entro il 2030.
Le linee guida dell’IA
Secondo le linee guida, gli esseri umani dovrebbero avere pieno potere decisionale e il diritto di scegliere se accettare servizi di intelligenza artificiale, uscire da un’interazione con un sistema di intelligenza artificiale o interromperne il funzionamento in qualsiasi momento. L’obiettivo è assicurarsi che “l’intelligenza artificiale sia sempre sotto il controllo degli umani“.
Le linee guida, intitolate “Specifiche etiche per l’intelligenza artificiale di nuova generazione“, sono state redatte da un comitato per la governance dell’IA, istituito nell’ambito del MOST nel febbraio 2019. Nel giugno di quell’anno, il comitato ha pubblicato una serie di principi guida per la governance dell’IA che era molto più corto e più ampio rispetto alle specifiche appena rilasciate.
“La Cina alla fine sta optando per un modello pesante, in cui lo stato sta pensando molto seriamente alle trasformazioni sociali a lungo termine che l’IA porterà, dall’alienazione sociale ai rischi esistenziali, e cercando di gestire e guidare attivamente tali trasformazioni”, scrive sul South China Morning Post, Rebecca Arcesati, analista del think tank tedesco Mercator Institute for China Studies (Merics).
I sei principi per l’intelligenza artificiale in Cina
Il documento delinea sei principi di base per i sistemi di intelligenza artificiale, inclusa la garanzia che siano “controllabili e affidabili”. Gli altri principi consistono nel migliorare il benessere umano, promuovere equità e giustizia, proteggere la privacy e la sicurezza e aumentare il livello di alfabetizzazione etica.
Le nuove linee guida sull’IA sono un “messaggio chiaro ai colossi della tecnologia che hanno costruito interi modelli di business su algoritmi di raccomandazione“, ha sottolineato Arcesati.
I diritti degli utenti dell’intelligenza artificiale
Tuttavia, le modifiche vengono apportate in nome dei diritti dell’utente, offrendo a questi ultimi un maggiore controllo sulle loro interazioni con i sistemi di intelligenza artificiale online, un problema con cui anche altri Paesi sono alle prese. La sicurezza dei dati, la privacy personale e il diritto di rinunciare al processo decisionale guidato dall’intelligenza artificiale sono tutti menzionati nel nuovo documento.
In tema di sicurezza informatica e di prevenzione dei rischi, si richiede di individuare e affrontare le vulnerabilità tecniche e di sicurezza nei sistemi di intelligenza artificiale, assicurandosi che le entità pertinenti siano ritenute responsabili.
I divieti per l’IA
Le linee guida vietano inoltre ai prodotti e ai servizi di intelligenza artificiale di impegnarsi in attività illegali e mettere in grave pericolo la sicurezza nazionale, la sicurezza pubblica o la sicurezza della produzione. Né dovrebbero essere in grado di danneggiare l’interesse pubblico.
I valori confuciani e le linee guida cinesi
L’approccio cinese è stato certamente influenzato dai valori confuciani e dall’ideologia del socialismo cinese. Infatti, il sistema risulta caratterizzato da un’attenzione particolare per la coesione e l’armonia sociale che implica anche un bilanciamento tra diritti civili e controllo morale e di sorveglianza da parte del governo.
L’approccio si basa su una concezione dell’essere umano di tipo collettivista e utilitarista. La Cina già nel lontano 2017 aveva definito un piano strategico di sviluppo rispetto all’IA “The Next Generation Artificial Intelligence Development Plan”, che aveva lo scopo di definire gli obiettivi strategici, i task principali e le misure per il supporto dello sviluppo di dell’IA entro il 2030.
L’approccio europeo all’intelligenza artificiale
L’approccio europeo è invece basato sul rispetto dei diritti fondamentali, della democrazia e della legge. In particolare, quattro principi etici sono considerati rilevanti rispetto all’IA: rispetto per l’autonomia umana, prevenzione da rischi, equità e riservatezza.
Tale ultimo requisito è in linea con gli Articoli 7 e 8 della Carta dei Diritti Fondamentali dell’Unione Europea sul “Rispetto della vita privata e familiare” e sulla “Protezione dei dati personali”, i quali riflettono il principio della prevenzione dei rischi applicato alla privacy. La protezione dei dati personali è inoltre regolata a livello europeo del Regolamento UE 679/2016 (GDPR), insieme ad altre direttive diffuse in tutta l’Unione Europea.