Lo scorso 10 gennaio è entrata in vigore la nuova normativa cinese volta a disciplinare la creazione e diffusione di contenuti ottenuti tramite le IA generative, compresi i deepfake. È uno dei primissimi passi a livello mondiale per regolamentare questo tipo di tecnologie, e non è un caso che sia stato mosso in un Paese in cui i contenuti presenti su Internet sono ampiamente controllati da parte degli enti governativi.
Deepfake, un’insidia che minaccia tutti: i rischi e le tutele
La regolamentazione cinese
Vediamo quindi più nel dettaglio cosa dice la nuova normativa adottata in Cina.
Innanzitutto, è utile chiarire che questa si applica non solo ai deepfake in senso stretto, ma a tutti i contenuti creati con IA generativa. Ai sensi dell’art. 23, le tecnologie di “deep synthesis” (che producono contenuti utilizzando meccanismi di deep learning) che sono disciplinate dal regolamento comprendono:
- Le IA che generano ed editano testi (come l’ormai famoso ChatGPT);
- Le tecnologie per generare o editare contenuti vocali;
- Le tecnologie per generare o editare contenuti non discorsivi, come quelle che creano musiche;
- Le tecnologie che generano o editano caratteristiche biometriche in immagini o video;
- Le ricostruzioni 3D, simulazioni digitali e altre tecnologie che generano o editano personaggi digitali e scene virtuali.
Gli obiettivi sono controllare la creazione e diffusione di contenuti ottenuti dall’utilizzo di questi nuovi strumenti, assicurare la tutela dei dati trattati nel processo generativo e rendere illegali tutti i contenuti che contengono “informazioni illegali o dannose” o “che si oppongono agli interessi nazionali”.
Per fare questo sono previsti obblighi stringenti per i fornitori di servizi che consentono la creazione di deepfake, un monitoraggio costante da parte della Cyberspace Administration of China (CAC), la possibilità per i cittadini di contestare l’uso dei propri dati personali per l’addestramento di algoritmi usati per l’elaborazione di video o immagini che li rappresentano.
I fornitori devono mettere in atto misure tecniche e organizzative per garantire la sicurezza dei sistemi, pubblicare le regole di gestione delle loro piattaforme, utilizzare sistemi di autenticazione dei loro utenti sulla base di numeri di telefono cellulare, numeri di carta d’identità, codici di credito sociale o servizi pubblici di autenticazione dell’identità. Devono inoltre mettere a disposizione degli utenti dei meccanismi di reclamo semplici da usare e fornire loro riscontri tempestivi per ogni segnalazione.
Un ulteriore elemento di salvaguardia contro le fake news e l’abuso di queste tecnologie è l’uso di contrassegni ben visibili sui contenuti creati tramite IA generative, così da renderli immediatamente riconoscibili. È quello che è stato fatto nella serie televisiva “Deep Fake Neighbour Wars” e una delle soluzioni che gli esperti del settore stanno valutando anche qui in Europa, dove l’esplosione del fenomeno ChatGPT e delle IA generatrici di immagini ha mostrato i pericoli di queste nuove tecnologie per il processo creativo degli artisti. Contrassegnare in modo indelebile un prodotto come frutto di una IA favorisce la trasparenza nel settore ed evita che si crei confusione sulla fonte di quel contenuto digitale.
Infine, un aspetto chiave della regolamentazione cinese è il ruolo della Cyberspace Administration of China (CAC) come ente pubblico supervisore sull’utilizzo delle tecnologie di “deep synthesis”. I fornitori dovranno registrare i propri servizi e sottoporre i propri codici e dati a controlli regolari da parte della CAC. Inoltre, vista la portata piuttosto generica del divieto di deepfake che contengono “informazioni illegali o dannose”, o “che si oppongono agli interessi nazionali”, sembra lecito pensare che le agenzie governative avranno un margine di discrezionalità molto ampio nello stabilire se un contenuto sia o meno illegale. Secondo Sam Gregory, direttore della organizzazione no-profit per i diritti umani Witness (citato da Karen Hao sul Wall Street Journal), la regolamentazione cinese potrebbe rendere inaccettabili moltissimi casi in cui questi strumenti vengono usati a scopo satirico (pensiamo, ad esempio, all’imitazione di un politico). In questo modo il governo cinese è riuscito a estendere il proprio controllo anche a questo nuovo medium.
Deepfake: applicazioni, rischi ed esigenze di tutela
Animare video divertenti con volti di persone reali riprodotti in modo estremamente realistico, ricreare digitalmente un personaggio interpretato da un attore deceduto prima delle riprese, ritoccare la propria immagine per essere indistinguibile da un politico e girare un video satirico… sono tutti esempi (tratti da casi realmente avvenuti) di utilizzo – spesso innocuo – della tecnologia deepfake, che consente quindi di riprodurre artificialmente, grazie a sofisticati algoritmi di IA, la fisionomia di un individuo reale per incorporarla in video che mostrano quella persona mentre fa o dice cose che, nella realtà, non ha mai fatto o detto.
L’esempio più eclatante e recente di questo è la serie televisiva britannica “Deep Fake Neighbour Wars”, che mostra celebrità come Tom Holland, Nicki Minaj, ma anche Greta Thunberg, Usain Bolt e altri famosissimi attori, cantanti, influencer, calciatori, nelle loro turbolente ed esilaranti relazioni di vicinato. Tuttavia, come si evince anche dal titolo, tutti i personaggi sono stati creati con tecnologia deepfake, sovrapponendo così i loro volti a quelli di – decisamente meno noti – comici, che hanno recitato la parte e le cui vere sembianze sono mostrate solo alla fine dei vari episodi. In questo caso viene chiarito all’inizio e alla fine di ogni puntata che le celebrità non hanno mai partecipato al programma, che è tutta una creazione fittizia (con evidenti intenti comici) e, per evitare che singole scene siano estrapolate dal contesto e diffuse online spacciandole per reali, in ogni momento sullo schermo è stata inserita la scritta “DEEPFAKE”. Nonostante tutte queste misure, questo utilizzo del deepfake ha portato comunque i giuristi esperti del settore a porsi alcuni interrogativi sulle possibili tutele per le celebrità loro malgrado coinvolte: ci si può chiedere se vi siano violazioni del diritto all’immagine, della privacy, del copyright sui prodotti audiovisivi relativi a quel personaggio che l’IA ha dovuto usare per “imparare” a imitarlo, le eventuali diffamazioni. Eppure, in questo caso, si tratta di un’operazione apparentemente innocua e apertamente segnalata in vari modi.
Negli ultimi anni sono invece emersi molti altri usi indubbiamente illeciti di questa nuova tecnologia: il deepfake è stato utile per commettere dei veri e propri furti d’identità, per creare video pornografici che ritraggono donne famose inconsapevoli, per diffondere fake news. I pericoli legati a questo uso dell’IA sono dunque noti da tempo e sfociano molto in fretta nel campo del penalmente rilevante.
Come evidenzia Karen Hao nel suo articolo dell’8 gennaio 2023 sul Wall Street Journal “China, a Pioneer in Regulating Algorithms, Turns Its Focus to Deepfakes”, nonostante i rischi suddetti, regolamentare i deepfake si sta dimostrando particolarmente arduo in Occidente, specialmente negli USA dove le esigenze di protezione contro i contenuti falsi si scontrano con la granitica tutela della libertà di parola. Nell’Unione Europea siamo invece ancora in attesa dell’entrata in vigore del Regolamento sull’Intelligenza Artificiale, che dovrebbe dare alcune risposte normative a questi fenomeni, seppur con un approccio più morbido rispetto a quello cinese.
Conclusioni
La legge cinese ha quindi una duplice natura: da un lato assicura la protezione degli utenti dell’internet contro i rischi di una diffusione incontrollata di deepfake, dall’altro rinforza ulteriormente il controllo governativo sui contenuti di Internet. Se è chiaro che questo secondo obiettivo non sarebbe raggiungibile senza un impianto già molto solido di sorveglianza come quello cinese (sia da un punto di vista normativo che di infrastrutture statali), è anche vero che alcune soluzioni tecniche, come quelle volte a rendere immediatamente riconoscibile un contenuto generato da una IA, potrebbero in futuro essere adottate anche in Occidente e contribuire all’elaborazione di standard di misure di sicurezza per disciplinare questo settore. Abbiamo quindi molto da guadagnare nell’osservare attentamente le ricadute concrete che deriveranno dall’applicazione di questa nuova normativa.