Tecnologia

La sfida dei deepfake: diritto, privacy e identità nell’era dell’IA



Indirizzo copiato

La crescente sofisticazione dei deepfake solleva questioni giuridiche critiche riguardanti la privacy e l’identità. È essenziale una normativa specifica per affrontare le sfide poste da queste tecnologie, bilanciando protezione dei dati e libertà di espressione

Pubblicato il 5 giu 2024

Francesca Niola

Fellow – ISLC, Università degli Studi di Milano



deepfake
foto di ApolitikNow via Flickr

Ideepfake rappresentano uno dei fenomeni più inquietanti ed eticamente complessi di questa era dominata dall’intelligenza artificiale. Queste creazioni, alimentate da algoritmi di intelligenza artificiale sofisticati, possono manipolare e distorcere la realtà in modi che sfidano il nostro concetto tradizionale di verità e identità. Pensiamo, ultimo caso in ordine di tempo, alla voce di Don Luigi Ciotti clonata per perpetrare una truffa ai malati.

E mentre le implicazioni socio-politiche di queste tecniche di falsificazione digitale sono oggetto di dibattito intenso, le questioni legali – come l’interazione con il diritto all’oblio o la gestione dell’eredità digitale – restano ampiamente inesplorate.

Il GDPR e i deepfake

Di fronte a questa nuova sfida, è necessario un equilibrio delicato tra la tutela dei diritti individuali e la libertà di espressione. Il presente articolo esaminerà questi problemi cruciali, con particolare attenzione alla normativa europea sulla protezione dei dati (GDPR) e alla sua applicabilità nel contesto dei deepfake.

La natura pervasiva di queste tecnologie, capaci di manipolare e distorcere realtà con una precisione sempre maggiore, porta a riflettere sull’importanza critica di una tutela giuridica robusta e adeguata.

Tale tutela si rivela essenziale non solo per la salvaguardia dell’identità individuale, ma anche per la protezione del tessuto sociale contro le manipolazioni digitali potenzialmente nocive.

La crescente sofisticazione delle tecnologie informatiche, in particolare quella legata alla creazione di contenuti generati artificialmente, come i deepfake, svela una duplice realtà: da un lato, la portentosa capacità di queste tecnologie di manipolare la realtà percepita; dall’altro, la fragilità del nostro controllo su tali dati una volta che essi vengono immessi nel flusso digitale. Ciò solleva questioni fondamentali riguardo al diritto della persona di mantenere il controllo sulla propria immagine digitale e sulla propria identità personale, questioni che non possono essere trascurate né sottovalutate nell’ambito del discorso giuridico contemporaneo.

L’interrogativo che si pone è se le normative vigenti, come il Regolamento Generale sulla Protezione dei Dati (GDPR) e simili dispositivi legislativi internazionali, siano realmente efficaci nel contrastare le nuove forme di abuso che la tecnologia rende possibili. In questo quadro, la riflessione si sposta inevitabilmente verso la necessità di un approccio giuridico che riesca a interpretare e integrare le mutevoli dinamiche tecnologiche, mantenendo al contempo un impegno irremovibile verso la protezione dei diritti fondamentali dell’individuo.

Il problema della reidentificazione dei dati attraverso l’AI

La generazione di contenuti artificiali, come i deepfake, e il loro uso nei vari settori, dall’industria creativa alla sicurezza nazionale, implicano una complessa rete di responsabilità legali che devono essere attentamente navigate: il vero si rispecchia nell’artificiale, ma non l’inverso.

Nel contesto degli algoritmi di intelligenza artificiale, il caso di Synthesia esemplifica vividamente le problematiche giuridiche connesse all’uso dei dati personali per l’addestramento dei sistemi AI. Questi sistemi, in particolare quelli che generano deepfake, dipendono criticamente dalla disponibilità di ampi set di dati, che includono immagini, video e altri attributi personali degli individui.

La qualità e il realismo dei deepfake, come quelli generati da Synthesia, hanno raggiunto livelli tali da poter ingannare l’occhio umano, sollevando preoccupazioni immediate sulla violazione della privacy e dell’identità personale. Dal punto di vista giuridico, ciò pone sfide significative in termini di conformità con le leggi sulla protezione dei dati, come il GDPR in Europa, che impone rigorosi requisiti di consenso e trasparenza nella raccolta e nell’uso dei dati personali.

Una questione centrale è la legittimità dell’uso di immagini e altre forme di dati personali per addestrare questi algoritmi senza il consenso esplicito degli individui cui tali dati si riferiscono. Il GDPR, per esempio, richiede che tale consenso sia chiaro, informato e revocabile, condizioni spesso difficili da garantire nell’ambito dell’addestramento di AI avanzate. Inoltre, la difficoltà di garantire l’anonimizzazione completa dei dati in tali dataset pone ulteriori rischi di riconoscimento involontario degli individui, andando così a incidere sulla loro privacy e potenzialmente esponendoli a rischi di discriminazione e manipolazione. A ciò si aggiunge il tema della reidentificazione dei dati. Infatti, anche quando i dati sono inizialmente anonimizzati, tecniche avanzate di machine learning possono rivelare, involontariamente o meno, dettagli identificabili, compromettendo la privacy degli individui coinvolti. Questo rischio di “data leakage“, dove informazioni sensibili possono essere esposte tramite i modelli AI, solleva questioni di responsabilità legale per le aziende che sviluppano o utilizzano tali tecnologie​.

Implicazioni socio-politiche dei deepfake e responsabilità legale

Le implicazioni di questi rischi non sono solo teoriche ma hanno concrete ripercussioni sociali e politiche. Ad esempio, i deepfake possono essere utilizzati per creare false rappresentazioni di figure pubbliche in scenari compromettenti o per influenzare l’opinione pubblica durante le elezioni, situazioni che evidenziano la potenziale pericolosità di un uso non regolamentato di tali tecnologie.

La responsabilità dei creatori e degli utilizzatori di AI nel garantire che tali sistemi siano sviluppati e impiegati in maniera etica e conforme alle normative vigenti è quindi un aspetto che merita un’attenzione costante da parte di legislatori, giuristi e della società civile, per assicurare che i progressi tecnologici non si traducano in nuove forme di violazione dei diritti umani.

Per affrontare efficacemente la problematica dei deepfake, una normativa specifica è essenziale, data la mancanza di riferimenti espliciti in legislazioni esistenti come il GDPR. Queste tecnologie emergenti presentano sfide uniche per il diritto alla privacy e all’immagine personale, dato che permettono la creazione di video e audio estremamente realistici che possono facilmente essere scambiati per autentici. Questo rappresenta un rischio non solo per la privacy individuale ma anche per il tessuto sociale più ampio, contribuendo alla disinformazione e alla manipolazione mediatica.

La necessità di una normativa specifica sui deepfake

La creazione di una normativa mirata sui deepfake dovrebbe iniziare con una definizione legale chiara e comprensiva, che abbracci tutte le forme di manipolazione audiovisiva che imitano le persone in modo realistico. Attualmente, il GDPR tutela i dati personali e biometrici, ma non affronta direttamente le questioni legate ai deepfake che utilizzano tali dati per creare contenuti che potrebbero danneggiare la reputazione o violare i diritti dell’individuo senza il suo consenso.

Il GDPR stabilisce che il trattamento dei dati personali deve essere legittimo, equo e trasparente. Gli individui devono essere informati su come i loro dati sono utilizzati e devono dare un consenso esplicito per trattamenti specifici. Tuttavia, nel contesto dei deepfake, queste disposizioni si scontrano con tecniche che possono manipolare o distorcere immagini e video senza il chiaro consenso dei soggetti coinvolti. Sebbene il GDPR copra l’uso dei dati utilizzati per generare deepfake, garantendo che queste informazioni siano gestite con cura, le tecniche avanzate di generazione di immagini possono eludere facilmente le normative esistenti, soprattutto quando il consenso non può essere facilmente tracciato o verificato. Inoltre, il GDPR impone restrizioni sul trasferimento di dati personali al di fuori dell’UE, un’altra area problematica per la creazione e la distribuzione di deepfake che spesso coinvolgono attori e dati globali.

Deepfake e diritti post-mortem: la gestione dell’eredità digitale

Per tali ragioni, come già sostenuto su questa rivista[1], il tema si connette ai diritti cosiddetti post mortem. La questione dell’accesso ai dati digitali post-mortem e dei diritti successori è stata recentemente oggetto di attenzione da parte dei tribunali di Milano e Bologna, riflettendo su come equilibrare la protezione delle informazioni personali con i diritti degli eredi. In particolare, rileva il rapporto tra deep fake e i beni ereditari digitali[2] soprattutto per le implicazioni che queste tecnologie portano nel diritto successorio e della proprietà intellettuale.

I deepfake, creati mediante tecniche avanzate di intelligenza artificiale, sono capaci di generare riproduzioni estremamente realistiche di individui, vivi o defunti, che possono includere la loro voce, i loro movimenti, e perfino le loro espressioni facciali.

Questa capacità pone questioni di rilievo sulla gestione postuma dell’immagine e dell’identità digitale di una persona: dal punto di vista giuridico, l’uso dei deepfake riguardo ai defunti interseca diritti fondamentali legati all’immagine e alla reputazione che spesso sono tutelati anche dopo la morte, in base alla legislazione vigente in molte giurisdizioni. La produzione di un deepfake che utilizza l’immagine o la voce di un defunto può quindi configurare un’intromissione nei diritti personali, qualora avvenga senza il consenso degli eredi o contro le disposizioni testamentarie espresse dalla persona prima della sua morte.

Inoltre, i deepfake rientrano nella categoria degli asset digitali, i quali possono avere un valore economico significativo e possono essere soggetti a diritti di proprietà intellettuale. Ciò implica che la loro gestione come parte dell’eredità digitale di un individuo richieda una considerazione accurata sia nel contesto della pianificazione successoria sia in quello della distribuzione degli asset digitali post mortem. Gli eredi possono trovarsi a dover affrontare questioni complesse riguardanti il controllo e l’utilizzo di tali asset, comprese le decisioni su come gestire o disporre di riproduzioni digitali realizzate attraverso tecnologie di deepfake.

La questione si complica ulteriormente se consideriamo che i deepfake possono essere usati per scopi tanto nobili quanto discutibili. Potrebbero essere utilizzati per “riportare in vita” una figura pubblica in documentari o eventi commemorativi, ma anche per scopi meno etici, come la manipolazione mediatica o la diffamazione postuma. Pertanto, diventa essenziale che il quadro normativo attuale sia adeguatamente equipaggiato per affrontare tali questioni, assicurando che i diritti delle persone defunte non vengano violati e che gli eredi possano gestire efficacemente tali asset in maniera conforme alle volontà del defunto.

Interazione tra deepfake e diritto all’oblio

Tali considerazioni spingono ancora più in avanti la riflessione fino ai casi richiesta di cancellazione dei dati o di assoluta mancanza del relativo consenso alla diffusione. In altre parole si deve porre il tema dell’interazione tra la creazione di deepfake e il diritto all’oblio.

Il diritto all’oblio, come sancito dall’articolo 17 del GDPR, conferisce agli individui il diritto di richiedere la cancellazione dei loro dati personali laddove il loro trattamento non sia più necessario o non avvenga in conformità con le normative GDPR. La creazione di deepfake, che utilizza dati personali senza consenso esplicito per creare contenuti potenzialmente dannosi o ingannevoli, entra in collisione diretta con questo diritto. Tale tecnologia, per sua natura, manipola l’immagine e la voce, integrando elementi personali distintivi in nuovi contesti, spesso senza il consenso del soggetto coinvolto e talvolta in maniera denigratoria o diffamatoria.

Una delle maggiori complessità nell’applicazione del diritto all’oblio ai deepfake risiede nella difficoltà di rimozione effettiva dei contenuti una volta diffusi su internet. Le piattaforme digitali e i motori di ricerca possono lottare per identificare e eliminare tutte le istanze di un deepfake, particolarmente quando questi sono condivisi o duplicati senza controllo attraverso i social media e altri canali digitali. Questo aspetto solleva interrogativi sulla realizzabilità della “cancellazione” dei dati in un ambiente digitale pervasivo e spesso anonimo.

Bilanciare diritti individuali e libertà di espressione nell’era dei deepfake

Inoltre, il diritto all’oblio si scontra con la libertà di espressione, un principio anch’esso fortemente protetto in molte giurisdizioni. I contenuti deepfake, pur essendo falsificati, possono essere considerati forme di espressione artistica o satirica. Questo pone un dilemma: fino a che punto è possibile bilanciare il diritto alla privacy con la libertà di espressione? In molte situazioni, le corti devono valutare se i diritti individuali alla privacy e alla protezione dei dati prevalgano su un interesse pubblico o su un diritto alla libera espressione.


[1] https://www.agendadigitale.eu/sicurezza/privacy/privacy-e-ricerca-via-libera-ai-consensi-digitali-per-donare-tessuti-e-organi/

[2] https://www.agendadigitale.eu/cultura-digitale/accesso-ai-dati-dei-defunti-leterna-lotta-privacy-e-diritti-familiari/

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2