Nel settembre 2024, il Wall Street Journal ha riportato la notizia di nuove problematiche legate alla moderazione dei contenuti derivanti dagli strumenti di intelligenza artificiale (IA) che generano immagini, come quelli sviluppati da xAI di Elon Musk e Google.
Questi strumenti hanno creato immagini inquietanti e oltraggiose, inclusa quella di Mickey Mouse che fuma o saluta con il braccio teso, oppure di politici in situazioni compromettenti. Queste immagini non solo spingono i confini della tecnologia e del diritto, ma pongono interrogativi urgenti riguardo all’uso, alla diffusione e alle conseguenze legali della manipolazione delle immagini di persone pubbliche e personaggi noti.
Vediamo perché di fronte a queste sfide, il quadro normativo attuale dell’Unione europea presenti ancora dei limiti significativi.
Deep fake, implicazioni legali e necessità di regolamentazione
L’immediato problema sollevato da questi sviluppi tecnologici è rappresentato dai “deepfake“, ossia media sintetici generati tramite algoritmi avanzati di deep learning. Questi strumenti, sfruttando database di immagini reali e tecniche di generazione artificiale, creano contenuti difficilmente distinguibili dalla realtà, con evidenti rischi di disinformazione e manipolazione dell’opinione pubblica. La capacità di simulare realisticamente persone note senza il loro consenso si scontra con vari diritti, tra cui il diritto di immagine e quello alla privacy. Secondo il Digital Services Act o DSA e l’AI Act dell’Unione Europea, è obbligatorio garantire la trasparenza nell’uso di tali tecnologie, specialmente quando vengono impiegate per generare contenuti sintetici o manipolati.
Sul piano legale, la creazione e diffusione di tali contenuti coinvolge questioni di violazione del copyright e dei diritti di pubblicità, in particolare quando le immagini riguardano persone pubbliche o personaggi protetti da proprietà intellettuale. Inoltre, la mancanza di regole chiare e condivise a livello internazionale crea uno scenario frammentato e vulnerabile agli abusi, rendendo necessaria una riflessione giuridica approfondita.
Deepfake: una nuova forma di minaccia alla veridicità delle informazioni
L’utilizzo di strumenti di intelligenza artificiale per creare immagini o video manipolati, che ritraggono personaggi pubblici in situazioni falsificate, rappresenta una nuova forma di minaccia alla veridicità delle informazioni.
Gli episodi riportati dal Wall Street Journal, che coinvolgono Donald Trump e Kamala Harris in immagini compromettenti e manipolate, ne sono un esempio paradigmatico. Tali immagini, se diffuse senza un’adeguata verifica, hanno il potenziale di indurre il pubblico a credere a eventi mai avvenuti, amplificando la disinformazione e la confusione.
Impatto elettorale dei deepfake
Uno degli aspetti più preoccupanti dei deepfake è il loro impatto elettorale. Durante le campagne elettorali, la velocità con cui circolano informazioni, spesso tramite social media, è determinante per orientare l’opinione pubblica. Le immagini falsificate possono distorcere la percezione degli elettori, alterando il dibattito politico e influenzando il risultato delle elezioni. Questo accade perché, al contrario delle classiche notizie false, i deepfake sono visivamente convincenti e sfruttano la fiducia intrinseca che il pubblico ripone nel medium visivo.
Impatto psicologico dei deep fake e requisiti di trasparenza
L’aspetto più pericoloso è che, anche una volta smascherata la falsità, il danno è spesso irreversibile. L’impatto psicologico delle immagini rimane impresso nella mente degli elettori, minando la fiducia nei leader politici e nel sistema democratico nel suo complesso. A questo proposito, l’AI Act e il Digital Services Act impongono requisiti di trasparenza e obblighi di moderazione dei contenuti, ma l’efficacia di tali misure dipende dalla loro tempestività e dall’effettiva implementazione, rendendo cruciale un rafforzamento dei meccanismi di controllo.
Responsabilità legale e quadro normativo europeo
La questione della responsabilità legale nel contesto dell’uso dell’intelligenza artificiale (IA) e della generazione di immagini manipolate viene affrontata in modo specifico dall’AI Act dell’Unione Europea. Questo regolamento, volto a stabilire un quadro giuridico armonizzato per l’uso dell’IA in Europa, cerca di garantire che le tecnologie IA vengano utilizzate in modo trasparente, sicuro e rispettoso dei diritti fondamentali degli individui. Uno degli aspetti centrali dell’AI Act è l’imposizione di obblighi di trasparenza nei confronti degli sviluppatori di sistemi IA che possono generare contenuti visivi, come le immagini generate tramite algoritmi di deep learning.
Livello di rischio e obblighi per le aziende
L’AI Act classifica i sistemi di intelligenza artificiale in base al loro livello di rischio, ponendo i sistemi che generano deepfake e altre forme di contenuti manipolati in una categoria di rischio elevato. Ciò comporta che le aziende che sviluppano tali tecnologie, come Google o xAI di Elon Musk, devono rispettare rigorosi standard di sicurezza e trasparenza. Gli utenti devono essere informati quando interagiscono con un sistema IA e, nel caso di contenuti generati artificialmente, deve essere chiaramente indicato che si tratta di materiale sintetico.
Limiti del quadro normativo Ue e sfide di applicazione
Tuttavia, il quadro normativo attuale presenta ancora dei limiti significativi. In primo luogo, la capacità delle autorità di controllo di intervenire tempestivamente è spesso insufficiente a prevenire la diffusione virale di contenuti falsi o manipolati. Questo crea una finestra temporale in cui i deepfake possono circolare indisturbati, generando danni irreparabili prima che le misure di moderazione possano essere applicate. In secondo luogo, i criteri per determinare la responsabilità degli sviluppatori di IA non sono sempre chiari, specialmente quando si tratta di tecnologie decentralizzate e open source, come Stability AI e Midjourney, che sono attualmente coinvolti in cause legali per la violazione dei diritti d’autore attraverso l’uso non autorizzato di immagini per addestrare i loro modelli.
Diritti d’autore e controversie legali
Le azioni legali contro Stability AI e Midjourney evidenziano un’altra sfida critica: la protezione dei diritti d’autore nel contesto dell’IA. Molti artisti e detentori di diritti affermano che le loro opere sono state utilizzate per addestrare modelli IA senza il loro consenso, violando il diritto di sfruttamento economico e i diritti morali degli autori. Tali controversie potrebbero portare a decisioni giuridiche che definiranno i limiti dell’uso dell’IA e determineranno nuove responsabilità per i creatori di tecnologie generative.
Il tema della violazione dei diritti di immagine
Sul piano del diritto d’autore, l’utilizzo di figure iconiche come Mickey Mouse, protetta dal copyright di Disney, rappresenta una violazione diretta di tale protezione, poiché la riproduzione senza consenso infrange il diritto esclusivo del titolare di sfruttare economicamente quell’immagine.
Allo stesso modo, l’uso non autorizzato dell’immagine di politici in contesti falsificati, come nel caso dei deepfake, può configurare una violazione del diritto di immagine e del diritto alla reputazione personale.
Il confine tra libertà di espressione e violazione dei diritti di immagine
Il confine tra libertà di espressione e violazione dei diritti di immagine diventa delicato quando si tratta di personaggi pubblici. Da un lato, il diritto di cronaca e la libertà di espressione possono giustificare la satira o il commento critico, ma l’uso distorto di queste immagini per diffondere falsità può violare il diritto alla dignità personale e alla reputazione. Le legislazioni attuali, tra cui il Digital Services Act e l’AI Act, prevedono obblighi di trasparenza e regolano l’uso di contenuti IA, ma non affrontano ancora pienamente la problematica della protezione delle immagini notorie quando si tratta di IA.
I rischi per il diritto di cronaca
Il diritto di cronaca, storicamente considerato uno degli strumenti fondamentali per garantire la libertà d’informazione, richiede che le informazioni trasmesse siano veritiere e basate su fatti riscontrabili. Tuttavia, l’introduzione di immagini manipolate dall’intelligenza artificiale, come i deepfake, mette a rischio tale requisito, deformando la realtà e minando l’integrità del racconto giornalistico. Quando un’immagine IA falsifica un fatto o distorce la rappresentazione di una persona pubblica, si oltrepassa il confine della cronaca legittima, trasformandola in diffamazione o danno all’immagine della persona coinvolta. Le figure pubbliche, pur essendo oggetto di un maggiore scrutinio, mantengono il diritto alla tutela della propria reputazione. La diffusione di contenuti falsi, che manipolano la loro immagine, è potenzialmente lesiva e suscettibile di azioni legali.
Le responsabilità delle piattaforme digitali
Le piattaforme digitali come X, dove vengono diffuse queste immagini, hanno una responsabilità chiave nella moderazione e rimozione tempestiva di contenuti manipolati. Il Digital Services Act europeo impone alle piattaforme obblighi chiari in merito alla trasparenza e all’implementazione di efficaci meccanismi di rimozione. Tuttavia, l’efficacia di tali misure dipende dall’immediatezza dell’intervento.
Un ritardo nell’azione da parte della piattaforma può comportare gravi conseguenze legali, in quanto la diffusione virale di contenuti falsi o dannosi può causare danni reputazionali irreversibili alle persone coinvolte.