Nell’ambito della rapida evoluzione dell’intelligenza artificiale e del machine learning, tra le principali criticità tecnologiche che stanno emergendo nella concreta prassi con profili pregiudizievoli sempre più preoccupanti, il fenomeno del deepfake rappresenta una delle sfide più complesse da prendere in considerazione, tanto sul piano etico quanto su quello legale.
Cos’è il deepfake
Si tratta di contenuti, generati attraverso sofisticati algoritmi di apprendimento profondo, che sfruttano modelli di reti neurali per creare simulazioni altamente realistiche di volti, voci e movimenti, capaci di sovrapporre le sembianze di individui reali su materiali audiovisivi alterati. Il risultato ottenuto è una mutazione multimediale che, senza un’analisi tecnica avanzata, appare indistinguibile dalla realtà, fuorviando gli utenti a causa degli invisibili effetti manipolativi prodotti.
Per tale ragione, le implicazioni oltremodo pervasive delle tecnologie deepfake hanno reso prioritaria l’urgente predisposizione di una necessaria regolamentazione in grado di fronteggiare simili situazioni.
Defiance Act: protezione giuridica per le vittime di abusi sessuali tramite deepfake
Emblematica è, al riguardo, la disciplina prevista dal Defiance Act, che mira a fornire
identificabili di abusi sessuali tramite deepfake, innovando notevolmente il quadro normativo vigente grazie alle novità introdotte che, nel colmare una lacuna regolatoria suscettibile di alimentare il deficit di tutela riscontrato, consentirebbe alle persone danneggiate di intentare cause civili contro chi crea, distribuisce o facilita la diffusione di contenuti manipolati senza il proprio consenso.
Entrando nel merito delle fattispecie positivizzate sul piano legislativo, un punto chiave della citata riforma è l’enunciazione di criteri tecnici specifici per definire gli elementi costitutivi di una fattispecie idonea ad integrare un deepfake non consensuale, offrendo indicazioni dettagliate su come i contenuti manipolati debbano essere trattati sia dal punto di vista legale che tecnologico. Non a caso, esprime la “ratio legis” della disciplina in esame, tra l’altro, il previsto ricorso a strumenti forensi digitali per la rilevazione della manipolazione prodotta, unitamente al potenziamento di algoritmi di riconoscimento basati su IA per l’identificazione e la rimozione automatica di deepfake veicolati all’interno delle piattaforme online.
L’impianto normativo così strutturato rappresenta, senza dubbio, un primo tentativo di inquadramento qualificatorio dalla portata pionieristica, nella misura in cui il legislatore dimostra di voler affrontare una sfida cruciale che si sta sviluppato nel settore tecnologico, ove entrano in gioco rilevanti ripercussioni giuridiche che richiedono efficaci misure satisfattive non solo per le vittime di abuso, ma anche per la stabilità sostenibile e sicura dell’intero ecosistema digitale.
I tre pilastri della proposta di legge Usa
La proposta di legge è costruita intorno a tre pilastri principali: la definizione legale di deepfake non consensuali, la responsabilità civile (e i connessi meccanismi di risarcimento) per le vittime e la necessità di avvalersi di strumenti tecnologici forensi per supportare le indagini e le cause legali.
La definizione legale di deepfake non consensuali
Il primo elemento chiave è, appunto come prima accennato, la definizione tecnica e legale di cosa debba intendersi quando si parla di un deepfake non consensuale, descritto, al riguardo, come “l’immagine, il video o l’audio di una persona che viene manipolato digitalmente attraverso tecnologie di intelligenza artificiale senza il permesso esplicito dell’individuo rappresentato, con particolare riferimento a contesti in cui tale manipolazione possa causare danni psicologici, sociali o professionali”. La tecnica normativa adoperata dal legislatore sembra così delineare un quadro giuridico chiaro che distingue tra manipolazioni consentite (ad esempio, utilizzi artistici e satirici o, comunque, in presenza di ulteriori diversi contenuti leciti, ogniqualvolta si acquisisce un consenso esplicito da parte dell’interessato) e abusi non consensuali.
Nel dettaglio, il titolo I stabilisce che le vittime di deepfake non consensuali possono intraprendere azioni civili contro i responsabili. Più precisamente, il testo prevede che tali cause possano essere intentate contro chiunque crei, distribuisca o detenga tali contenuti, con l’intento di divulgarli senza il consenso dell’individuo rappresentato, garantendo, altresì, l’adozione di concrete misure per proteggere la privacy delle vittime (come l’uso di pseudonimi da utilizzare nelle more del processo a tutela delle parti danneggiate, e la possibilità di mantenere il materiale incriminato sotto custodia del tribunale durante la causa).
La responsabilità civile e i connessi meccanismi di risarcimento
Uno degli aspetti centrali della proposta è, poi, la possibilità per le vittime di richiedere il risarcimento dei danni compensativi e punitivi. I danni compensativi coprono le spese necessarie per la rimozione dei contenuti deepfake e per ristorare i pregiudizi psicologici e professionali subiti. In aggiunta, i danni punitivi mirano a sanzionare gli autori degli abusi e a scoraggiare futuri comportamenti simili, con evidenti finalità deterrenti e dissuasive.
Nell’ottica di supportare il completo espletamento delle indagini che si rendono necessarie per l’acquisizione del materiale probatorio sostenuto dall’accusa contro gli autori responsabili delle condotte incriminate, la proposta prevede la possibilità di ricorrere a strumenti avanzati di analisi forense digitale, integrate da tecnologie emergenti all’avanguardia (tra cui l’intelligenza artificiale), in grado di rilevare manipolazioni digitali attraverso l’identificazione dei file multimediali e l’impiego di algoritmi per rintracciare le incongruenze visive e/o sonore nelle rappresentazioni alterate. Grazie a tali strumenti, le vittime potranno presentare prove concrete e inoppugnabili a sostegno delle proprie ragioni quando decidono di adire i tribunali, garantendo che la manipolazione sia dimostrabile in modo oggettivo.
Considerata l’evidente portata innovativa che esprime tale disegno di legge, il cui obiettivo principale è proteggere le vittime di pratiche dannose, sul piano fattuale, sotto il profilo applicativo, alla luce di una simile cornice normativa delineata, diventa essenziale promuovere lo sviluppo di software per il tracciamento e l’identificazione automatica dei deepfake sulle piattaforme digitali e social media, collaborando attivamente per migliorare la moderazione dei contenuti alterati.
Obbligo per le piattaforme di adottare misure volte a prevenire la diffusione di deepfake non consensuali
Al riguardo, il Defiance Act pone a carico delle piattaforme l’obbligo di adottare misure adeguate a prevenire la diffusione di deepfake non consensuali, implementare il funzionamento dei sistemi di segnalazione trasparenti, consentire agli utenti di denunciare l’esistenza di contenuti manipolati, nonché rispondere tempestivamente alle richieste di rimozione da parte delle vittime. Il mancato rispetto di tali obblighi comporterà l’irrogazione di sanzioni pecuniarie e, nei casi più gravi, la possibilità di incorrere in ingenti contenziosi risarcitori promossi nell’ambito di cause legali collettive.
Di certo, per rendere efficaci tali nuove regolamentazioni, è imprescindibile avallare un approccio proattivo “multistakeholder”, basato sulla cooperazione tra legislatore e gestori delle piattaforme tecnologiche, per costruire un ecosistema digitale più sicuro, resiliente e affidabile.
La necessità di strategie legislative globali contro i deepfake
Il Defiance Act, di certo, rappresenta un’interessante novità che cerca di normare l’uso delle tecnologie avanzate.
Tuttavia, si evince la necessità di realizzare, ben oltre i confini statunitensi, una strategia legislativa uniforme, omogenea e coerente a livello globale, evitando il rischio di frammentazioni giuridiche, ostative a qualsivoglia utile intervento predisposto per fronteggiare le sfide poste dall’innovazione digitale.
Pertanto, sulla falsariga della citata riforma USA, l’Unione Europea, nota per aver edificato un quadro legislativo particolarmente avanzato in materia di protezione dei dati personali (emblematico, il cd. GDPR) e di intelligenza artificiale (EU AI Act), sarà in grado, a sua volta, di introdurre interventi regolatori altrettanto incisivi per proteggere le vittime dei deepfake non consensuali, riuscendo a integrare ulteriormente il proprio corposo e solido panorama giuridico vigente?