defiance act

Deepfake: nuove norme Usa per tutelare le vittime



Indirizzo copiato

Il Defiance Act introduce norme innovative per proteggere le vittime di deepfake non consensuali, permettendo azioni legali e risarcimenti. Include strumenti tecnologici avanzati per identificare e rimuovere contenuti manipolati, promuovendo un ecosistema digitale più sicuro

Pubblicato il 22 nov 2024

Federica Giaquinta

Consigliere direttivo di Internet Society Italia



deepfake (1)

Nell’ambito della rapida evoluzione dell’intelligenza artificiale e del machine learning, tra le principali criticità tecnologiche che stanno emergendo nella concreta prassi con profili pregiudizievoli sempre più preoccupanti, il fenomeno del deepfake rappresenta una delle sfide più complesse da prendere in considerazione, tanto sul piano etico quanto su quello legale.

Cos’è il deepfake

Si tratta di contenuti, generati attraverso sofisticati algoritmi di apprendimento profondo, che sfruttano modelli di reti neurali per creare simulazioni altamente realistiche di volti, voci e movimenti, capaci di sovrapporre le sembianze di individui reali su materiali audiovisivi alterati. Il risultato ottenuto è una mutazione multimediale che, senza un’analisi tecnica avanzata, appare indistinguibile dalla realtà, fuorviando gli utenti a causa degli invisibili effetti manipolativi prodotti.

Per tale ragione, le implicazioni oltremodo pervasive delle tecnologie deepfake hanno reso prioritaria l’urgente predisposizione di una necessaria regolamentazione in grado di fronteggiare simili situazioni.

Defiance Act: protezione giuridica per le vittime di abusi sessuali tramite deepfake

Emblematica è, al riguardo, la disciplina prevista dal Defiance Act, che mira a fornire

identificabili di abusi sessuali tramite deepfake, innovando notevolmente il quadro normativo vigente grazie alle novità introdotte che, nel colmare una lacuna regolatoria suscettibile di alimentare il deficit di tutela riscontrato, consentirebbe alle persone danneggiate di intentare cause civili contro chi crea, distribuisce o facilita la diffusione di contenuti manipolati senza il proprio consenso.

Entrando nel merito delle fattispecie positivizzate sul piano legislativo, un punto chiave della citata riforma è l’enunciazione di criteri tecnici specifici per definire gli elementi costitutivi di una fattispecie idonea ad integrare un deepfake non consensuale, offrendo indicazioni dettagliate su come i contenuti manipolati debbano essere trattati sia dal punto di vista legale che tecnologico. Non a caso, esprime la “ratio legis” della disciplina in esame, tra l’altro, il previsto ricorso a strumenti forensi digitali per la rilevazione della manipolazione prodotta, unitamente al potenziamento di algoritmi di riconoscimento basati su IA per l’identificazione e la rimozione automatica di deepfake veicolati all’interno delle piattaforme online.

L’impianto normativo così strutturato rappresenta, senza dubbio, un primo tentativo di inquadramento qualificatorio dalla portata pionieristica, nella misura in cui il legislatore dimostra di voler affrontare una sfida cruciale che si sta sviluppato nel settore tecnologico, ove entrano in gioco rilevanti ripercussioni giuridiche che richiedono efficaci misure satisfattive non solo per le vittime di abuso, ma anche per la stabilità sostenibile e sicura dell’intero ecosistema digitale.

I tre pilastri della proposta di legge Usa

La proposta di legge è costruita intorno a tre pilastri principali: la definizione legale di deepfake non consensuali, la responsabilità civile (e i connessi meccanismi di risarcimento) per le vittime e la necessità di avvalersi di strumenti tecnologici forensi per supportare le indagini e le cause legali.

La definizione legale di deepfake non consensuali

Il primo elemento chiave è, appunto come prima accennato, la definizione tecnica e legale di cosa debba intendersi quando si parla di un deepfake non consensuale, descritto, al riguardo, come l’immagine, il video o laudio di una persona che viene manipolato digitalmente attraverso tecnologie di intelligenza artificiale senza il permesso esplicito dellindividuo rappresentato, con particolare riferimento a contesti in cui tale manipolazione possa causare danni psicologici, sociali o professionali”. La tecnica normativa adoperata dal legislatore sembra così delineare un quadro giuridico chiaro che distingue tra manipolazioni consentite (ad esempio, utilizzi artistici e satirici o, comunque, in presenza di ulteriori diversi contenuti leciti, ogniqualvolta si acquisisce un consenso esplicito da parte dell’interessato) e abusi non consensuali.

Nel dettaglio, il titolo I stabilisce che le vittime di deepfake non consensuali possono intraprendere azioni civili contro i responsabili. Più precisamente, il testo prevede che tali cause possano essere intentate contro chiunque crei, distribuisca o detenga tali contenuti, con l’intento di divulgarli senza il consenso dell’individuo rappresentato, garantendo, altresì, l’adozione di concrete misure per proteggere la privacy delle vittime (come l’uso di pseudonimi da utilizzare nelle more del processo a tutela delle parti danneggiate, e la possibilità di mantenere il materiale incriminato sotto custodia del tribunale durante la causa).

La responsabilità civile e i connessi meccanismi di risarcimento

Uno degli aspetti centrali della proposta è, poi, la possibilità per le vittime di richiedere il risarcimento dei danni compensativi e punitivi. I danni compensativi coprono le spese necessarie per la rimozione dei contenuti deepfake e per ristorare i pregiudizi psicologici e professionali subiti. In aggiunta, i danni punitivi mirano a sanzionare gli autori degli abusi e a scoraggiare futuri comportamenti simili, con evidenti finalità deterrenti e dissuasive.

Nell’ottica di supportare il completo espletamento delle indagini che si rendono necessarie per l’acquisizione del materiale probatorio sostenuto dall’accusa contro gli autori responsabili delle condotte incriminate, la proposta prevede la possibilità di ricorrere a strumenti avanzati di analisi forense digitale, integrate da tecnologie emergenti all’avanguardia (tra cui l’intelligenza artificiale), in grado di rilevare manipolazioni digitali attraverso l’identificazione dei file multimediali e l’impiego di algoritmi per rintracciare le incongruenze visive e/o sonore nelle rappresentazioni alterate. Grazie a tali strumenti, le vittime potranno presentare prove concrete e inoppugnabili a sostegno delle proprie ragioni quando decidono di adire i tribunali, garantendo che la manipolazione sia dimostrabile in modo oggettivo.

Considerata l’evidente portata innovativa che esprime tale disegno di legge, il cui obiettivo principale è proteggere le vittime di pratiche dannose, sul piano fattuale, sotto il profilo applicativo, alla luce di una simile cornice normativa delineata, diventa essenziale promuovere lo sviluppo di software per il tracciamento e l’identificazione automatica dei deepfake sulle piattaforme digitali e social media, collaborando attivamente per migliorare la moderazione dei contenuti alterati.

Obbligo per le piattaforme di adottare misure volte a prevenire la diffusione di deepfake non consensuali

Al riguardo, il Defiance Act pone a carico delle piattaforme l’obbligo di adottare misure adeguate a prevenire la diffusione di deepfake non consensuali, implementare il funzionamento dei sistemi di segnalazione trasparenti, consentire agli utenti di denunciare l’esistenza di contenuti manipolati, nonché rispondere tempestivamente alle richieste di rimozione da parte delle vittime. Il mancato rispetto di tali obblighi comporterà l’irrogazione di sanzioni pecuniarie e, nei casi più gravi, la possibilità di incorrere in ingenti contenziosi risarcitori promossi nell’ambito di cause legali collettive.

Di certo, per rendere efficaci tali nuove regolamentazioni, è imprescindibile avallare un approccio proattivo “multistakeholder”, basato sulla cooperazione tra legislatore e gestori delle piattaforme tecnologiche, per costruire un ecosistema digitale più sicuro, resiliente e affidabile.

La necessità di strategie legislative globali contro i deepfake

Il Defiance Act, di certo, rappresenta un’interessante novità che cerca di normare l’uso delle tecnologie avanzate.

Tuttavia, si evince la necessità di realizzare, ben oltre i confini statunitensi, una strategia legislativa uniforme, omogenea e coerente a livello globale, evitando il rischio di frammentazioni giuridiche, ostative a qualsivoglia utile intervento predisposto per fronteggiare le sfide poste dall’innovazione digitale.

Pertanto, sulla falsariga della citata riforma USA, l’Unione Europea, nota per aver edificato un quadro legislativo particolarmente avanzato in materia di protezione dei dati personali (emblematico, il cd. GDPR) e di intelligenza artificiale (EU AI Act), sarà in grado, a sua volta, di introdurre interventi regolatori altrettanto incisivi per proteggere le vittime dei deepfake non consensuali, riuscendo a integrare ulteriormente il proprio corposo e solido panorama giuridico vigente?

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4