La creazione dei cosiddetti “deepfake”, ovvero video contraffatti nei quali il volto di una persona viene inserito in un filmato esistente, talvolta con l’aggiunta di repliche sintetiche della voce, sta diventando sempre più facile ed economica grazie all’intelligenza artificiale.
Diversi Paesi come gli Stati Uniti, l’Inghilterra e la Cina, stanno allora portando avanti misure per contrastare il fenomeno dal punto di vista legislativo. In Europa, con la Proposta di Artificial Intelligence Act, si fa cenno per la prima volta a questo tipo di tecnologie e si cerca di imporre requisiti minimi di trasparenza alla loro diffusione.
Artificial Intelligence Act: l’UE regola l’AI ma dimentica di proteggere la mente
I casi più emblematici di abuso dei deepfake
Gli strumenti per la produzione di deepfake si basano sul deep learning, un’evoluzione del machine learning alla base dell’Intelligenza Artificiale. Attraverso questa tecnologia, l’IA sarebbe in grado di alterare contenuti video e replicare voci umane.
I primi esempi di video amatoriali manipolati dall’intelligenza artificiale sono apparsi nel novembre 2017 su Reddit, quando un utente registrato con il nome “deepfake” ha pubblicato immagini e video alterati con i volti di attrici famose.
Da subito si sono quindi configurati i due principali utilizzi di questa tecnologia di manipolazione audiovisiva: l’alterazione di materiale pornografico e la diffusione di disinformazione.
Emblematico è il caso verificatosi nelle Filippine, nel 2016, quando il consiglio legale del Presidente Rodrigo Duterte ha utilizzato un falso video pornografico della Senatrice Leila De Lima per giustificare la sua incarcerazione a seguito delle critiche di lei al suo regime autoritario.
Le studiose americane di diritto Claire McGlynn, Erica Rackley e Ruth Houghton, nello studio “Beyond revenge porn” (2017) fanno riferimento all’atto di sovrapporre il viso di una persona in questo tipo di contenuti come un vero e proprio “abuso sessuale per mezzo di immagini”.
Nel 2021, invece, è stato diffuso un video creato con l’IA che rappresentava il Presidente degli Stati Uniti Joe Biden mentre dichiarava una leva nazionale a seguito della guerra tra Russia e Ucraina. Il filmato, a cui è stata applicata un’etichetta “breaking news”, è stato diffuso dall’account Twitter The Patriot Oasis, senza indicare che il video era falso. Il tweet è stato visualizzato più di otto milioni di volte.
Come fanno notare Paris e Donovan nel report Deepfakes and cheapfakes, the manipulation of audio and video evidences (2020), nell’ambito del giornalismo, i contenuti audiovisivi giocano un ruolo chiave nella costruzione dell’opinione pubblica, e la diffusione di video alterati potrebbe rappresentare un’arma molto pericolosa.
Le contromisure
Società come Meta e Twitch, avrebbero vietato questo tipo di contenuti. Meta, in particolare, ha lanciato nel 2019 la Deepfake Detection Challenge, un’iniziativa intrapresa al fine di accelerare lo sviluppo di nuovi metodi per rilevare i video deepfake.
La tecnologia dei deepfake è una delle aree in cui l’Intelligenza artificiale si evolve più rapidamente, tanto da rendere necessario un intervento legislativo.
I paletti del Garante privacy italiano
In Italia, sulla vicenda si è espresso il Garante della Protezione dei Dati Personali, che nel 2020 ha pubblicato una scheda informativa sui rischi dell’uso malevolo di questa tecnologia.
L’AI Act
L’Unione Europea nella sua proposta di Artificial Intelligence Act del 2021 fa riferimento ai deepfake e li include nel proprio ambito di applicazione, in un primo tentativo di regolamentare il fenomeno a livello europeo.
Il documento propone un elenco di sistemi di IA vietati, considerati inaccettabili perché in contrasto con i valori dell’UE. Questi sono organizzati seguendo un approccio basato sul rischio che i vari usi dell’IA potrebbero generare: minimo, elevato e inaccettabile.
La Proposta stabilisce i criteri in base a cui definire i sistemi di Intelligenza Artificiale “ad alto rischio”, ovvero che presentano rischi significativi per la salute e la sicurezza o i diritti fondamentali degli individui. Tali sistemi dovranno soddisfare una serie di requisiti ed essere sottoposti a procedure di valutazione prima di poter essere immessi sul mercato dell’Unione. Per i software che creano contenuti deepfake vengono proposti obblighi minimi di trasparenza. Il Titolo IV della Proposta, riporta infatti che: “Se un sistema di intelligenza artificiale viene utilizzato per generare o manipolare immagini, audio o video che assomigliano in modo significativo a contenuti autentici, dovrebbe esserci l’obbligo di rivelare che il contenuto è stato generato con mezzi automatizzati”
A luglio 2021, il Parlamento Europeo ha diffuso uno studio dal titolo “Tackling deepfakes in European policy”, che identifica gli aspetti che i responsabili politici potrebbero prendere in considerazione per affrontare gli impatti negativi dei deepfake. Secondo lo studio, il quadro legislativo proposto dalla Commissione europea rappresenterebbe un’opportunità per mitigare alcuni di questi rischi, ma la regolamentazione non dovrebbe concentrarsi solo sulla dimensione tecnologica. Il rapporto include opzioni politiche che potrebbero essere incorporate nell’Artificial Intelligence Act o nel Digital Services Act, il regolamento europeo per i servizi digitali sviluppato per contrastare la disinformazione
Le misure di Usa, UK e Cina
Negli Stati Uniti si starebbe valutando in questo senso una proposta di legge a livello federale. Stati come la Virginia, il Texas e la California sarebbero già dotati di provvedimenti di questo tipo.
Anche il governo del Regno Unito, nel novembre 2022, ha annunciato l’intenzione di vietare la creazione e la condivisione di video deepfake, ma questa proposta riguarderebbe solo la diffusione di contenuti pornografici.
A gennaio 2023, infine, la Cina ha promulgato una legge contro i deepfake. Le regole incluse nella legislazione cinese, però, andrebbero molto oltre rispetto alla maggior parte delle normative nazionali esistenti in materia di audio e video contraffatti.