I deepfake rappresentano senza dubbio una delle sfide più critiche per la società del prossimo futuro, ed è difficile prevedere quale sarà l’impatto effettivo di queste tecnologie sui prossimi eventi, tra cui le elezioni USA del 2024. Una grossa incognita è rappresentata anche dalla volontà per le grosse piattaforme che raccolgono contenuti user-generated (come i social networks) di dotarsi di tecnologie di identificazione.
La ricerca e lo sviluppo di metodologie e software di identificazione per limitare e contrastare questo fenomeno stanno crescendo, sebbene non siano ancora equiparabili ai software di creazione: per questa ragione la prima e più importante contromisura da attuare è quella di educare le persone sulla tematica dei deepfakes e sui potenziali rischi ad essi associati, per acquisire una maggiore consapevolezza in materia.
Deepfake: di cosa parliamo
Con il termine “deepfake” si intende un contenuto multimediale, generalmente video, manipolato o creato da zero tramite l’ausilio di tecniche di intelligenza artificiale (IA). Il termine è l’unione di “deep”, in riferimento al deep learning, e “fake”, che significa falso; pare sia stato usato per la prima volta da un utente su Reddit nel 2017, ma è diventato ben presto di uso comune. Grazie ai recenti sviluppi in materia, in termini di ricerca e sviluppo applicativo, i deepfakes sono sempre più comuni sui social network e non solo; inoltre, la loro qualità sta migliorando esponenzialmente, rendendo il compito di distinguere materiale vero dal falso sempre più difficile.
La manipolazione di media o la creazione di veri e propri contenuti sintetici risale a prima dell’impiego massiccio di IA: i cosiddetti “cheapfakes” sono ancora oggi molto comuni. Con cheapfake si intende generalmente un contenuto modificato con software più accessibili ed economici di quelli che impiegano l’IA, la cui qualità è quindi mediamente peggiore e sono, teoricamente, più facilmente riconoscibili. Un esempio sono le modifiche di colori alle foto, cambi di velocità nei video. I deepfakes invece richiedono grandi quantità di dati, come altre creazioni sintetiche dell’IA, e fanno quasi sempre uso di reti neurali.
Tra il 2018 e 2019 erano stati contati online circa tra i 10 mila e i 15 mila video deepfake; oggi sono probabilmente nell’ordine dei milioni. Paper accademici citano le origini dell’uso dei deepfakes per la produzione di contenuto pornografico, ancora oggi il settore dove i deepfakes sono i più presenti: secondo Sensity.ai (una società specializzata nell’identificazione di deepfakes), circa il 90% dei video dal 2018 consiste in materiale pornografico non consensuale. Oggi, la presenza di app, quali FaceApp, MyHeritage o Reface hanno permesso anche a non esperti di produrre deepfakes di alta qualità, o comunque sufficientemente validi per ingannare l’occhio umano. La proliferazione di questi contenuti rischia di inasprire ulteriormente fenomeni quali disinformazione e misinformazione, già dilaganti.
Le diverse tipologie di deepfake
Ci sono diverse tipologie di deepfakes.
Face swaps
Il viso di una persona source (fonte) si traspone su di una persona target (bersaglio), comunemente usato in contenuti divertenti sui social media utilizzando i visi delle celebrità. Oggi vengono impiegate tecnologie come Deep Neural Network (DNN), sebbene i primi swap risalgano già agli anni ’90 con l’uso di software come Adobe Photoshop.
Lip-syncing
Un video viene modificato per far sembrare che la persona target dica cose fittizie; in pratica impiega l’utilizzo della voce registrata da una o più fonti che viene sincronizzata su un altro video, per farlo sembrare autentico. Uno dei primi esempi al pubblico è stato Face2Face, un modello preparato da alcuni ricercatori di Stanford nel 2017 e che utilizza i Recurrent Neural Networks (RNN).
Puppet-master
L’aspetto della persona target (puppet) si impone su un’altra che compie le azioni. Una metodologia di creazione molto comune utilizza il modello per l’apprendimento automatico della rete generativa avversaria; in tale modello, un “generatore” di dati fittizi si confronta con un “discriminatore”, il cui compito è distinguere tra i dati reali e quelli falsi. Il modello sarà tanto più efficace quanto il generatore riesce a “ingannare” il discriminatore.
I settori più colpiti
I deepfakes vengono utilizzati per una moltitudine di scopi, in diversi settori. Un esempio è quello dell’intrattenimento: nel 2021 un video con un finto Tom Cruise, preparato dall’esperto Chris Uwe, fece molto scalpore per la sua incredibile precisione e finì su tutti i giornali. Da quell’esperienza è nata Metaphysic, una compagna specializzata proprio in deepfake per la produzione di contenuti. Nel 2019 la compagnia synthesia ha vinto il premio “Social Good use of AI award” per un video in cui David Beckham “parlava” in 9 lingue diverse per promuovere la consapevolezza verso la lotta contro la malaria.
I rischi
Accanto a questi esempi di usi benevoli e commerciali sono emerse una moltitudine di casistiche che invece comportano diversi rischi, come vediamo di seguito.
Il fenomeno dei deepfakes avrà un impatto su tutta la società: alcuni ricercatori sottolineano come ci sarà una generale crisi di fiducia riguardo il materiale online e dei media, con conseguente scetticismo anche nei confronti di contenuti autentici. A questo proposito, ci sono già stati casi in cui testate giornalistiche di un certo spessore hanno riprodotto contenuti fasulli inconsapevolmente; perciò, se da un lato la creazione di materiale sintetico è alla portata di tutti, la sua identificazione è appannaggio di pochi esperti e di software avanzati. Sull’identificazione si rimanda alla sezione successiva dell’articolo.
I settori in cui la propagazione incontrollata di deepfakes ha un impatto più evidente
Al di là delle considerazioni generali, ci sono settori in cui la propagazione incontrollata di deepfakes ha un impatto più evidente.
Politica e Sicurezza nazionale
I deepfakes hanno sicuramente causato preoccupazione tra gli stati per l’uso nelle campagne di disinformazione e manipolazione dell’opinione pubblica. In un paper del dipartimento di Homeland Security degli USA, viene esplicitamente detto: “i deepfakes e l’uso improprio di contenuti prodotti sinteticamente rappresentano una chiara, presente minaccia in fase di evoluzione nei settori della sicurezza nazionale, law enforcement, finanza e società”. Non a caso, sempre negli USA nel 2015 la DARPA lanciò il “Media Forensics program”, o “MediFor”, che mirava al riconoscimento automatico dei deepfake; oggi, università come Stanford, Carnegie Mellon e Berkeley stanno investendo in centri di ricerca atti alla creazione di tecnologie quanto più efficaci, per preparare delle contromisure.
Diversi sono i video che circolano online di politici con falsi discorsi, soprattutto nei gruppi di estremismo online. Molti sono anche i video, perlopiù ironici, dei presidenti Joe Biden e Donald Trump che si sfidano ai videogiochi o hanno dialoghi fittizi. Uno dei più virali e recenti è stato quello del Presidente ucraino Zelensky che annunciava il ritiro delle truppe dal conflitto e la resa, il primo usato intenzionalmente in un conflitto armato. Sono sempre più comuni anche tra i gruppi estremisti, che li usano per ampliare il bacino di simpatizzanti. Tanta è la preoccupazione per le prossime elezioni negli USA che un articolo di Wired definisce quelle del 2024 come le “Deepfake election”.
Criminalità e giustizia
Come già indicato, i deepfakes, ad oggi, sono stati usati maggiormente per attività illecite. Sebbene non siano ancora comuni nelle attività criminali, l’Europol ha sottolineato l’insorgere dei cosiddetti Crime-as-a-Service (CaaS), dove si può richiedere materiale previo pagamento, similarmente a come già accade per exploit di cybersecurity.
I possibili casi d’uso dei deepfake
In un report preparato dall’Innovation Lab Europol emergono diversi possibili casi di utilizzo dei deepfake:
Molestie online e cyber-bullismo
Vista la facilità d’impiego degli strumenti, si sono rilevati parecchi casi di utilizzo per umiliazione pubblica sui social. Un esempio è l’attivista Noelle Martin, che a 17 anni ha visto più volte la sua immagine sovraimposta ad un video pornografico; si sono inoltre osservati studenti ed altre tipologie di individui creare video per le più svariate ragioni di carattere personale, come una madre che ha realizzato un finto video della figlia cheerleader mentre beveva e fumava, come riporta il Cyber Bullying Research Centre o video usati per vendicarsi su questioni personali.
Frode ed estorsioni
Uno dei più celeberrimi casi di audio deepfake ha riprodotto la voce di un CEO per far trasferire 35 milioni di dollari statunitensi ad un ignaro dipendente. Contenuti sintetici sono già stati utilizzati per ricattare individui o commettere frodi.
Falsificazione di documenti e identità
Essendo sempre più difficile ingannare i sistemi di identificazione e forgiare documenti falsi, si tenta di forgiare foto quanto più realistiche date dall’unione di 2 soggetti (“morphing”), che riescano così a superare anche controlli automatizzati con riconoscimento facciale. In questo caso preoccupano soprattutto gli spostamenti di potenziali terroristi e trafficanti, che potrebbero così eludere le autorità.
Falsificazione e manipolazione di prove digitali per investigazioni penali
La questione delle prove digitali, soprattutto quelle open-source, sta diventando sempre più pressante per i tribunali, inclusa la Corte Penale Internazionale, che persegue crimini di guerra e contro l’umanità in scenari in cui tante fonti possibili entrano in gioco e che, con l’avvento dei social networks, si sono proliferate. È diventato quindi imperativo per le corti adoperarsi in merito all’autenticazione del materiale probatorio, definendo criteri rigidi per la compilazione della catena di custodia (“chain of custody”) e i requisiti per l’ammissione di materiale come prova.
Metodi di identificazione
A causa della loro capillare diffusione e, soprattutto, delle gravi implicazioni sia in termini di frode che di manipolazione dell’opinione pubblica, risulta sempre più necessario trovare e sviluppare metodi accurati e affidabili per riconoscere i deepfake e contrastare gli effetti negativi che possono causare.
Nonostante la crescente difficoltà nel distinguere ciò che è vero da ciò che è falso, ci sono caratteristiche rilevanti e distintive che possono aiutare a individuare un deepfake anche senza l’ausilio di software specifici.
Nel caso di immagini e video che mostrano una persona, queste caratteristiche fanno principalmente riferimento all’aspetto fisico della persona raffigurata e, nel caso di un video, anche alle sue movenze e all’audio presente.
Tra queste è importante fare riferimento a:
- Occhi: replicare il naturale movimento degli occhi e lo sbattere delle ciglia è ancora piuttosto difficile, in quanto spesso il soggetto segue o fissa l’interlocutore con cui sta conversando. Un movimento innaturale e distorto può essere dunque segnale della presenza di un deepfake. Nel caso di immagini invece, è bene fare caso alla pupilla del soggetto raffigurato, poiché questa viene molte volte ricreata in modo scorretto, con bordi sfocati e una forma non ben definita.
- Viso ed espressioni facciali: i deepfake sono spesso immagini sovrapposte e questa sovrapposizione spesso crea delle espressioni facciali distorte e innaturali. Anche la pelle può essere un utile indicatore soprattutto nel caso di evidenti discromie, pelle troppo liscia o troppo rugosa, ombre strane e barba o baffi dalla forma e definizione anomala.
- Denti e capelli: dentatura e capelli sono anch’essi difficili da ricreare dall’intelligenza artificiale per questo spesso i sorrisi potrebbero risultare strani e poco definiti.
- Rumori o audio incoerente: nel caso di un video è importante prestare molta attenzione all’audio e cercare di contestualizzarlo. Un chiaro segno che ci dimostra di essere davanti a un deepfake è la mancanza di corrispondenza tra audio e il labiale della persona che parla.
- Distorsioni visive: pixel, ombre innaturali o altri oggetti fuori posto sono un altro importante indicatore di un possibile deepfake.
- Attendibilità della fonte: oltre all’analisi visiva del presunto deepfake, è molto importante fare riferimento anche alla fonte nel quale l’immagine o il video in oggetto viene postato, valutandone dunque l’affidabilità.
Alcuni deepfakes sono tuttavia molto elaborati e per questo difficili da individuare soltanto attraverso un’attenta analisi del contenuto. In questi casi possono risultare efficaci altre metodologie come “reverse image search” che permette di fare una ricerca per immagini, andando a cercare eventuali corrispondenze online del presunto deepfake, per appurare la sua veridicità permettendo un confronto con immagini simili o coincidenti a quella ricercata.
Più elaborati e a pagamento sono invece software quali Sensity.ai o Sentinel che attraverso l’uso di IA, e nello specifico reti neurali, analizzano il contenuto alla ricerca di anomalie garantendo in ultimo un’alta percentuale di successo nell’identificazione dei deepfakes. Un ulteriore software di recente creazione è quello di Intel, che utilizza un detector noto come “FakeCatcher”, il quale ha una percentuale di riconoscimento dichiarata del 96%. Nonostante ciò, ad oggi, i software con questa potenza di calcolo e una precisione così elevata sono però ancora molto pochi e utilizzati principalmente da grandi aziende e istituzioni.
Aldilà dei sopracitati software ancora limitati per il grande pubblico, è bene ricordare che, sebbene l’attenta analisi di una immagine o di un video possano portarci a identificare un deepfake, il continuo progresso tecnologico renderà sempre più difficile il riconoscimento a occhio nudo. Nonostante ciò, esercitarsi a identificare questi media può risultare molto utile. A questo proposito è stato ha creato “Detect Fakes”, un progetto di ricerca del MIT Media Lab, concepito per osservare se le persone riescono o meno a distinguere un’immagine/video autentico da un uno sintetico, il compito dell’utente è appunto analizzare il contenuto mostrato e segnalare se si tratta di un falso oppure no.
Conclusioni
Considerando i gravi impatti che questi possono creare, l’erodersi della fiducia e la crescita dell’incertezza verso ciò che viene postato online e sui media tradizionali sono trend inevitabili se la proliferazione diventasse incontrollabile.
Il Garante privacy italiano ha pubblicato una linea guida sul proprio sito[11] e così stanno facendo anche le istituzioni di altri paesi. Altri sforzi si muovono verso l’introduzione di certificazioni di autenticità dei contenuti, tra queste si segnala la “Coalition for Content Provenance and Authenticity” (C2PA), promossa da enti di spessore quali Adobe, Google, Intel e la BBC per citarne alcuni. La C2PA mira alla creazione di standard internazionali per verificare la provenienza delle fonti, e potrebbe rappresentare una rivoluzione in termini di verifica dell’autenticità dei contenuti, sebbene questo possa impattare solo marginalmente sul fenomeno dei deepfakes.