Il tema deepfake si fa oltremodo scottante se riportato all’ambito giuridico dove testimonianze e “prove” fake possono ribaltare l’intero processo probatorio. Ci sono già tecnologie di contro-verifica; al tempo stesso, abbiamo gli ostacoli ancora da superare.
Perché i deepfake sono un problema in ambito forense
E sarà meglio accelerare su questo fronte, perché con crescente facilità esperti di sistemi di Intelligenza artificiale sono in grado, prendendo un video, di sostituire la faccia e la voce di un personaggio con quella di un altro soggetto. Possono farlo ovviamente anche per conto terzi. La tecnica è sempre più sofisticata e lo sguardo umano inizia a non cogliere sempre, o in modo chiaro, la falsificazione. Può restare, soprattutto nei più distratti, una perplessità di fondo (si pensi al video deepfake di Barak Obama).
Questo fenomeno è comparso sugli schermi alcuni anni fa, all’inizio con la pornografia e alcuni personaggi famosi, poi con alcuni personaggi noti della politica americana (Obama, Nancy Pelosi) e poi tanti altri personaggi del mondo dello spettacolo. Il tono scherzoso e goliardico ha spesso caratterizzato il video non creando imbarazzi o conseguenze importanti. Ma se invece in un prossimo futuro ci trovassimo alle prese con deepfake dai contenuti compromettenti? Oltre ad essere il video oggetto di un artificio e di un trattamento con sistemi di intelligenza artificiale la cosa che più colpisce è il fatto di poter replicare esattamente il timbro di voce del personaggio facendogli dire le cose che si vuole fargli dire.
Deepfake, un'”altra” realtà: la ricerca in campo
Siamo in presenza di una tecnologia altamente sofisticata che fa leva su sistemi di AI “basati” su strati neurali, in grado di codificare e decodificare un segnale. I problemi non sono soltanto etici, sociali, probatori ma soprattutto relativi alla costruzione di “altre” realtà. Bisogna fare presto. Servono strumenti in grado di smascherare i deepfake e rimuoverli. Sarà necessario potenziare gli sforzi della ricerca per sviluppare le migliori pratiche di IA e di Face Forensics allo scopo di mitigare il potenziale danno e l’abuso che può nascondersi dietro a questi sistemi. Google sta studiando il fenomeno già da qualche tempo e ha stilato un elenco di Principi IA ovvero linee guida da seguire allo scopo di richiamare l’attenzione sull’uso malevolo o non etico delle potenzialità dell’intelligenza artificiale. Da alcuni mesi l’azienda di Mountain View è attiva sul fronte dei deepfake.
A seguito di una ricerca del gruppo Google Research è stato creato un database (meglio chiamato dataset) in collaborazione anche con Jigsaw, l’Università Federico II di Napoli e l’Università di Monaco con il quale è stato possibile il rilascio di un set di dati di sintesi vocale a supporto di un progetto internazionale per lo sviluppo di rilevatori audio falsi ad alte prestazioni. Il set è stato offerto liberamente in download su GitHub per consentire a tutto il mondo (soprattutto ai ricercatori accademici e non) di beneficiarne. Ad oggi il set di dati è stato scaricato da oltre 150 organizzazioni di ricerca e industria ed è partita la sfida scientifica contro il deepfake per trovare soluzioni di forensics all’altezza dei nuovi e sofisticati meccanismi di alterazione, o meglio, vera e propria creazione, della realtà.
Il deepfake in tribunale: come smascherarlo?
In Italia si è fatto un gran parlare della lotta alle fake news parlando di fattispecie di reato o di tutele alternative. Man mano che la realizzazione di video fake sarà alla portata anche dei meno esperti avremo la necessità di riaprire il dibattito sugli strumenti (investigativi e non) di tutela delle vittime di questi fake?
Il punto è che con una velocità impressionante sta cambiando il nostro modo di vedere le cose, di percepirle, di pensare e di vivere, in Rete e fuori dalla rete. Molti soggetti sono consapevoli o provano a capire cosa sta accadendo ma non tutti ci riescono e non tutti hanno la medesima percezione. Stentiamo a comprendere quali potranno essere le conseguenze sociali e culturali e, sempre più spesso con il passare del tempo, la nostra intima capacità critica e di comprendere la realtà delle cose viene messa a dura prova.
Affinché “un documento visivo” possa essere utilizzato in un procedimento giudiziario, è necessario che ne sia provata l’originalità. L’attendibilità di una fonte di prova diventa quindi argomento delicato, perché necessita di nozioni tecnico-scientifiche che, anche per la loro continua evoluzione, mal si prestano ad essere catalogate all’interno di una normativa.
Anche nel caso dei video deep fake, come in altri casi nel passato, per cercare la verità, per avere la prova della falsità di questi video il metodo migliore è il metodo scientifico.
La verifica di autenticità di un documento visivo digitale avviene in due fasi: la verifica dell’autenticità del file e la verifica dell’autenticità del contenuto.
L’image processing: tutte le categorie
L’approccio forense all’analisi di un’immagine presuppone che questa debba essere affidata a personale con un’adeguata preparazione tecnica nel campo dell’image processing, ma che sappia anche interpretare le informazioni estratte alla luce del contesto dell’ambito forense e giudiziario.
L’analisi forense di immagini è suddivisa nelle seguenti categorie:
– Image forgery identification: identificazione di manipolazioni in un’immagine, finalizzata all’inserimento o alla rimozione di parte del contenuto informativo di un’immagine.
– Source camera identification: identificazione del dispositivo che ha generato l’immagine (se possibile). Il primo passo è la discriminazione tra immagini naturali o artificiali (Computer Generated).
– Image reconstruction/restoration/enhancement: restauro di immagini deteriorate e miglioramento della qualità al fine di identificare, anche parzialmente, il contenuto originale e/o recuperare informazioni.
– Image/video analysis: analisi dinamiche o comportamentali volte, ad esempio, ad individuare la consecutio temporum di un evento d’interesse.
– Ricostruzione 3D e comparazione: estrazione delle informazioni bi/tridimensionali contenute all’interno della scena per ricavare misure o grandezze di riferimento (ad esempio l’altezza di un individuo) e per la comparazione tra immagini (ad esempio per verificare l’identità di un soggetto noto attraverso le sue caratteristiche fisiche e antropologiche).
– Steganalisi: individuazione di informazioni nascoste all’interno di un’immagine con tecniche steganografiche (ad esempio mediante la modifica del bit meno significativo nel numero che definisce il colore di un pixel).
Come valutare l’autenticità di un video
L’analisi generale del file consente di individuare unicamente eventuali alterazioni a livello di formato: permette cioè di determinare l’autenticità o meno del file, ma non del contenuto informativo in esso contenuto. L’analisi di formato può essere di tipo comparativo (ci si confronta cioè con analoghi dati) o assoluto. Alcuni degli elementi principali da analizzare, per valutare l’autenticità del file mediante un’analisi di tipo assoluto, sono il formato dell’immagine, le dimensioni delle immagini, la presenza dei metadati EXIF (in particolare dei tag Make e Model), la presenza di keyword sospette all’interno dei metadati dell’immagine, oppure la compatibilità delle date di creazione e modifica salvate nei dati EXIF come anche la presenza di immagini secondarie quali thumbnail e preview.
L’analisi locale dell’immagine invece permette di evidenziare localmente eventuali artefatti nelle caratteristiche dei pixel, che possono essere dovuti alla presenza di un particolare tipo di manipolazione. L’output è generalmente un’immagine, ottenuta applicando un particolare filtraggio. Nella maggior parte dei casi, l’analista deve avere una certa competenza nell’interpretare correttamente le immagini risultanti e identificare le zone sospette. Talvolta è possibile automatizzare il metodo con delle soglie, al fine di estrarre alcuni elementi delle zone sospette. In ogni caso è sempre necessaria una valutazione critica del risultato da parte dell’esperto. Ad esempio a volte le analisi dell’immagine possono dare spesso dei risultati errati (tipicamente falsi positivi). In tal caso, è compito dell’analista comprendere che l’identificazione di alcune aree sospette in alcuni casi non sono affidabili.
L’efficienza delle tecniche di analisi dipende fortemente dal tipo di processing che viene applicato alle immagini dopo la manipolazione. Ad esempio, se successivamente alla modifica le immagini sono state compresse o ridimensionate in modo eccessivo, la maggior parte delle tracce visibili con questi algoritmi vengono per lo più rimosse. Queste procedure sono alla base dei sistemi di video forensics oggi in uso e di quelle alla base della prime analisi sui video di Deepfake.
Ricerca anti-deepfake, le eccellenze italiane
In Italia oggi molti istituti di ricerca, come ad esempio l’Università di Catania e altri centri specializzati, sono alle prese con questo tipo di analisi e procedure applicate al deep fake. Le metodologie per la ricerca di manipolazioni su immagini sono state descritte oramai diversi anni fa (pubblicate su IISFA memberbook 2013 le potete trovare qui). Attualmente l’ENFSI (European Network of Forensic Science Institutes) sta lavorando ad un progetto cui partecipa l’UniCT per redigere le prime BPM (best practices) a livello europeo.
A livello di ricerca iniziano ad uscire i primi tools e i propositi sono quelli di riuscire a trovare le anomalie statistiche che le reti neurali di nuova generazione (chiamate GAN, Generative Adversarial Network) addestrate a costruire video realistici di volti umani (come ad esempio quelle del sito web. Trattasi di tecniche di forensics tutte ripetibili (anche sotto il profilo processuale), da applicare in post-processing che vanno a ricercare tali anomalie.
In pratica l’occhio umano viene ingannato, ma la traccia digitale della manipolazione rimane e va scovata. Alcune tecniche per esempio analizzano le anomalie nel blinking, altre verificano la distribuzione dei pixel saturi (troppo chiari e/o troppo scuri), altre verifichino che tutte le tracce di un’acquisizione con una macchia da ripresa siano presenti.
Ovviamente anche nella battaglia contro il deepfake partiamo in salita ma, come già accaduto in passato e come sempre accade in questi casi, sarà una guerra tra forensics e anti-forensics dove la nuova tecnologia consente anche di aiutare a capire se stessa e a smascherare i suoi stessi lati occulti. Pertanto molta attenzione ma niente paura e inutili allarmismi, non partiamo affatto battuti in partenza.