I deepfakes si candidano ad essere la nuova insidia della disinformazione e una nuova minaccia al discorso pubblico e all’arena democratica, potendo portare il problema delle fake news a un nuovo livello di pericolosità. L’uso dei deepfakes nel dibattito pubblico avrebbe conseguenze e implicazioni dirompenti sul marketplace of ideas, sulla libertà di informazione e il sistema mediale, sulle Internet platforms e sulla qualità delle nostre democrazie.
Che cos’è un deepfake
Deepfake è il termine con cui si identifica una tecnica di creazione e simulazione di immagini di essere umani basata sull’intelligenza artificiale.
In sintesi si tratta di una tecnologia sviluppata originariamente nell’industria del porno che permette attraverso un complesso software di creare video falsi che sembrano veri o di artefare video veri aggiungendovi particolari – tendenzialmente facciali – falsi.
Attraverso la sovrapposizione facciale (per lo più) è possibile dunque far dire, fare e mostrare cose non dette/fatte/accadute a personaggi pubblici.
Prerequisito per poter sviluppare un deepfake di qualità è possedere un numero elevato di immagini della persona che si vuole “falsificare” e possedere o un video “nuovo” su cui montarle o uno da modificare.
Un attore, un politico o qualsiasi figura pubblica sono bersagli perfetti.
Il software, elaborando le immagini del soggetto e le sue varie espressioni facciali e posturali, sarà in grado di introdurre in un video il volto dello stesso e di ricomporne accuratamente le sembianze e le movenze facciali, facendogli ovviamente pronunciare le parole o fare i movimenti che si preferisce.
Vecchi e “nuovi” possibili utilizzi del deepfake
Dall’ambiente pornografico in cui si è sviluppato a partire dal 2017, il deepfake è diventata una tecnologia di più ampio utilizzo grazie ad app quali FakeApp.
Uno dei primi esempi non pornografici di deepfake che può essere esplicativo della portata dirompente di questa tecnologia è il video “fake Cage”, che mostra il famoso attore hollywoodiano Nicolas Cage in parti e personaggi che non ha mai interpretato.
L’ambito di applicazione più rischioso di questa tecnologia rimane, tuttavia, quello della sfera politica.
Per ora – per facezia e satira – sono stati creati video che sovrappongono le facce di personaggi diversi ad altri soggetti (Macrì-Hitler o Merkel-Trump), ma il video denuncia del pericolo deepfake realizzato da Jordan Peele è esemplificativo dei rischi connaturati a questa tecnologia.
Il regista e sceneggiatore statunitense ha realizzato infatti un deepfake che falsifica un video di Barack Obama facendogli affermare cose mai dette.
La creazione di questo video realistico e verosimile e le conseguenti difficoltà nel percepire cosa possa essere vero e falso aprono inquietanti prospettive.
Il rischio per il discorso pubblico (e non solo)
Si può, infatti, solo immaginare che effetti possa comportare la falsificazione di un video di una conferenza stampa, di un’intervista o della dichiarazione parlamentare di un politico.
Il rischio non è solo un rischio politico ma anche economico: si pensi a quello che potrebbe causare presso gli investitori la distorsione e la diffusione di un video contenente una dichiarazione mendace e alterata di un politico.
A prescindere dai rischi economici in termini di fiducia dei mercati i rischi maggiori per una democrazia sono quelli della distorsione dei pilastri dell’arena pubblica e del marketplace of ideas: ossia la distorsione delle dichiarazioni politiche, la creazione di fake talmente credibili da non essere individuati come falsi neanche dai giornalisti se non mediante complesse procedure di ricostruzione delle fonti.
Si pensi, infatti, alla eventuale “distorsione” e “falsificazione” di una frase in mezzo a un contesto lasciato inalterato: 20 secondi su 40 minuti di comizio. Le difficoltà sono evidenti.
Se una “tradizionale” fake news creata ad hoc che imputa dichiarazioni mai avvenute – e a volte di una assurdità inaudita – a esponenti politici riesce ad avere un impatto enorme mediante i social network… si possono solo immaginare le devastanti conseguenze che può avere un video artefatto talmente bene da essere “quasi” indistinguibile dal reale.
Se il debunking già sembra fallire con fake news acclamate e facilmente smentibili, cosa può provocare un video modificato ad hoc dall’intelligenza artificiale?
Le implicazioni sulla libertà di informazione e i media
Una serie di conseguenze potrebbero, poi, aversi sul modus operandi del giornalismo nel nostro ordinamento e sul sedimentato sistema normativo che disciplina l’equilibrio fra fake news punibile (diffamazione – 595 c.p.; diffusione di false notizie – 656 c.p.; manipolazione del mercato 187-ter Tuf etc.) e condotta non sanzionabile poiché commessa senza colpa e in buona fede.
Nel mondo dei media e del giornalismo la circolazione ampia e smisurata di deepfakes potrebbe comportare un cataclisma sia dal punto giuridico che da quello economico.
Dalla prima prospettiva, infatti, serve rilevare che nella diffusione di notizie il controllo delle fonti è spesso il discrimen fra una condanna per diffamazione o per diffusione di false notizie e una assoluzione nel caso di pubblicazioni di una notizia risultata falsa.
In caso di deepfakes e in assenza di una tecnologia efficace di “smascheramento” del falso, l’onere in capo al giornalista di comprendere la differenza fra vero e falso in relazione alle fonti consultate potrebbe aumentare enormemente.
Infatti, in assenza di una tecnologia anti-deepfakes, per evitare condanne – salvo improbabili cambi degli orientamenti consolidati della nostra giurisprudenza – e per mantenere fede (oltre che evitare sanzioni disciplinari) all’art. 2 del Codice deontologico, al giornalista e all’intero sistema mediale sarà richiesto uno sforzo titanico nel vagliare le fonti da cui traggono notizie.
Da questa necessità sorge anche la seconda problematica che si presenterà a un sistema mediatico già economicamente provato dalla concorrenza dei nuovi media: appare necessario un notevole dispendio di energie e risorse nel controllo delle fonti al fine di evitare di diffondere deepfakes e di incorrere nelle conseguenze sopra paventate.
Ovviamente per quanto dispendiosa questa sarebbe la situazione sperabile, salvo non voler tornare allo yellow journalism e far perdere qualsiasi tipo di credibilità ai media tradizionali.
Le implicazioni sui nuovi media della Rete
Il problema deepfakes non riguarda solo i media tradizionali e il giornalismo, ma pone anche nuove sfide alle Internet platforms, che surrettiziamente svolgono un ruolo di informazione non regolamentato.
Se, infatti, i media tradizionali con buona probabilità intraprenderanno lo sforzo di contrastare il dilagare del fenomeno deepfakes, non è detto che i giganti della Rete rispondano alla sfida.
Malgrado i primi autonomi tentativi di responsabilizzarsi, come ad esempio la fact-checking partnership di Facebook, o le pressioni esogene a farlo, come nel caso del Codice anti-hate speech online, social networks e motori di ricerca potrebbero evitare di impiegare risorse per sviluppare soluzioni efficaci.
L’assenza di forme di regolamentazione e di forme di responsabilizzazione (autonome o indotte) potrebbe dunque portare le Internet platforms a privilegiare un atteggiamento defilato, che potrebbe seriamente inficiare e compromettere gli sforzi di contrasto al fenomeno deepfakes, dato il ruolo da loro rivestito nel mercato delle notizie e dell’informazione.
La blockchain per contrastare i deepfake
Il rischio di un ennesimo colpo sferrato (quello del k.o.?) al discorso pubblico e alla arena democratica deriva soprattutto dalla possibilità che lo strumento del deepfake si trasformi o – meglio – venga utilizzato come arma politica e come strategia di comunicazione politica, in analogia a quanto avvenuto per le fake news da parte di determinati soggetti politici.
E allora l’auspicio è che si intraprenda uno sforzo per sviluppare strumenti che possano smascherare facilmente i deepfakes e i bias ancora ad essi sottesi (come l’assenza di battiti di ciglia nei video falsificati): depotenziare l’arma prima che possa essere usata (qui la ricerca su come rilevare il fenomeno dell’eye blinking).
Sarebbe tuttavia ingenuo pensare che i bias di oggi del deepfake siano anche quelli di domani: è ormai necessario sviluppare e sostenere lo sviluppo di soluzioni che possano aggiornarsi ed essere reattive e percettive almeno quanto le nuove frontiere della disinformazione.
D’altronde, come rilevato da Luciano Floridi, esistono già strumenti utilizzabili per contrastare i deepfakes: l’intelligenza artificiale è già usata per verificare l’originalità di prodotti visivi e – per quanto riguarda i video non artefatti ma di nuova creazione – una soluzione potrebbe essere quella dell’utilizzo del blockchain come una sorta di “etichetta di provenienza” che possa dimostrare l’origine di un video e l’affidabilità della “catena di trasmissione” dello stesso.
A chi spetta intervenire
Ulteriori soluzioni (oltre che l’implementazione di quelle esistenti) potrebbero tuttavia rendersi necessarie sia per fronteggiare il presente che per prepararsi al futuro.
A chi spetti e chi abbia i mezzi di fare ciò è questione dibattuta e involve una serie di problemi ordinamentali che riguardano la forma e la dimensione delle nostre democrazie: dovrà essere lo stato? Gli Stati? Le Internet platforms? Un consorzio fra stato e giganti della rete?
La risposta migliore forse sarebbe affidare questi compiti a soggetti che non abbiano interessi economici nella gestione della Rete: gli Stati o – in un’ottica europea – l’Unione Europea. Quest’ultima sicuramente dispone di mezzi e competenze per sviluppare e gestire efficaci ed efficienti centri di ricerca, come in parte già auspicato dal Report “A multi-dimensional approach to disinformation” (p. 21).
Il problema dell’avanzamento tecnologico e dell’impiego dell’intelligenza artificiale è quello che – come tutte le tecnologie – se lasciata non regolamentata il suo evolversi può condurre a enormi rischi, di cui i deepfakes potrebbero essere solo l’avanguardia.