Un interessante articolo apparso sul MIT Technology Review evidenzia come il 2020 possa essere ricordato (tra l’altro) come l’anno in cui il deepfake è diventato “di massa”, superando i confini che lo relegavano ai meandri più oscuri del web e divenendo quindi una tecnologia utilizzabile anche per finalità non necessariamente criminali.
Negli Stati Uniti, evidenzia l’articolo, il deepfake è ormai utilizzato anche per scopi positivi, che nulla hanno a che vedere con la pornografia o con la manipolazione delle elezioni, notoriamente sino ad oggi i maggiori ambiti di applicazione di questi sistemi.
Deepfake e protezione degli informatori
Scopriamo così che il deepfake ha permesso la realizzazione del documentario Welcome to Chechnya, sulla persecuzione degli individui LGBTQ nella repubblica russa. Si tratta della prima pellicola dove i deepfake sono stati utilizzati per proteggere le identità di attivisti che combattono la persecuzione.
In questo specifico caso, dopo aver esplorato molti metodi per nascondere le loro identità, il regista David France ha deciso di proteggere questi attivisti con delle facce deepfake. La tecnica ha permesso al registra di preservare l’integrità delle espressioni facciali dei suoi soggetti e quindi il loro dolore, paura e umanità proteggendo però la loro sicurezza ed aprendo la strada a una nuova forma di protezione degli informatori.
Si sono poi registrati tentativi volti a far rivivere personaggi storici, sempre nell’ottica didattica e ludica, sperimentando, ad esempio, le reazioni di Nixon al mancato allunaggio.
Restando in ambito politico, sempre dagli Stati Uniti, arriva Sassy Justice una sorta di contenitore di video parodistici interamente realizzati in deepfake.
Ciò è accaduto anche in Italia dove, per la prima volta nel 2020 abbiamo assistito ad una serie di utilizzi di deepfake nel corso delle puntate di Striscia la Notizia, noto Tg satirico che, prima di tutti ha parlato di questa tecnologia al grande pubblico. Non è peraltro da sottovalutare questo aspetto perché proprio grazie al programma di Antonio Ricci, anche la cosiddetta “casalinga di Voghera” ora conosce l’esistenza di software che consentono la creazione di video finti in cui politici e gente comune dicono e fanno cose che, nella realtà non hanno detto o fatto.
Deepfake, quali le conseguenze della diffusione massiccia?
Insomma, il deepfake ormai è ovunque, ma con quali conseguenze?
È forse questa la domanda principale da porsi.
Un report dello Strategic Communications Centre of Excellence della Nato (di cui abbiamo parlato proprio su questa pagine) ha messo in evidenza i grossi pericoli, per il corretto meccanismo democratico, derivanti dall’utilizzo di tecnologie deepfake. L’ipotesi, quasi di scuola, è quella della diffusione di un video che ritrae un politico mentre, all’alba del giorno delle elezioni, compie azioni riprovevoli. Il politico avrà difatti la possibilità di difendersi e dimostrare la falsità delle accuse ma, nelle more, le elezioni saranno perse irrimediabilmente. Peggio, la sua integrità sarà del tutto compromessa. In molti potrebbero non credere alle difese, in altri potrebbero non seguire la vicenda, e il video deepfake avrà quindi raggiunto l’obiettivo di danneggiare definitivamente il politico in questione.
Si tratta di un enorme problema ma non dell’unico problema. Quante persone ogni anno si tolgono la vita a causa del revenge porn? Quanti potrebbero farlo per via di video deepfake ?
Purtroppo, questa tecnologia ha un enorme potenziale distruttivo ed è forse questo il motivo per cui le vicende narrate dal MIT Technology Review non possono che far ben sperare.
La conoscenza arma per non cadere nella trappola
Mi spiego meglio. Il deepfake è tanto pericoloso quanto più la collettività non ne conosce le potenzialità. Più crediamo alle immagini e più i deepfake ci porteranno sulla strada sbagliata.
L’arma quindi, ancora una volta è la conoscenza diffusa. Sembra brutto ma, purtroppo, è giunto il momento che tutti noi cessiamo di credere a quello che vediamo. Video, foto, a volte anche audio, possono ormai essere camuffati.
Un giudice, ad esempio, prima di basare una sentenza su un reperto video, deve sapere dell’esistenza di questa tecnologia. Una persona, prima di separarsi irrimediabilmente dal proprio partner deve sapere che il video che lo spinge a farlo potrebbe essere manipolato.
In questo senso si rivela fondamentale l’utilizzo diffuso di deepfake. Verrebbe anzi da dire che più ce n’è e meglio è perché solo quando si tratterà di una tecnologia comune e diffusa, anche tra le persone poco digitalizzate, potremo dire di trovarci dinnanzi ad un’arma scarica incapace di colpire ed avere conseguenze gravi. Nel passato le medesime paure avevano riguardato anche i sistemi di photoediting ma, ora che tutti ne conoscono il funzionamento, il problema non sussiste.
I consigli del Garante
Non c’è quindi motivo per dubitare che la rapida diffusione porterà anche ad effetti positivi. Nel mentre, potrebbe comunque essere utile seguire le indicazioni fornite dal Garante Privacy il quale suggerisce di:
- evitare di diffondere in modo incontrollato immagini personali o dei propri cari;
- imparare a riconoscere un deepfake guardando i particolari come immagini pixellate e occhi con movimenti poco naturali.
- evitare di condividere deepfake, specialmente se si ritiene che il deepfake possa essere stato utilizzato in modo da compiere un reato o una violazione della privacy.