Mark Zuckerberg cambia rotta e decide di mettere al bando i deepfake (particolare tecnica di editing audio/video per creare falsi con l’intelligenza artificiale) da Facebook, in vista delle elezioni presidenziali USA 2020. Questi video possono infatti generare fortissima disinformazione, lesiva per il processo democratico.
Anche Twitter sta lavorando al problema e prevede a breve nuove misure, partendo da un presupposto molto differente: nessuna rimozione ma la possibilità di segnalare ed evidenziare i post che contengono video falsi.
Tiktok invece, si difende dalle accuse di controlli totalmente assenti nella sua piattaforma, notando che le sue policy vieterebbero in modo più o meno esplicito i deepfake. Ma poi emerge la notizia di un suo progetto di integrare, addirittura in modo nativo nella piattaforma, la possibilità di crearli e diffonderli, ovviamente a fine ludico.
Insomma, tante notizie che vanno nella stessa direzione: i deepfake sono l’ennesimo fronte che spinge i social network verso le proprie responsabilità “politiche”. E, forse, è il tema più immediatamente pericoloso (al punto da scuotere Facebook dalla sua inerzia con cui finora ha affrontato questi temi).
Le mosse di Facebook sui deepfake
Facebook adesso anzi alza la barra dell’impegno e annuncia di voler rafforzare le sue risorse per vietare i video falsi nella sua piattaforma. In particolare, i cosiddetti deepfake saranno identificati automaticamente e rimossi.
Il criterio che fa scattare la rimozione è se il video è stato assemblato con tecniche di intelligenza artificiale (ovviamente) e creato in modo che la maggior parte degli “utenti medi” della piattaforma possano ritenerlo invece attendibile. Sfida certamente complicata se combattuta solo tramite tecniche di identificazione automatiche; meno complesso se l’integrazione delle tecniche automatiche, basate sull’intelligenza artificiale, fossero supportate da un gruppo di utenti selezionati della piattaforma stessa (figura simile ai moderatori dei gruppi) che potrebbero analizzare le segnalazioni fornite dall’algoritmo in automatico e validarle.
Questo potrebbe essere un buon compromesso per ottenere un risultato equilibrato, basato su una buona collaborazione tra l’ “intelligenza” messa a disposizione dalla macchina e quella insostituibile messa a disposizione dagli uomini.
Certo ci sono le elezioni americane di fine anno a obbligare Facebook a intervenire, memore anche delle accuse subite nel 2016 di aver falsato la corsa alla casa bianca (con il caso Cambridge Analytica, di cui nelle scorse ore sono emersi nuovi leak)
La nuova decisione di Facebook non è sbagliata in sé, anche se bisogna fare molta attenzione su quello che tale decisione può produrre. Abbiamo visto nei casi di chiusura di profili, pagine o gruppi pubblici, che Facebook è molto poco disposta al contraddittorio e a tornare indietro su eventuali errori o decisioni arbitrarie prese in automatico o tramite valutazione di assistenti.
Sappiamo che, soprattutto sui social è sempre difficile contestare decisioni errate prese autonomamente dalle piattaforme perché la soglia tra verità oggettiva e soggettiva è (spesso) molto sottile e, cosa non da poco, le piattaforme tutelano in primis sempre i loro interessi cercando, questo sì, di tutelare contemporaneamente anche la verità, la correttezza delle informazioni e la libertà di espressione.
Twitter e Tiktok: approccio differente al deepfake
Cosa fanno gli altri colossi dei social su questa importante tematica?
Twitter sta attualmente lavorando a nuove misure per combattere i contenuti manipolati, compresi i deepfake. E’ già in atto una massiccia campagna per eliminare “tutte le foto, le registrazioni audio e i video che sono stati significativamente modificati o prodotti per fuorviare le persone”, come ha scritto recentemente il vice presidente Twitter responsabile della sicurezza, Del Harvey in un post sul suo blog. Twitter, consente già oggi di taggare i deepfake, potendo così avvisare gli altri utenti dei contenuti manipolati o informarli sul perché quei contenuti sono stati considerati manipolati o falsi. E’ dunque una politica molto differente rispetto alla rimozione. I contenuti vengono lasciati ma vengono evidenziati in modo che gli utenti li possano facilmente identificare. Tuttavia, non sembra che i risultati siano molto buoni: In totale, secondo Twitter, solo circa 6.500 tag sono provenuti dagli utenti. Sulla base di questi poco incoraggianti risultati, Twitter ora vuole elaborare e rivedere le sue contro-misure nei prossimi mesi. Una portavoce però non ha voluto chiarire con esattezza quali saranno le modifiche che verranno apportate per aggiornare la strategia e le contromisure contro il deepfake.
L’app Tiktok, che è particolarmente popolare tra i giovani e appartiene al gruppo cinese di ByteDance, sembrerebbe stia adottando un approccio completamente diverso sui deepfake. Invece di agire contro di loro, la piattaforma starebbe creando una funzione che consenta agli utenti di incorporare il proprio volto in altri video con pochi clic, praticamente offrendo una funzionalità integrata di deepfake “fai-da-te”. Il gruppo cinese ora avrebbe negato questo approccio ma sono state rivelate, da fonti considerate attendibili, la recente rimozione di parti di codice dell’app proprio riconducibili a questa tecnologia. La policy dell’app comunque cita esplicitamente il divieto per gli utenti di fuorviare deliberatamente gli altri utenti con la produzione di contenuti “inadeguati”. La società proprio in questi giorni starebbe rivedendo le sue linee guida utilizzate per moderare la piattaforma. Ad oggi non si sa dunque con certezza fino a che punto ByteDance, stia realmente lavorando su funzioni integrate di deepfake. Quello che è certo è che Tiktok ha 400 milioni di utenti attivi ogni giorno in Cina, e l’azienda ha la volontà di renderla la più grandi piattaforme social del paese e l’innovazione tecnologica e la sperimentazione è certo uno degli elementi essenziali che perseguirà ad ogni costo.
Perché i deepfake fanno così paura
Siamo solo agli inizi di una guerra per “la verità” sui social, si può dire.
Quello dei deepfake è un fenomeno così nuovo che non esiste ancora una definizione ufficiale. Il suo nome è una combinazione di “apprendimento profondo”, che si riferisce al profondo apprendimento dell’intelligenza artificiale, e la parola “falso”. Il deepfake, in questo momento consente principalmente di scambiare volti e dialoghi grazie all’intelligenza artificiale, anche se in futuro potrà fare molto di più. La tecnica software interpone le espressioni e i movimenti delle labbra, sovrapponendo i due volti e fondendoli in modo credibile facendo prevalere il volto del soggetto identificato come quello che si vuole che appaia nel video. Il modello di apprendimento di questa intelligenza artificiale, il “deep learning”, ha svolto finora un ruolo abbastanza nell’ottenere un risultato convincente.
Ma stanno arrivando nuove generazioni di software che riusciranno a creare deepfake addirittura in tempo reale. Molti deepfake hanno la volontà di risultare divertenti ed ironici e creare quel minimo di dubbio sull’autenticità, ma, capendo la tecnica, si intuisce facilmente anche la potenziale pericolosità. Se si perdono le velleità ironiche, ma si usa la tecnica per “piegare” il mondo virtuale facendo credere che siano state fatte o dette delle cose da qualcuno che in realtà quelle cose non le ha neanche minimamente pensate, si capisce la pericolosità di questo strumento. Immaginatevi riprodotti in modo credibile in un video dichiarando cose che sono assolutamente lontane da quelle che potete anche minimamente pensare, magari in ambito politico, religioso, o in merito agli orientamenti sessuali; solo immedesimarsi in una cosa del genere, fa capire immediatamente la pericolosità di questa nuova tecnologia.
Chiunque può creare un deepfake? I software
Le preoccupazioni riguardo a questa tecnologia di intelligenza artificiale, che sostituisce una faccia con un’altra in un video, sono in parte legate al fatto che sarebbe accessibile a tutti. Il che disegnerebbe un futuro in cui tutti potrebbero trasmettere video modificati, facendo dire a chiunque qualsiasi cosa e non dunque non ne sarebbero vittima solo i personaggi famosi ma chiunque. Ma oggi è così semplice crearli? Sì e no.
Bisogna avere un minimo di esperienza nel montaggio video e capacità di individuare i video giusti da fondere.
Primo passo è certamente quello di trovare il software giusto. Molti sono disponibili online gratuitamente. I più usati sono FakeApp, DeepFaceLab e OpenFaceSwap. DeepFaceLab viene solitamente preferito agli altri due per la facilità d’uso. Caratteristica fondamentale è avere un computer molto potente e soprattutto una buonissima scheda video di ultima generazione. Soprattutto FakeApp e OpenFaceSwap neanche partono se la scheda video non è idonea. Esistono dei tutorial da poter seguire ma se non si scelgono di partenza i video adatti i risultati ottenuti saranno molto scadenti. Un deepfake di qualità scadente, in cui risulti molto evidente l’artefatto, ovviamente non servono a nulla perché perdono di base il loro valore per il quale sono stati fatti.
A conferma di ciò, un esperto ci ha messo due settimane e 552 dollari a dicembre per creare un quasi perfetto Zuckerberg che finalmente dice tutta la verità al Congresso USA.
Dunque, riassumendo, ad oggi è facile provarci, ma non è assolutamente facile ottenere un risultato soddisfacente e “sorprendente” e potenzialmente “virale”.
La sfida delle regole
Infine, il tema è così nuovo che la normativa ancora una volta sembra un passo indietro. Quali sono i limiti delle mosse dei social in questo senso?
Tutte le tecniche, automatiche o vincolate alla discrezionalità dell’uomo, che limitano la libertà di espressione sono ovviamente da valutare con grande attenzione. In ogni caso dobbiamo accettare che ci siano sempre delle conseguenze positive e negative.
Il nostro ordinamento prevede numerosi strumenti volti a reprimere la diffusione di idee e notizie lesive di interessi costituzionalmente tutelati. Le enormi potenzialità di diffusione oggi offerte dalla rete rendono sempre di più necessario rafforzare questi strumenti e adattarli alle particolari caratteristiche di Internet e soprattutto dei social network.
Sotto questo profilo, lasciano perplessi questi tentativi di autoregolazione proposti recentemente da Facebook ma anche da Google, ma in generale da tutti i “contenitori” più importanti di opinioni e notizie. L’introduzione di algoritmi che limitano la diffusione di notizie false o anche la limitazione degli introiti pubblicitari sulle pagine web che sono solite diffondere fake news, possono essere un arma a doppio taglio. Si può avere sempre la sensazione che aziende private possano decidere discrezionalmente e in modo arbitrario, governando così il mercato o comunque le opinioni in una certa direzione. In questo modo, di fatto, si legittima l’introduzione di forme censorie basate su un dato discrezionale, che potrebbe prestarsi ad usi distorti e incompatibili anche con i nostri principi costituzionali.
Come abbiamo visto i deepfake sono frutto poi di nuove tecnologie che, fino ad un paio di anni fa, erano sconosciute o solo prototipali e non accessibili al grande pubblico, dunque per i Big la sfida sarà rimanere al passo e concentrati sui contenuti di qualità e che non danneggino il business delle piattaforme che gestiscono, nel rispetto delle regole dei vari paesi.
Mettere d’accordo gli interessi privati e le regole dei vari paesi potrebbe essere una sfida veramente ardua e l’obiettivo potrebbe non sempre essere raggiungibile.