Mentre in Alabama si attende l’esito del voto per il primo sindacato atto a rappresentare e tutelare l’interesse di milioni di dipendenti Amazon, su Twitter dilagano account fake che, con ardore, difendono le splendide condizioni lavorative che l’azienda-col-sorriso garantirebbe a ogni dipendente. Usati anche foto fasulle create con deepfake.
Le domande si affastellano. Si tratta di un tentativo dell’azienda stessa per gettare caos e indebolire le richieste? Semplici troll? O satira per fiancheggiare la protesta? In ogni caso, si preannunciano scenari inquietanti. La disinformazione e la menzogna online stanno diventando sempre più brave a mentire. Di cosa ci si potrà fidare se ormai i bot hanno foto e contenuti realistici?
Una manovra di Amazon?
L’idea che sia tutta una manovra di Amazon non nasce dal nulla. Nel 2018 la Big Tech aveva creato una serie di account twitter perché, durante le ore lavorative, alcuni dipendenti del magazzino facessero propaganda per l’azienda, Amazon aveva dichiarato che si trattava solo di far sapere le vere condizioni di lavoro, tramite gli occhi dei lavoratori stessi: gli FC Ambassador. Insomma, non era pubblicità ingannevole quella twittata dai lavoratori, anche se, da destinatari dubitiamo fortemente si trattasse di nuda e cruda verità. Un po’ come le decisioni per plebiscito non possono che acconsentire a ogni proposta, così i lavoratori non scriverebbero contenuti anti-Amazon rischiando il posto. Il programma, come riporta la stessa rivista MIT Technology Review, fallì. Intanto gli utenti si erano accorti della manovra di Amazon, rispondendo con tweet palesemente iperbolici e sarcastici, prendendo in giro il cosiddetto “FC ambassador program”.
Ecco perché non pare nuovo lo scenario di settimane fa. Alcuni hanno supposto che dietro ci fosse la stessa Amazon, la quale, per confondere le acque, avrebbe creato, tramite AI, un’orda di profili twitter tesi a criticare i sindacati e a tessere le lodi dell’azienda statunitense. Amazon avrebbe però smentito la notizia e, secondo alcune indagini, sembra che la Big Tech dica il vero.
Identità e intelligenza artificiale
Che sia satira o meno, la notizia di utenti fake che possono ormai “metterci la faccia”, una faccia generata con tecnologia deepfake, è abbastanza perturbante. Fino ad ora un profilo falso appariva subito palesemente fake. Aveva un nome strano, zero fotografie, amici random, creato da troppo poco, in breve era sufficientemente anonimo da poterne dubitare.
Il troll poteva creare un account con cui gettarsi in flame senza fine rubando immagini da soggetti reali, o occultandosi dietro foto anonime. L’identità del “falsario” era un gattino, un fiore o, per i più pigri, l’omino grigio che non ha ancora cambiato l’immagine del profilo.
La scelta del nome ha sempre permesso un margine maggiore di creatività: questo era il libero arbitrio concesso ad Adamo già prima della caduta. Il troll poteva scegliere di crearsi un avatar credibile, come se fosse il personaggio di un romanzo, oppure poteva decidere per qualche gioco di parole, alla maniera di Bart Simpson quando faceva gli scherzi al telefono al povero Boe. Ormai, però, l’identità è un qualcosa che si può generare ex nihilo grazie alle potenzialità offerte dall’intelligenza artificiale.
Landini (Cgil): “Contro il caporalato digitale, un’azione collettiva a tutela dei diritti”
L’intelligenza artificiale, dopo aver “osservato” migliaia e migliaia di volti umani, è in grado di crearne di nuovi. Insomma, conosce l’essenza di uomo e può produrre infinite versioni di essa. Anticiperà qualche faccia? Ci riconosceremo in un fake-sosia come oggi scoviamo le somiglianze tra la maestra delle elementari e il personaggio di un quadro del ‘500? Il problema è che è ormai sempre più difficile non essere ingannati dalle menzogne online. Il volto non è più una prova, ma è l’ulteriore elemento con cui essere ingannati.
Il software “generated photos” e la questione della fiducia
Rosebud Ai sta creando un generatore di facce chiamato generated photos. Attraverso il software è possibile personalizzare i volti, crearne di nuovi, adattarli ai vari corpi. Tutti gli esemplari vengono poi salvati in un database consultabile pubblicamente: questo per avere un documento che certifichi che la persona online sia un deepfake. Generated photos vuole essere un modo per aggirare il copyright, postando immagini senza dover chiedere il permesso ai soggetti ritratti (che non esistono) tuttavia lo strumento può diventare un facile alleato della disinformazione.
Come sostiene Aric Toler, investigatore digitale, il problema è che si rischia di non credere più ai media in generale. Siccome sempre più spesso siamo ingannati, siccome la disinformazione porta a recrudescenza divisioni, razzismo, odio, fomentando i gruppi estremisti, si finisce per attribuire il problema al web. È ovvio, il cattivo uso dei mezzi di informazione non deve squalificare gli strumenti digitali come se in sé fossero un male, ma è altrettanto comprensibile la reazione degli esseri umani di rifiuto generalizzato.
In quanto esseri umani ci nutriamo di testimonianze. La cultura esiste perché ci affidiamo a quanto ci viene tramandato. Se non ci fidassimo mai di quello che ci viene raccontato, saremmo immobili. Ogni individuo dovrebbe sempre reinventare la ruota. Non esisterebbe né linguaggio né pensiero. Certo, fidarsi è un rischio, ma rigettare la testimonianza è ancora più deleterio per la nostra specie.
Video e social, arma a doppio taglio nella lotta per i diritti civili
Se non ci si può fidare del volto, cosa ci resta? Non di certo cosa si posta online, e nemmeno le certificazioni. Mi dici che sei un astronauta? Su cosa me lo giuri? Su Margherita Hack(er)? Si può falsare quasi tutto. OpenAI è in grado di generare qualunque tipo di testo da un breve spunto iniziale. Ho letto esempi strabilianti di GPT-3. Nemmeno una videochiamata ci salverà dal catfishing. I deepfake in tempo reale sono già una realtà. Su Zoom è apparso in alcune call Elon Musk, o chi per lui. Presto GPT-3 sarà meno costoso e l’IA creerà video falsi molto più verosimili. Addirittura, la tecnologia CRISPR sta trasformando il futuro dei processi penali. Potendo intervenire con precisione chirurgica sul proprio genoma, nessuna prova del DNA sarà più cruciale.
Strumenti per difenderci dai deepfake
Esistono alcuni strumenti per addestrarci a riconoscere i deepfake? Whichfaceisreal è stata sviluppata dall’università di Washington e si propone di allenare, letteralmente, gli utenti, somministrando loro volti di persone vere e generati attraverso il servizio di thispersondoestexist. Vengono offerti anche consigli di cosa tener conto per capire se la faccia è un deepfake. Il sito ci dice che spesso un elemento da individuare è la presenza di “macchie d’acqua” nell’immagine generata. Si trovano più frequentemente tra il contorno della figura e lo sfondo, ma possono apparire ovunque. In futuro gli algoritmi saranno migliori, ma per ora questo è un indizio di cui tenere conto. Un altro problema delle foto false è il background: siccome la rete si allena sui volti, presta meno attenzione alla qualità dello sfondo, a come dovrebbe essere. Dunque, ci sono frequenti sbavature o un effetto-blur. Gli occhiali sono un ulteriore limite. Per l’AI non è facile generare montature realistiche, simmetriche, riflessi adeguati, contorni netti. Bisogna prestare attenzione anche ad altre asimmetrie e sbavature per baveri, peli, orecchie, sorrisi e monili. I capelli sono un altro elemento da esaminare. Se ci sono ciocche volanti, ciuffi troppo perfetti, compresi di colpi di sole eccessivamente netti, ma anche macchie di colore fluo che colano fino alla faccia, o bagliori intorno al capo alla Giotto, allora si può dubitare.
Non è l’intelligenza artificiale a ingannarci
Mentire presuppone la consapevolezza di stare mentendo. Allora da questo punto di vista l’Intelligenza Artificiale non mente! A ingannarci sono solo gli esseri umani; sono dietro alle tecnologie di AI sfruttate per disinformare, dietro a false donazioni di Costantino, a footage e fotografie di fatti mai esistiti o celati, come la propaganda nazista in merito ai campi di concentramento, in cui veniva narrata una falsa situazione di soggiorno etico nel campo, o il film sulla buona condizione degli ebrei a Theresienstadt, vicino Praga.
La menzogna è ciò che ci discrimina da un computer. Il test di Turing non può mai avere senso. È un paradosso. Quando l’interlocutore si accorge che sta interagendo con una macchina, allora comprende il retroscena di inganno dello sviluppatore; quando l’intento menzognero riesce e l’essere umano crede di avere a che fare con un altro uomo, in realtà ha perfettamente ragione. L’inganno è ciò su cui si regge il Test. Non esisterebbe se non ci fosse un uomo consapevole di star mentendo e di usare la tecnologia per trarre in inganno gli altri.
Il problema non è l’inganno in sé, che esiste dai tempi della fionda. Il problema è che sarà sempre più facile e alla portata di tutti creare falsi quasi perfetti. Ma chi ne usufruirà di più? Democrazie o dittature? Come sostiene il politologo John J. Mearsheimer nel saggio Why leaders lie, le democrazie tendono a mentire di più perché si basano sul consenso popolare. Pertanto, quando un leader ha intenzione di fare guerra o di far approvare una legge inventa finte necessità, costruisce fatti con cui ottenere l’appoggio della massa. Un despota fa quello che vuole e non deve giustificarsi con un popolo privo di peso politico. I deepfake, allora, diventano un problema soprattutto per il nostro occidente democratico, costruito sulla sovranità popolare e non perché prima non fosse così, anzi. I politici da sempre sfruttano il cosiddetto fear-mongering: la politica del terrore. Esagerano i pericoli, costruiscono il nemico per motivare grandi stragi e restare difensori della pubblica sicurezza, eroi senza macchia.
E se ci stessimo trasformando noi in bot?
Esistono modi per non sembrare noi più falsi di un bot? Lo scenario è proprio quello che, al migliorare dei deepfake, noi diventiamo sempre più contraffatti. Ormai fatico a discernere un fan da un utente-fan robotico. Entrambi postano compulsivamente, entrambi commentano compulsivamente e sgrammaticato, entrambi utilizzano formule codificate, risposte standardizzate, uno slang colmo di pregiudizi, basato su divisioni “noi-loro”. Chi ha fatto scuola? È il robot che ha insegnato come essere perfetti follower ideologizzati, amplificatori di bufale? Ormai la modalità d’azione dei sock puppets, gli utenti apparentemente reali, ma gestiti tramite software, è la più tipica attività online.
“Unions are valuable tools at companies that don’t provide good pay and benefits like Amazon does. We simply don’t need them here” @AmazonFCDarla (I sindacati sono strumenti preziosi per le aziende che non provvedono buone paghe e benefit come invece fa Amazon) è uno dei tweet incriminati, prodotto da uno dei fake account bloccati da Twitter. Scherzo o meno, questa frase è sovrapponibile a quella di ogni discorso da tifoseria tipico dell’essere umano. Il rischio, dunque, è quello che mentre i bot evolvono, noi ci plastifichiamo sotto i filtri bellezza. Diventiamo sempre più unilaterali, figli della moda, linguistica, estetica, morale e addirittura emotiva. Schiacciati dalla sintassi, il contenuto è mettersi in scia. Attenzione, allora, al pensiero elementare, al fanatismo, alla condivisione compulsiva, al sostegno di certe ideologie. Sono tutti comportamenti da fake account o, comunque, da soggetti “facili alla manipolazione”.