Scrittori e sceneggiatori di Hollywood, in sciopero da mesi sentono la concorrenza della AI, e reclamano dalle case di produzione la garanzia che l’intelligenza artificiale non usurperà i loro diritti e compensi. E anche gli attori hanno motivo di allarmarsi per il futuribile sfruttamento della loro immagine.
Attori reali e attori virtuali
Non è certo una novità l’utilizzo di immagini di attori defunti fatte “recitare” in nuove scene. Nel 1994 l’attore Brandon Lee, destinato a “morire” in scena per un colpo di pistola, perse davvero la vita perché nel revolver era restato per sbaglio un proiettile vero. In quel caso la produzione usò la “computer-generated imagery” già disponibile per creare alcune scene con il viso del defunto montato sul corpo di una controfigura.
Questa scelta pose un problema non sindacale ma etico, superato nel momento in cui tutti i collaboratori convennero che lo stesso Brandon Lee avrebbe approvato questo uso della sua immagine.
Tornando all’attualità, recentemente diverse precedenti riprese dei defunti attori Peter Cushing e Carrie Fisher sono state usate per generare nuove scene di “Guerre Stellari“.
Per la produzione di “Indiana Jones e il quadrante del destino” si è voluto inserire nel prologo, ambientato nel 1944, il personaggio interpretato da Harrison Ford. Ciò ha richiesto un lungo lavoro per animare sullo schermo un Harrison Ford giovane, costruito con materiali d’archivio inediti, usando anche una scansione in 3D della sua testa e tecniche di apprendimento automatico. “Un po’ spettrale… – ha commentato l’attore – ma è il mio vero volto”.
È così definitivamente dimostrata la possibilità di creare sequenze costruite a partire da immagini reali. Inevitabile quindi la tentazione di riprendere figure di attori reali e animarle poi a basso costo. Sta già accadendo, visto che chi vuole lavorare come comparsa o attore di secondo piano può sentirsi richiedere di sottoporsi alla scansione del viso, che potrà così essere usata per altre produzioni.
Del resto, gallerie di deep fake porno con figure di attori e personaggi famosi sono già largamente disponibili.
Film “su misura”, personalizzati
In confronto a questo scenario, la protesta di questi mesi degli artisti cinematografici rischia di apparire come un banale conflitto sindacale, datato e superato dalla storia. Quale film ci si prospetta invece per il futuro?
L’ha individuato con lucidità Justine Bateman, attrice, sceneggiatrice e produttrice: “Non ci vorrà molto prima che l’immagine di un attore, digitalizzata dall’AI, venga usata per un film prodotto su misura per un certo spettatore disposto a pagarlo”. E aggiunge: “Se non costruiamo regole robuste adesso, fra tre anni non sapranno neanche se ci mettiamo in sciopero, perché noi non serviremo più”.
Ma potrebbe già essere troppo tardi. Oggi gli algoritmi di Netflix e similari personalizzano l’elenco degli spettacoli da proporci in base alle nostre scelte precedenti, ma potrebbe essere solo il primo passo.
Le stesse vicende rappresentate potrebbero essere personalizzate in base ai gusti individuali. Ciò non costituirebbe certo una novità assoluta: con la scoperta dell’ipertesto sono state condotte diverse sperimentazioni di narrazioni che chiedono allo spettatore di effettuare alcune scelte cambiando il decorso della vicenda. Ma in avvenire il materiale filmico potrebbe essere girato e prodotto in forma editabile e adattabile dalla AI in base a scelte e gusti individuali. Se così fosse, ogni film verrebbe visto in molte versioni secondo le preferenze.
Ma perché limitarsi alle nuove produzioni? E se volessi cambiare la trama di “A qualcuno piace caldo”? Se si volesse far finire bene “Ladri di biciclette”? E se poi si volesse entrare di persona in “Avatar”, o vedersi fare l’amore con Ingrid Bergman o con Richard Gere?
Tutte queste variazioni saranno programmabili a richiesta, e a questo punto sorge la domanda: un film da me modificato a chi apparterrà legalmente?
Tecnologia deepfake e videogiochi
La questione è anche uno snodo che ci porta in un altro vasto campo, economicamente più importante dell’industria cinematografica: i videogiochi.
Un giocatore può sapere chi sia l’autore del videogioco, ma la vicenda che vede svolgersi sullo schermo è solo sua. Simile, ma non identica a quella di tutti gli altri giocatori. Di chi è la città che ho costruito com Sim City?
Uniamo ora la tecnologia del deepfake alla struttura del videogioco. Ciò apre al giocatore nuove possibilità:
- dare alla trama un input personalizzato e poi lasciare passivamente scorrere la vicenda;
- giocare, come se fossero pedine, con i vari personaggi, ripresi da interpretazioni di attori clonati;
- giocare introducendo il proprio avatar, realistico o meno.
Spettatore, regista e protagonista allo stesso tempo: un’esperienza appagante, ma solitaria.
La prospettiva cambia se la storia, o il gioco, si arricchisce con la partecipazione di altri giocatori, come nei giochi della serie Dungeons & Dragons del secolo scorso e gli altri giochi multiplayer.
A questo punto non resta che allargarci alla tecnologia della realtà virtuale: ogni storia un metaverso, in cui vivere ed esplorare il prodotto della fantasia di uno sceneggiatore, adattato ai nostri gusti da una AI, incontrando i nostri personaggi preferiti e mescolandoci con altri giocatori.
Già una cinquantina di anni fa si mise in luce il modo in cui venivano fruiti i mass media, nei quali lo spettatore medio non bada a distinguere tra notizie, riprese dal vero, fiction, pubblicità.
Conclusioni
Lo spiegò molto bene Umberto Eco, in una trasmissione radiofonica della serie delle “Interviste impossibili”, nella quale fingeva di dialogare con un personaggio dell’antica Grecia, magistralmente interpretato da Paolo Poli
Se i deepfake mettono a cimento il nostro discernimento, con gli spettacoli/giochi del futuro, interpretati da attori robotizzati, perderemo la capacità di distinguere tra realtà e fantasia?
È il dubbio che potevamo porci già tanto tempo fa, quando cominiammo a raccontarci favole e miti… E già allora ci mettevamo del nostro ogni volta che li tramandavamo.