Roblox è sicuramente tra i giochi più citati negli ultimi anni. È stato un rifugio virtuoso, un luogo covid-free dove incontrarsi durante la pandemia; uno strumento per incentivare una possibile carriera nella game industry dato che tra le funzioni c’è quella di potersi creare il proprio gioco; un videogame capace di attirare il pubblico femminile, per lo più escluso dalle proposte tripla A, relegato ai mobile game di arredamento; non ultimo rappresenta l’esempio classico per capire a cosa somiglierà il Metaverso.
Ultimamente il gioco continua a far parlare di sé grazie all’annuncio di un futuro upgrade, legato alle espressioni esibite dagli avatar. Scopriamo di cosa si tratta.
Gli avatar si adattano alle emozioni degli utenti
Sfruttando l’intelligenza artificiale, gli avatar saranno in grado di adattare in tempo reale i movimenti e le emozioni a quelle degli utenti. Oggi ogni “sé distale” ha disponibile una faccia soltanto, tutt’al più è possibile comprare dallo shop altre espressioni, ma l’esperienza non è di certo ottimale. Ovviamente le smorfie gratuite sono sorridenti e questo è piuttosto riduttivo, a maggior ragione che la personalizzazione non ricalca la socio-diversità del significato del sorriso e il fatto che l’energia positiva è una scelta, a mio avviso, piena di stereotipi fastidiosi.
Come ha dichiarato il vicepresidente del prodotto presso Roblox, Book-Larsson, gli “avatar emotivi” arriveranno tra più di un anno perché il team sicurezza sta ancora testando ogni possibile falla, ogni uso improprio. Ad esempio, la lingua di fuori potrebbe facilmente diventare una mimica impiegata a sfondo sessuale. Nulla deve essere lasciato a sé stesso, senza aver come minino cercato di prevedere l’impensabile, quasi a sfiorare la paranoia. Il progetto è sicuramente interessante, l’intelligenza artificiale e il facial emotion recognition renderebbero più immersiva l’interazione utente-avatar, ma non siamo certi che i rischi oltrepassino i benefici?
Studenti preda dell’”emotion recognition”: il pericolo viene dalla Cina
VmagicMirror, VseeFace e Tokkingheads
Già da tempo è possibile usare software con cui animare gli avatar attraverso la propria mimica. VmagicMirror sfrutta un sistema interessante per muovere il personaggio scelto, permettendo all’utente di fare streaming senza che siano necessarie particolari skill informatiche. Basta caricare il modello del disegno scelto e avere mic e telecamera. Una app simile è VseeFace, una delle preferite dai Vtubers. Si tratta del fenomeno degli streamer che invece di presentarsi con la propria faccia scelgono personaggi anime di vario tipo. Avevo un’alunna del liceo artistico che oltre a essere un Vtuber creava avatar per altri sfruttando diversi software. Fu lei a rivelarmi per prima l’esistenza di questo mondo. In effetti con VseeFace gli avatar seguono benissimo la mimica umana e i gesti delle mani, trasformando le live in simil cartoni animati e videogame di grande effetto.
Tokkingheads, invece, è un’applicazione che utilizza il machine learning per mappare i tratti del volto e costruire in tempo reale la mimica dell’avatar scelto all’interno del repository, da personaggi inventati a vip. Con questo strumento si possono ottenere video fake di qualità piuttosto alta.
La questione della privacy nell’ambiente virtuale
La comunicazione umana si basa per lo più sul corpo e così qualunque aspetto della cognizione. In effetti è ormai largamente abbandonato l’assunto cartesiano (declinato secondo diverse sostanze più o meno idealiste) secondo cui coincidiamo solo con qualcosa di collocato all’interno della nostra scatola cranica. I pensieri, al contrario, sono il risultato dell’interazione tra cervello, corpo e ambiente fisico, relazionale, culturale. Ecco che accompagnare l’avatar con le nostre espressioni potrebbe aumentare la percezione di essere davvero nelle isole virtuali, migliorando comprensione ed esperienza di gioco (e presto di vita).
L’ambiente virtuale dovrà tuttavia assicurare prima di ogni altra cosa privacy, diritti, sicurezza a ogni tipologia di utente. Potrebbe essere concessa ai gamer la scelta di entrare in spazi più o meno liberi, sottoscrivendo una lista di possibilità espressive all’ingresso, un po’ come un codice etico da rispettare. Ogni creator deciderebbe in modo simile a come già avviene su Discord il proprio set of rules, lasciando spazi di attività più o meno laschi a seconda del fine che si vuole ottenere.
Oltretutto il riconoscimento facciale sarebbe in grado di identificare al volo i rei, contribuendo a regolamentare una specie di social scoring nel metaverso, per cui chi fosse colpevole e addirittura recidivo potrebbe essere punito all’istante e bannato per un certo lasso di tempo.
Le questioni inquietanti su cui riflettere
Tuttavia, questo modo di agire mi fa tremare di fronte a un suo utilizzo più vasto, al di là del game play. A maggior ragione che l’obiettivo potrà essere quello di ampliare questi sandbox e open world all’esistenza onlife, sostituendo i social network e i siti così come li conosciamo oggi. Una violazione sciocchina potrebbe assegnare un punteggio, scremando l’accesso a qualche corso di laurea? Potrebbe regolamentare la richiesta di prestiti, facendo capitombolare il troll al fondo della lista? Il Super Ego freudiano non avrebbe più le sembianze del genitore, del dio e dell’Io ideale, bensì quelle di un avatar geometrico: davvero inquietante a mio avviso.
Inoltre, i minori potrebbero essere bloccati da zone di Roblox più aperte alla violenza e alla molestia – insomma la libertà per loro sarebbe sospesa fino alla maggiore età. Ma quale maggiore età? Bisognerebbe conoscere il luogo di residenza? Con le VPN questo blocco è facilmente aggirabile. Non solo, siamo certi che sia così preciso il modello di IA da identificare una differenza di una manciata di anni?
Quando con Scuola di Robotica insegno l’intelligenza artificiale ai ragazzi delle scuole utilizzo sistemi come MBlock in cui è possibile aggiungere estensioni basate sul machine learning. Il mio obiettivo è stimolare il pensiero critico, chiarendo il funzionamento di queste tecnologie che già popolano la nostra esistenza, condizionandola in modo virtuoso o in modo nefasto. A volte scelgo i modelli già implementati nella web app, come quelli di riconoscimento anagrafico, così da chiarire tutti i possibili problemi che si dipanano dagli errori di questi sistemi automatizzati.
(Lo dichiaro senza umiltà alcuna) i modelli di ML di MBlock mi danno sempre una decina di anni di meno, mentre i bambini e i ragazzini vengono dichiarati dal sistema con almeno cinque anni in più. Cosa può significare questo per la “vita vera” (perdonatemi questa espressione da “filosofia-della-strada”)?
Conclusioni
Conoscendo come funzionano questi sistemi mi pongo inevitabilmente delle domande. Per quanto Roblox possa assicurare modelli migliori, non credo che possa distinguere un quattordicenne da un sedicenne. Non riusciamo a farlo noi esseri umani e dubito che una IA possa mai identificare al volo l’età senza chiedere i documenti. Tra l’altro non vedo perché Roblox debba avere accesso a dati sensibili come quelli di un documento personale, inoltre implementare il riconoscimento facciale è sempre una questione spinosa, sul filo dell’abuso.
Tra l’altro il facial emotion recognition potrebbe essere esteso ad altri usi, diventando uno strumento con cui proporre, per esempio, isole adatte all’emozione rilevata, con tutto quello che comporterebbe, dai bias alla manipolazione.
Insomma, staremo a vedere le scelte che adotteranno gli sviluppatori di Roblox e se mai gli avatar saranno come dei riflessi dello specchio. Chissà, un giorno o l’altro un personaggio invecchierà al posto nostro, oppure, in ottica di romanzo distopico, se vivremo totalmente nel Metaverso, come Dorian viveva tra i salotti con la sua carne e le sue ossa, noi chiederemo ciò che già succede: invecchiare al posto degli avatar, perché quelli saranno la nostra identità sociale. Questo, allora, non sarà biologicamente magico, ma sicuramente sarà tristemente vero.