La tecnologia deepfake, utilizzata per manipolare le immagini con risultati spesso problematici da “smascherare”, oggi è alla portata praticamente di chiunque ed a costi accessibili, quando non addirittura gratis. Quali sono i rischi?
Deepfake, un’insidia che minaccia tutti: i rischi e le tutele
L’allarme
L’allarme viene lanciato, sul New York Times, da Stuart Thompson, che riporta la storia di una pubblicità di caffè su TikTok, dove si sarebbe riportato che il caffè aumenta il testosterone.
Visto dai protagonisti – loro malgrado – lo spot è risultato completamente falso.
Con una app di intelligenza artificiale era stato possibile riprodurre visi e voci di soggetti famosi per creare una pubblicità falsa sotto ogni punto di vista.
Che Google abbia sviluppato una tecnologia di riproduzione vocale che riproduce in modo pressoché identico all’originale la voce di chiunque è fatto noto da anni; ma il colosso tech non ne autorizza facilmente l’impiego, lasciando che sia accessibile solo la versione meno evoluta del software.
Gli applicativi sarebbero anche molto interessanti: creare un avatar virtuale che possa interloquire in ambienti 3D con intelligenza e voce del soggetto in carne ed ossa può avere una proiezione in termini di business non indifferente.
Altro è clonare la voce di chiunque si voglia per creare video completamente falsi mettendo alterando, con la stessa app, anche i visi dei protagonisti.
Dai deepfake ai cheapfake
Si è passati, quindi, dai deepfake ai cheapfake: strumenti sofisticatissimi alla portata di tutti.
A quanto riporta il New York Times, molti dei video con voci sintetizzate sembravano utilizzare la tecnologia di ElevenLabs, una start-up americana co-fondata da un ex ingegnere di Google. A novembre, l’azienda ha lanciato uno strumento di clonazione vocale che può essere addestrato per replicare le voci in pochi secondi.
Il punto non è la possibilità di clonare una voce: la tecnologia c’è già; il problema è a quali costi e con quanta accuratezza.
Non è un caso se negli States si stia aprendo un dibattito pubblico sull’introduzione di un reato di produzione di video falsi con software di questo tipo.
Creare informazioni false ma estremamente credibili
Se ChatGPT può essere impiegata per scrivere articoli in sostituzione – e non in ausilio – di giornalisti, copywriter e autori vari, nulla vieta che i cheapfake vengano impiegati per creare informazioni false ma estremamente credibili.
Ancora una volta: nulla di nuovo, se non per la iperdiffusività potenziale di questi strumenti, per la loro efficacia e per la semplicità di utilizzo.
Propaganda e disinformazione – specie nei teatri di guerra – non sono certo novità: la creazione di video molto credibili per orientare l’opinione pubblica o per disorientare il nemico, però, ora sono alla portata di chiunque sia in grado di utilizzare uno smartphone al massimo delle sue potenzialità.
Ciò detto, l’intelligenza artificiale deve sempre essere “addestrata” dall’essere umano, a meno che non abbia a disposizione una tale quantità di dati da poter procedere autonomamente; questo può avvenire solo in pochi settori.
L’informazione può essere uno di questi, ma resta un tema: chi “pubblica” per primo una notizia? Chi fornisce i dati che la AI poi processerà, per poi scrivere un “articolo”?
Come verrà graduata l’attendibilità delle fonti da parte dell’AI?
Queste scelte, piaccia o no, devono restare in capo ad un decisore umano, nel bene e nel male, perchè, diversamente, l’AI farebbe “tutto”: ma a chi interesserebbe leggere storie costruite da un algoritmo?
Sarebbe talmente evidente che le notizie non sono tali da far perdere di interesse qualunque notiziario.
Conclusioni
Se le intelligenze artificiali spaventano, alcuni umani non sono da meno. Nel pezzo di Stuart Thompson si legge che nei talk di Steve Bannon ci sono più informazioni false che in altri talk show: come dire che le falsità sono ovunque, possiamo giusto misurarne la quantità e, forse, il “grado”, per giocare a chi la spara più grossa.
Il tema, però, è enorme per complessità e per scenari futuri: la tecnologia ormai è avanzatissima e si sviluppa ad una velocità che nessun decisore politico può pensare di gestire in tempo utile né, tantomeno, prevenire.
Gli investimenti in moderazione – cioè in controllo di contenuti – sono in controtendenza rispetto al business model dei colossi social; un controllo statale significherebbe la sovietizzazione dei mercati digitali privati.
Ancora una volta, siamo tra il Far West e la Cambogia.