L’intelligenza artificiale, soprattutto quella nota come generative AI capace di generare testi e contenuti audio video, sta spopolando e cambiando il modo di generare informazioni, ma è spesso accusata di alimentare la disinformazione.
Tanto che la Commissione europea, a quanto annunciato pochi giorni fa, sta lavorando a una norma (nel Codice ue contro la disinformazione) per imporre alle big tech un bollino da apporre a contenuti ai generated.
Con la diffusione di deepfake, immagini ed audio ritoccati o addirittura creati dal nulla l’intelligenza Artificiale generativa è, per esempio, entrata a far parte degli scenari di guerra in Ucraina dal primo giorno fino alla comparsa di un video fake dove l’Ucraina si arrendeva alla Russia.
Video in questo caso palesemente falso e subito identificato ma che in ogni caso ha fatto il giro del mondo creando qualche perplessità.
Questa è solo la punta dell’iceberg poiché oggi i contenuti generati dai bot come ChatGPT o altri chatbot o generatori di immagini e contenuti pervadono quasi ogni istante della nostra vita sociale e su internet, a partire dalle semplici interazioni con i principali siti di ricerca o social networks.
L’importanza di saper distinguere tra contenuti veri e quelli generati con l’IA
È così che diventa prioritario saper distinguere tra i contenuti veri ed originali e quelli generati o modificati con l’intelligenza artificiale. La domanda vera è come farlo.
Tornando indietro di qualche decennio, si rivive oggi l’epoca in cui comparivano i primi virus per PC che ogni tanto facevano qualche scherzo facendo scomparire qualche file o rendendolo inutilizzabile ma, quando si sono evoluti e diffusi fino anche a diventare strumenti per il ricatto verso aziende pubbliche e private, è nata contemporaneamente una intera industria basata sulla creazione di antivirus e protezione dei dati che oggi potrebbe ritenersi uno degli embrioni della cybersecurity. Ovvero quando una tecnologia potenzialmente dannosa diventa di massa l’industria si organizza per trovare un antidoto tecnologico.
Oggi appunto l’intelligenza artificiale generativa – Generative AI – è alla portata di tutti ed ecco che nascono aziende, finanziate con decine di milioni di dollari, per sviluppare sistemi in grado di scovare i contenuti generati con l’intelligenza artificiale e marcarli come fake, aziende che promettono di aiutare gli altri a navigare nel mare sconosciuto dell’informazione generata dall’intelligenza artificiale.
Tecnologie per passare i contenuti ai raggi X
I primi passi sono stati mossi da Sensity.ai (rilevamento dei deepfake), Fictitious.ai e Originality.ai (rilevamento del plagio), ma anche Optic.ai che nelle intese del suo fondatore Andrey Doronichev promette di essere “una macchina a raggi X aeroportuale per contenuti digitali”.
Doronichev ha prima investito in Reface, una app specializzata nello scambio di volti, e poi ha fondato Optic con l’ambizione di scovare tutti i fake. Ma anche Optic deve fare i conti con la realtà, ovvero una tecnologia e forse una scienza, quella del rilevamento dei falsi, tutta ancora da sviluppare mentre l’AI continua a generare contenuti tutti i giorni ed i cui algoritmi si evolvono velocissimamente. Una tecnologia che trova nelle immagini e forse nel testo una maggiore probabilità di successo, ma che si scontra sin da subito, ad esempio, con i temi delle lingue e delle varianti che possono esistere dello stesso contenuto originale, che fa maggiore difficoltà con i video e con l’audio.
Ad oggi si contano poco più di una dozzina di startup nella Silicon Valley che si stanno specializzando nei servizi per identificare se i contenuti sono veri o creati da macchine alimentate da intelligenza artificiale. Ma il mercato è globale e potenzialmente molto ricco.
Certificare l’autenticità di un contenuto
Infatti, viviamo un’era in cui realizzare un fake è alla portata di tutti sia come costo che come capacità e non a caso anche in altri posti in giro per il mondo si osservano la nascita di aziende come Copyleaks, GPTZero, Reality Defender, FakeCatcher, Sentinel ed altre: tutte startup finanziate a seconda dei casi dai governi dei propri paesi, dai big tech, o da incubatori del calibro di Y-Combinator, e tutte con decine di milioni di dollari di dote per poter partire.
Il perché di questo interesse è facilmente comprensibile se si valuta il rischio: certificare l’autenticità di un contenuto. Una volta era fondamentale, ad esempio, farlo per le opere d’arte ed i quadri. Oggi è necessario farlo per tutto. Questo è il mercato che si ha davanti e questo è quello che bisogna proteggere e nessuno può ritenersi escluso da questa necessità o questo rischio.
Ad oggi le varie tecnologie per sorvegliare i contenuti generati da AI non sono ancora affidabili del tutto ma iniziano a dare i propri frutti in ambiti ben precisi. La stessa Open AI dopo aver lanciato ChatGPT e dato il boost al mercato, si è messa a sviluppare uno strumento di rilevamento, oggi giunto alla seconda generazione, che per sua stessa affermazione a seguito di test effettuati su testi, non riconosce il 26% dei fake mentre il 9% dei contenuti veri li segna come falsi, inoltre ha difficoltà con i testi brevi e quando non sono in lingua inglese.
L’AI non può essere lasciata libera di evolvere senza regole
Questo da un lato prova che la Generative AI ha raggiunto un livello molto avanzato di sviluppo e quindi di pericolosità, dall’altro anche chi ne ha creato la tecnologia e gli algoritmi non è in grado di riconoscere i contenuti generati.
Questa è la realtà, questo è il motivo per cui l’AI non può essere lasciata libera di evolvere senza regole, questo è il challenge del prossimo futuro.
Si pensi ad esempio ai risvolti legali ed alle dichiarazioni di Hany Farid, professore di informatica all’Università della California, Berkeley, specializzato in digital forensics: “Quando Midjourney rilascia Midjourney 5, il mio sistema di rilevamento sviluppato fino a quel momento non ha più valore ed è come spegnerlo mentre ricomincio a lavorare per recuperare il ritardo, e mentre lo faccio, loro stanno già lavorando a Midjourney 6. È un gioco intrinsecamente contraddittorio in cui mentre lavoro sul rilevatore, qualcuno sta costruendo una trappola per topi migliore, un sintetizzatore migliore.”
È un gioco che poi si complica quando i contenuti sono riciclati o utilizzati in parte, ad esempio quando si prende un estratto di un articolo o un particolare di una foto o un estratto di un audio, per poi rielaborarli ulteriormente. Questo diventa un vero rompicapo.
La Content Authenticity Initiative
Per cercare di venirne a capo, un consorzio di 1.000 aziende e organizzazioni guidati da Adobe e membri come The New York Times o players come Stability AI, ha creato la Content Authenticity Initiative, ovvero un gruppo che cerca di rendere evidente i contenuti creati con la Generative AI fin dall’inizio. Piuttosto che cercare di evidenziare l’origine di un’immagine o di un video più avanti nel suo ciclo di vita, il gruppo sta cercando di stabilire degli standard che applicheranno credenziali tracciabili al lavoro digitale sin dal momento della sua creazione per essere facilmente identificati e validati in seguito.
Un primo passo è, per esempio, l’integrazione della tecnologia generativa Firefly di Adobe in Google Bard, dove applicherà una sorta di “etichetta nutrizionale” ai contenuti che produce, inclusa la data in cui è stata realizzata un’immagine e gli strumenti digitali utilizzati per crearla.
Si è spesso scritto e parlato di Intelligenza Artificiale per le sue potenzialità e per la rivoluzione che sta portando in tutti i settori della nostra vita, si è anche detto dei problemi etici, regolatori, morali che alcune sue applicazioni portano o della possibilità che un giorno sia l’AI a governare noi anche se in molti casi già lo siamo e non ce ne accorgiamo.
Obiettivo: proteggere la verità
Il nascere di una industria che sia in grado di certificare i contenuti autentici è il primo passo vero una regolamentazione del settore o un utilizzo consapevole dello stesso, è una opportunità di business enorme perché non si tratta più di proteggere i dati di ognuno di noi, la loro integrità e la loro sicurezza, obiettivo questo della cybersecurity come intesa fino ad oggi. Oggi si tratta di proteggere la verità nel senso più assoluto del termine, l’autenticità di una informazione (e quindi anche dei dati) e proteggere anche le decisioni che su queste informazioni vengono prese. Si tratta di proteggere la sicurezza del pensiero di intere nazioni o la cultura e la storia passata e futura di noi stessi.
La storia oggi si ripete e si assiste quindi a quello che è successo a seguito di ogni rivoluzione industriale, c’è un momento di adozione euforica iniziale delle nuove tecnologie, c’è un momento in cui si iniziano a vedere gli effetti collaterali, c’è poi il momento della consapevolezza e della rin-corsa ai ripari fino a quando non si stabilirà un nuovo equilibrio intorno al quale il mondo saprà come convivere con i fake e con i contenuti originali.
Conclusioni
Questa volta però dobbiamo sapere che per avere le armi per combattere l’AI occorrono risorse globali, competenze che per ora sono ancora di nicchia, apertura alla condivisione anche di segreti industriali pur di avere uno standard unico di sviluppo e di controllo, di cui la Content Authenticity Initiative è solo un primo tassello mosso forse più dalla necessità di proteggere il proprio business dei membri dell’alleanza che dalla necessità di proteggere i contenuti a prescindere. È in ogni caso un esempio da seguire e su cui lavora per far non essere vittima dei falsi d’autore a buon mercato ma soprattutto di quelli più sofisticati che non è facile scorgere.