L’intelligenza artificiale generativa, in particolare quella che tratta contenuti non testuali come immagini, video e audio, sta rapidamente trasformando la percezione che abbiamo del mondo e dell’idea stessa di “fatto avvenuto” a causa della qualità (e anche dell’accessibilità nel farlo) delle alterazioni di elementi che per oltre un secolo hanno costituito una “prova” a supporto di un fatto.
La sempre più difficile verifica dei fatti
Sempre più spesso si legge di mirabolanti risultati nell’uso di queste tecniche per il recupero di brani cantati da cantanti morti da decenni, o di trailer di film interamente generati da queste incredibili tecnologie. Ma, a parte la testimonianza di Paul McCartney, che evidenza abbiamo che il brano postumo dei Beatles sia effettivamente ottenuto migliorando registrazioni esistenti e non semplicemente una nuova creazione nel loro stile?
L’impatto di queste tecnologie nel racconto della realtà è evidente, e sarà sempre più difficile fidarsi di notizie anche se suffragate da immagini (non è un caso che il New York Times nelle notizie basate su immagini dichiara di averne verificato le fonti), ma sarà anche sempre più difficile verificare i fatti in un’aula di tribunale riportando indietro di oltre un secolo il dibattito con schiere di consulenti che dovranno verificare se una certa evidenza è ammissibile o contraffatta.
Come sta reagendo l’industria IT e quali tecniche possono essere messe in campo per assicurare con ragionevolezza che una certa immagine sia effettivamente stata ottenuta fotografando la realtà e non alterata successivamente? Cerchiamo di scoprire cosa si sta facendo e quali sono i limiti delle attuali tecnologie.
Non solo Photoshop: la manipolazione delle immagini è sempre più facile
Creare delle rappresentazioni fittizie della realtà non è certo una novità: non si contano le pagine scritte per dimostrare che l’uomo non fosse andato sulla luna e che il materiale fotografico non fosse che una gigantesca contraffazione di stato. Non è senza ironia il fatto che nel 2014 nVidia abbia mostrato che le foto catturate dall’Apollo 11 siano vere poiché immagini generate semplicemente ricostruendo la scena con modelli 3D e simulando la fisica della luce data la posizione degli astri producesse sostanzialmente esattamente la stessa illuminazione delle foto scattate da Neil Armstrong nel luglio del 1969.
Quello di verificare l’autenticità di un’immagine (o di un audio) non è quindi un problema nuovo, ci si potrebbe quindi chiedere perché l’avvento dell’intelligenza artificiale generativa cambi sostanzialmente il panorama e ponga delle nuove sfide.
La risposta sta nel fatto che la manipolazione di informazioni non testuali è divenuta sempre più facile negli ultimi quarant’anni abbattendo prima i costi delle attrezzature richieste per la manipolazione, e ora la capacità tecnica necessaria per usarle. Qualche tempo fa mi sono imbattuto in un meme che riassume il problema in modo straordinario:
I programmi di editing fotografico come Photoshop hanno reso possibile l’alterazione delle immagini consentendo di rimuovere difetti fisici, o migliorare la realtà al punto da avere effetti sociali misurabili di cui si è discusso a lungo come l’idea di bellezza che ha condizionato intere generazioni di ragazze adolescenti alla ricerca di una perfezione sintetica che solo la manipolazione consentiva.
Ma nuovamente le competenze richieste per l’uso di questi strumenti in qualche modo limitava il numero di immagini “alterate” che si potevano produrre vista la necessità di disporre di apparati e competenze specialistiche.
Oggi è invece sufficiente usare uno strumento come MidJourney e scrivere un prompt per ottenere delle immagini fotorealistiche di fatti mai avvenuti come il deep fake che ritrae Papa Francesco con un piumino che ha avuto la ribalta nel mese di marzo mostrando che la tecnologia era maturata più rapidamente di quanto si pensasse, risolvendo problemi come, ad esempio, la generazione del giusto numero di dita nelle mani di una persona.
Se alterare un’immagine con l’AI generativa richiede ancora un pochino di conoscenza in più la prossima versione di Photoshop, ora in beta, consentirà di alterare le immagini con estrema facilità: è sufficiente selezionare un’area e con lo strumento di generazione esprimere nel prompt cosa si vuole che appaia per magia. Nell’esempio ho aggiunto una giacca, ma ho provato con numerosi altri oggetti e quello che sorprende è l’integrazione con l’illuminazione ambientale degli elementi generati.
Per ora invece se si cerca di alterare una persona il risultato è ben lontano da essere accettabile.
Le conseguenze dell’alterazione di immagini a così basso costo sia in termini tecnologici che di conoscenza ha delle implicazioni enormi: il numero di immagini alterate non solo in termini di illuminazione (cosa che avviene per praticamente tutte le immagini postate sui social) ma anche di elementi contenuti è destinato ad esplodere. E a volte un dettaglio in un’immagine può creare non pochi problemi, si pensi ad esempio ad un’immagine di una persona ritratta in una stanza in cui si è aggiunta la confezione di un preservativo usato a terra, potrebbe avere impatto sulla percezione sociale con la sola aggiunta di un semplice dettaglio.
Certificare il processo di acquisizione
Riconoscere se un’immagine è stata alterata o meno è sempre più difficile per un esperto, anche il tentativo di riconoscerlo automaticamente sembra senza speranza. OpenAI ha ritirato lo strumento che cercava di stabilire se un testo fosse generato dall’intelligenza artificiale o meno a causa della scarsa affidabilità, è quindi difficile immaginare che con l’evolversi e il raffinarsi delle tecnologie di generazione si possano sviluppare strumenti affidabili.
Non rimane quindi che rivolgersi a tecniche che certifichino il processo di acquisizione ed una catena di trust che consenta al visualizzatore finale di rilevare eventuali modifiche apportate e soprattutto se il dato è stato alterato.
Immagini firmate digitalmente: una soluzione percorribile?
Un’idea che può sembrare semplice è quella di immaginare dispositivi che firmino digitalmente le acquisizioni fatte in modo che se alterate si possano identificare. Purtroppo i sistemi che fanno uso di queste tecnologie hanno sempre fallito poiché non si riesce a dotare ciascun sensore di una chiave diversa. I DVD che facevano uso di crittografia per difendere i contenuti furono rapidamente compromessi e anche nel mondo fotografico il tentativo di Canon, mediante una tecnologia chiamata “Original Data Security”, di certificare l’integrità, l’ora e il luogo di uno scatto è stato compromesso nel 2010 portando la società a ritirare la tecnologia. Va però sottolineato che entrambe le tecnologie sono emerse in un momento storico in cui la capacità di elaborazione dei dispositivi era contenuta e quindi non era ragionevole pensare ad un modello distribuito di chiavi e di configurazione in cui i dispositivi possano disporre di funzioni più avanzate di quelle che si potevano realizzare in hardware.
Il formato C2PA
Più recentemente, nel febbraio del 2021, Microsoft, Intel, Adobe e altre compagnie hanno cominciato a lavorare alla specifica di C2PA, un formato che ricorda per molti versi quello del PDF firmato in cui un file immagine viene firmato all’atto della generazione e vengono poi firmate tutte le modifiche consentendo di ispezionare tutta la vita del file.
L’idea è sicuramente molto ragionevole, si pone però il problema di diffondere uno standard su scala mondiale, cambiando i generatori di immagini ed introducendo nuovi formati poiché le strutture dati necessarie a memorizzare le certificazioni non si possono inserire in formati come JPG e PNG. È inoltre necessario che le piattaforme Web implementino la verifica di queste informazioni in modo che gli utenti finali le possano controllare, e non ha sicuramente aiutato il repentino abbandono dell’iniziativa da parte di Twitter decretato da Elon Musk dopo l’acquisizione.
Come tutti i sistemi basati su certificazione di processo C2PA non è perfetto, è sempre possibile immaginare qualcuno che generi un’immagine e la firmi come autentica, ma sicuramente potrebbe contribuire a ridurre la pratica diffusa di commentare immagini false, consentendo almeno di individuare chi ha originato il primo scatto e, se necessario, verificarne l’originalità.
Se la certificazione dell’acquisizione è un problema tutt’ora aperto, non è da sottovalutarsi quello della manipolazione dell’immagine utilizzando l’AI generativa. Partendo da uno scatto originale, come fatto con Photoshop, lo si può alterare in modo molto convincente. Per ridurre l’abuso di scatti è possibile cercare di complicare il lavoro all’intelligenza artificiale alterando le immagini in modo che le persone non le notino ma che confondano l’AI che le sta elaborando. Strumenti come PhotoGuard e Glaze consentono di fare questo, il primo con attenzione alle persone, il secondo per difendere lo stile di un artista assicurando che l’AI non ne apprenda i tratti caratteristici come avviene per artisti celebri come Van Gogh o Keith Haring. Le immagini trasformate possono essere usate per modifiche dell’AI generativa ma le alterazioni prodotte nell’immagine originale portano alla generazione di immagini non realistiche rendendo facile l’individuazione della contraffazione.
Conclusioni
La produzione di contenuto multimediale generato o contraffatto dell’AI è una realtà, ed è già praticamente impossibile in molti casi stabilire l’alterazione. L’accessibilità degli strumenti inoltre ha reso il problema di scala globale e si sta lavorando a tecniche e tecnologie capaci di verificare l’originalità di un’immagine o, quantomeno, renderne difficile l’alterazione da parte di un’intelligenza artificiale.
Si tratta di strumenti ancora acerbi e saranno necessari anni perché si diffondano in modo pervasivo, anche se il bisogno collettivo di poter verificare le fonti potrà contribuire ad un’accelerazione degli sviluppi in questo settore. Nel frattempo è probabile che ci divideremo in creduloni e scettici, non potendo più fidarci dei nostri sensi per verificare un’informazione, è una sensazione di altri tempi che non pensavo che avrei provato.