Sarà inevitabile che le immagini e persino i video artificiali (vedi Sora) inonderanno le reti sociali, sempre più indistinguibili dal “vero”; e sempre più, potenzialmente, in grado di influenzare opinioni e desideri collettivi.
L’intelligenza artificiale generativa sta plasmando un nuovo panorama digitale, caratterizzato da potenziali incredibili, ma anche da sfide significative. Questa tecnologia, capace di creare contenuti realistici in maniera autonoma, ha un impatto significativo sui motori di ricerca e sulla qualità delle informazioni che ne derivano.
D’altra parte, con l’emergere dei deepfake – simulazioni iperrealistiche generate dal computer – si apre un capitolo controverso tra opportunità di intrattenimento e possibili pericoli legati alla diffusione di disinformazione.
Di fronte a questa realtà complessa e mutevole, si avverte con urgenza la necessità di una regolamentazione chiara e condivisa a livello internazionale.
Il Digital Services Act rappresenta un primo passo in questa direzione, ma le prospettive future sono ancora tutte da esplorare: le sfide che ci attendono sono altrettanto impegnative quanto le opportunità offerte dall’IA generativa.
L’IA generativa e i motori di ricerca: un problema di qualità
Uno studio recente ad esempio ha confermato a Google, il motore di ricerca più famoso del mondo, ad esempio, hanno un problema: la macchina è più imprecisa di quanto non si pensava che fosse.
Dopo aver analizzato innumerevoli link nell’ultimo anno, il team di ricercatori tedeschi ha concluso che tutti coloro che si lamentano del declino della qualità di Google sembrano avere ragione, i risultati dei motori di ricerca stanno davvero peggiorando, in quanto Internet è invaso da spazzatura a basso sforzo proveniente da fattorie SEO e siti di link affiliati. E le cose probabilmente peggioreranno con l’avvento dell’intelligenza artificiale generativa.
Il fenomeno sembra insomma ascrivibile all’immissione massiva di contenuti di bassa qualità in rete, anche creati con intelligenza artificiale; con il doppio problema conseguente: maggiore difficoltà, per l’utente, di reperire contenuti di qualità in rete (e di distinguerli da quelli meno performanti) ed il rischio di diffusione attiva di informazioni false o, quantomeno, imprecise.
I primi video con AI: Sora e gli altri
OpenAi ha pubblicato brevi clip fatti con Sora, nuovo modello di AI per video: sono video vividi e apparentemente realistici, tra cui mammut lanosi che attraversano un campo innevato, onde oceaniche che si infrangono contro la costa di una scogliera e persone che fanno cose di tutti i giorni, come leggere un libro o camminare in una strada cittadina.
Sora prende una richiesta scritta e, grazie all’intelligenza artificiale, produce un video ricco di dettagli.
OpenAI, azienda sostenuta da Microsoft e produttrice del chatbot ChatGPT AI, ha dichiarato che sta condividendo la tecnologia text-to-video con un gruppo selezionato di ricercatori e accademici che la studieranno per individuare i modi in cui il programma AI potrebbe essere utilizzato in modo improprio. Non è stato rilasciato al pubblico.
Però sembra inevitabile che prima o poi lo sarà; o perlomeno si diffonderanno sistemi open che fanno la stessa cosa, con meno o nessun guard-rail.
Stability Video Diffusion di Stability AI è già disponibile gratis per tutti.
Ovviamente il dito viene puntato contro l’AI generativa, che può creare contenuti ed immetterli in rete ad una velocità mai vista prima e con una diffusività senza precedenti da un lato e senza possibilità di controllo immediato dall’altro.
Ironia della sorte, pare che la Seo implementata dall’AI sia più sensibile alle fake create dalla AI di quanto non fosse quella meno evoluta.
Il tema ha una rilevanza economica e politica prima che funzionale nel rapporto tra le big tech nel contesto della ricerca delle informazioni.
Per tutto il 2022 ed il 2023 i media di informazione hanno stigmatizzato il fatto che i social network, i cui algoritmi favoriscono il contenuto più visto e non quello di qualità migliore, fossero utilizzati dai giovanissimi per informarsi online; queste campagne sono state portate avanti soprattutto da New York Times e Wall Street Journal.
Ma se la qualità della ricerca nei motori di ricerca, il cui algoritmo dovrebbe prediligere i contenuti migliori o, comunque, più attinenti alla ricerca stessa, cala a causa dell’impiego massivo dell’intelligenza artificiale, siamo di fronte ad un serio problema di reperimento delle fonti di informazione.
L’AI generativa, quindi, impatta sui motori di ricerca anche rendendoli meno performanti e non solo introducendo uno strumento alternativo agli stessi.
Deepfake: tra intrattenimento e pericoli
Due deepfake “epici” hanno scosso l’opinione pubblica nei giorni scorsi: le foto oscene di Taylor Swift e quella di Joe Biden in tuta mimetica.
Le prime sono state generate – e sono diventate rapidamente virali – grazie ad un’applicazione di AI facilmente reperibile su Telegram: la famosissima cantante, presente anche al Superbowl, non poteva passare indenne da una simile “botta” di – ulteriore – notorietà.
Il deepfake di Joe Biden è stato meno sgradevole ma più pericoloso: ritraeva il Presidente degli Stati Uniti d’America in tuta mimetica, ed è stato diffuso con un post su X (ex Twitter) in cui si affermava che gli USA erano pronti a scendere in campo direttamente nel conflitto russo-ucraino.
Evidente che la notizia, anche questa diventata virale, facesse scalpore, fin quasi a far pensare a scenari da terza guerra mondiale.
Per i commentatori, X è diventata la più grande fucina di fake news della Storia, in seguito all’acquisto della piattaforma da parte di Elon Musk; qualcun altro potrebbe dire che non sia cambiato, nella sostanza, moltissimo.
La regolamentazione dell’uso dell’AI in questi contesti deve prevedere l’obbligo di “fingerprint”, ossia la necessità che il deepfake venga dichiarato come tale in modo evidente e riconoscibile.
Ma allora che deepfake sarebbe?
Digital Service Act: un baluardo contro la disinformazione
Il 2024 sarà l’anno della disinformazione online creata con AI generativa di ogni genere e dobbiamo preparaci a vederne di tutti i colori – letteralmente.
L’accesso ai social e la facilità con cui il deepfake può essere generato rendono la disinformazione accessibile a chiunque e nel quasi più competo anonimato.
Per quanto gli strumenti di tutela ci siano – il Digital Service Act serve proprio a questo – solo il senso critico del singolo può fare da bussola nel mare in tempesta della rete.
Il macrofenomeno, poi è preoccupante: a causa dell’aumento esponenziale dei deepfake, gli strumenti normativi del Digital Service Act potranno dispiegare tutti i loro effetti proprio nel periodo delle elezioni europee del 2024.
Questo, da un lato, determinerà una migliore ecologia del sistema, ma dall’altro comporterà dei veri e propri meccanismi di censura, data la difficoltà a distinguere il vero dal falso.
Conclusioni
Anche per la disinformazione, quindi, il 17 febbraio è una data spartiacque: li Digital Service Act potrà operare “a pieno regime” e saranno i funzionari di Bruxelles a decidere se le maglie dovranno essere più o meno strette.
Come le big tech stanno affrontando le elezioni 2024
OpenAI ha dichiarato che sta adottando una serie di misure per prepararsi alle elezioni, tra cui il divieto di utilizzare i suoi strumenti per campagne politiche, la codifica dei dettagli sulla provenienza delle immagini generate dal suo strumento Dall-E e la risposta alle domande su come e dove votare negli Stati Uniti con un link a CanIVote.org, gestito dall’Associazione Nazionale dei Segretari di Stato.
All’inizio di febbraio, il comitato di supervisione di Meta Platforms, società madre di Facebook, ha definito incoerenti le regole della piattaforma in materia di contenuti alterati, dopo aver esaminato un incidente dello scorso anno in cui Facebook non ha rimosso un video alterato di Biden.
Meta afferma che il suo piano per le elezioni del 2024 è in gran parte coerente con gli anni precedenti. Ad esempio, vieterà nuovi annunci politici nell’ultima settimana prima delle elezioni di novembre negli Stati Uniti. Meta etichetta anche le immagini fotorealistiche create con la sua funzione AI.
I giganti dei social media sono da anni alle prese con le questioni relative ai contenuti politici. Nel 2020, si sono dati da fare per controllare il discorso politico, in parte in risposta alle segnalazioni di interferenze russe nelle elezioni americane di quattro anni prima.
Dopo l’acquisizione di Twitter nel 2022, Musk ha rinominato il sito e ha eliminato molte delle precedenti restrizioni in nome della libertà di parola. X ha ripristinato molti account precedentemente sospesi e ha iniziato a vendere segni di spunta verificati in precedenza destinati a personaggi di spicco. X ha anche tagliato oltre 1.200 addetti alla fiducia e alla sicurezza, secondo i dati che ha rivelato a un’autorità australiana per la sicurezza online l’anno scorso, parte dei licenziamenti diffusi che Musk ha detto essere necessari per stabilizzare la situazione finanziaria dell’azienda.
Più di recente, X ha dichiarato di voler assumere altri addetti alla sicurezza, tra cui circa 100 moderatori di contenuti che lavoreranno ad Austin, in Texas, e altre posizioni a livello globale.
YouTube ha dichiarato di aver smesso di rimuovere i video che sostengono l’esistenza di brogli diffusi nelle elezioni americane del 2020 e in altre elezioni passate, citando la preoccupazione di limitare il discorso politico. Meta ha assunto una posizione simile quando ha deciso di autorizzare annunci politici che mettevano in dubbio la legittimità della vittoria di Biden nel 2020.
Meta ha anche licenziato molti dipendenti che lavoravano sulle politiche elettorali durante i licenziamenti più ampi iniziati alla fine del 2022, anche se l’azienda afferma che i suoi sforzi complessivi per la fiducia e la sicurezza sono aumentati.
X, Meta e YouTube hanno reintegrato Trump dopo averlo bandito in seguito all’attacco del 6 gennaio 2021 al Campidoglio degli Stati Uniti, adducendo come motivazione il fatto che il pubblico dovrebbe essere in grado di ascoltare le parole dei candidati. Trump ha ripetutamente affermato di aver vinto le elezioni del 2020 o che queste sono state “truccate”.
Le aziende affermano di essere impegnate a combattere i contenuti ingannevoli e ad aiutare gli utenti a ottenere informazioni affidabili su come e dove votare. X afferma che i suoi sforzi includono il rafforzamento della funzione di fact-checking Community Notes, che si basa su volontari per aggiungere un contesto ai post.