Tra siti di informazione totalmente prodotti da algoritmi addestrati sui contenuti di siti di disinformazione, video fake che sfruttano l’intelligenza artificiale per veicolare false notizie e propaganda, capiamo bene che qualunque strumento di controllo, anche se basato sull’IA esso stesso, non sarà mai in grado di metterci al riparo al 100% dagli effetti di questa deriva. Che fare allora?
Partiamo da un recente avvenimento, per capire la portata della sfida.
Zelensky si arrende alla Russia, ma era un fake
l New York Times riporta la notizia della diffusione di un video in cui il Presidente ucraino Volodymyr Zelensky si arrendeva alla Russia; il video era falso ed il debunking è stato rapido.
Il fake è stato, ovviamente, confezionato tramite AI e sembrava vero.
Da qui il NYT riporta un dato interessante: ossia la nascita di aziende che si stanno posizionando nel mercato del “riconoscimento” dell’intervento di un’AI nella creazione di un contenuto.
Il debunking viene effettuato su ogni tipo di deepfake, dall’audio al video, passando, anche, per i testi scritti.
Il problema è che, se le AI non sono sempre affidabili nelle informazioni che danno – nemmeno ChatGPT4 lo è al 100%, anzi – le AI di riconoscimento hanno una percentuale di errore molto più elevata.
In altri termini, spesso confondono il testo scritto da un umano con quello generato dall’algoritmo o viceversa.
Con i file video il margine di errore diminuisce, ma la costante ricerca di tool generativi determina la rapidissima obsolescenza di quelli di controllo: è più rapida la ricerca nel settore delle AI generative di contenuti rispetto a quella degli strumenti di controllo, che partono necessariamente dalle versioni presenti, non potendo gestire quelle in fase di studio o di rilascio.
Qui si discute di situazioni in cui gli strumenti di controllo non sono sufficientemente sofisticati rispetto agli oggetti del controllo, ma i rapporti tra fake ed AI non si esauriscono certamente qui.
I Newsbot
Si tratta di siti internet di informazione interamente prodotti da algoritmi: un’inchiesta di Newguard ne ha individuati 49.
Sono siti internet i cui contenuti sono totalmente prodotti con algoritmi, a volte anche facilmente riconoscibili come prodotto di AI, ed alle cui email risponde un bot.
Sono content farm a basso costo ed alta resa (tramite i banner pubblicitari), spesso imprecisi ed assolutamente “brutti” da leggere, perché spesso pieni di espressioni tipiche delle risposte fornite dalle AI (che utilizzano spesso formule di stile, come “non sono un avvocato…” “non sono un medico” e simili).
Newsguard ha effettuato il debunking cercando di contattare i siti, senza riuscire a relazionarsi con esseri umani.
Se ChatGPT prende effettua il training su siti specializzati in disinformazione
Problema serio è quello delle fonti utilizzate dalle AI per effettuare il proprio training.
Pare che ChatGPT si “rifornisca” di informazioni su siti specializzati in… disinformazione, spesso legati all’estrema destra statunitense.
Al netto della fobia strumentale per qualunque tipo di forma di “destra” e dei bias della versione 3.5 di ChatGPT – molto “spostata”, sul lato politico, verso le posizioni dei Dem statunitensi – non si può certo dire che non sia un problema.
Tema non banale, che può essere affrontato solo da OpenAI, realizzando una versione sempre più sofisticata dei filtri dell’algoritmo nella fase di “ragionamento critico”, ossia quella in cui la AI evita i bias logici.
Difficilmente, invece, potrà essere effettuata bannando le fonti del training: un intervento simile, necessiterebbe di regolamentazione legislativa, statunitense ed internazionale.
Negli Usa verso una nuova agenzia federale per la moderazione dei contenuti in rete
Il disegno di legge del senatore dem Michael Bennet mira a creare una commissione per creare dei codici di comportamento applicabili a social media, piattaforme e intelligenze artificiali, includendo esperti di disinformazione.
La proposta è onesta, perché un’agenzia federale è più efficace del Ministero della Verità di George Orwell e chiamare “codici di condotta” le regole della censura suona certamente più politicamente corretto.
Conclusioni
La AI sta rivoluzionando il mondo asfittico e paludato dell’informazione, rendendo obsoleti molti dei vecchi strumenti di propaganda.
Solo un giornalismo realmente indipendente o onestamente indicato come figlio della politica dell’editore può contrastare efficacemente la divulgazione della disinformazione.
Il resto sono strumenti di debunking, in cui il controllo dell’esperto umano resta – e resterà sempre – centrale ed insostituibile.
In attesa del Ministero della verità di Michael Bennet.