disinformazione

L’IA nutre l’industria dei fake: l’unico antidoto è un giornalismo davvero indipendente



Indirizzo copiato

Non serve il ministero della Verità e non basta il debunking, in cui il controllo dell’esperto umano resterà sempre centrale. Solo un giornalismo indipendente o indicato come figlio della politica dell’editore può contrastare efficacemente la divulgazione della disinformazione

Pubblicato il 25 mag 2023

Massimo Borgobello

Avvocato a Udine, co-founder dello Studio Legale Associato BCBLaw, PHD e DPO Certificato 11697:2017



shutterstock_1413131831.jpg

Tra siti di informazione totalmente prodotti da algoritmi addestrati sui contenuti di siti di disinformazione, video fake che sfruttano l’intelligenza artificiale per veicolare false notizie e propaganda, capiamo bene che qualunque strumento di controllo, anche se basato sull’IA esso stesso, non sarà mai in grado di metterci al riparo al 100% dagli effetti di questa deriva. Che fare allora?

Partiamo da un recente avvenimento, per capire la portata della sfida.

Zelensky si arrende alla Russia, ma era un fake

l New York Times riporta la notizia della diffusione di un video in cui il Presidente ucraino Volodymyr Zelensky si arrendeva alla Russia; il video era falso ed il debunking è stato rapido.

Il fake è stato, ovviamente, confezionato tramite AI e sembrava vero.

Da qui il NYT riporta un dato interessante: ossia la nascita di aziende che si stanno posizionando nel mercato del “riconoscimento” dell’intervento di un’AI nella creazione di un contenuto.

Il debunking viene effettuato su ogni tipo di deepfake, dall’audio al video, passando, anche, per i testi scritti.

Il problema è che, se le AI non sono sempre affidabili nelle informazioni che danno – nemmeno ChatGPT4 lo è al 100%, anzi – le AI di riconoscimento hanno una percentuale di errore molto più elevata.

In altri termini, spesso confondono il testo scritto da un umano con quello generato dall’algoritmo o viceversa.

Con i file video il margine di errore diminuisce, ma la costante ricerca di tool generativi determina la rapidissima obsolescenza di quelli di controllo: è più rapida la ricerca nel settore delle AI generative di contenuti rispetto a quella degli strumenti di controllo, che partono necessariamente dalle versioni presenti, non potendo gestire quelle in fase di studio o di rilascio.

Qui si discute di situazioni in cui gli strumenti di controllo non sono sufficientemente sofisticati rispetto agli oggetti del controllo, ma i rapporti tra fake ed AI non si esauriscono certamente qui.

I Newsbot

Si tratta di siti internet di informazione interamente prodotti da algoritmi: un’inchiesta di Newguard ne ha individuati 49.

Sono siti internet i cui contenuti sono totalmente prodotti con algoritmi, a volte anche facilmente riconoscibili come prodotto di AI, ed alle cui email risponde un bot.

Sono content farm a basso costo ed alta resa (tramite i banner pubblicitari), spesso imprecisi ed assolutamente “brutti” da leggere, perché spesso pieni di espressioni tipiche delle risposte fornite dalle AI (che utilizzano spesso formule di stile, come “non sono un avvocato…” “non sono un medico” e simili).

Newsguard ha effettuato il debunking cercando di contattare i siti, senza riuscire a relazionarsi con esseri umani.

Se ChatGPT prende effettua il training su siti specializzati in disinformazione

Problema serio è quello delle fonti utilizzate dalle AI per effettuare il proprio training.

Pare che ChatGPT si “rifornisca” di informazioni su siti specializzati in… disinformazione, spesso legati all’estrema destra statunitense.

Al netto della fobia strumentale per qualunque tipo di forma di “destra” e dei bias della versione 3.5 di ChatGPT – molto “spostata”, sul lato politico, verso le posizioni dei Dem statunitensi – non si può certo dire che non sia un problema.

Tema non banale, che può essere affrontato solo da OpenAI, realizzando una versione sempre più sofisticata dei filtri dell’algoritmo nella fase di “ragionamento critico”, ossia quella in cui la AI evita i bias logici.

Difficilmente, invece, potrà essere effettuata bannando le fonti del training: un intervento simile, necessiterebbe di regolamentazione legislativa, statunitense ed internazionale.

Negli Usa verso una nuova agenzia federale per la moderazione dei contenuti in rete

Il disegno di legge del senatore dem Michael Bennet mira a creare una commissione per creare dei codici di comportamento applicabili a social media, piattaforme e intelligenze artificiali, includendo esperti di disinformazione.

La proposta è onesta, perché un’agenzia federale è più efficace del Ministero della Verità di George Orwell e chiamare “codici di condotta” le regole della censura suona certamente più politicamente corretto.

Conclusioni

La AI sta rivoluzionando il mondo asfittico e paludato dell’informazione, rendendo obsoleti molti dei vecchi strumenti di propaganda.

Solo un giornalismo realmente indipendente o onestamente indicato come figlio della politica dell’editore può contrastare efficacemente la divulgazione della disinformazione.

Il resto sono strumenti di debunking, in cui il controllo dell’esperto umano resta – e resterà sempre – centrale ed insostituibile.

In attesa del Ministero della verità di Michael Bennet.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati