L’intelligenza artificiale cambierà il giornalismo. Sempre più esperti stanno convergendo verso questa conclusione. Ma come sarà questo cambiamento ancora non è dato saperlo con certezza. L’IA offrirà nuovi strumenti per facilitare il lavoro, accelerarlo? Sostituirà alcuni giornalisti che quindi dovranno reinventarsi? Il tema è diventato incandescente in questi giorni per l’arrivo di ChatGpt e soprattutto la sua integrazione nel motore Bing di Microsoft, a cui seguirà presto Google (con Bard).
La professione del giornalista si trova quindi in bilico tra l’innovazione sempre più dirompente e il suo ruolo strategico nella società.
Ma davvero le macchine possono sostituire i giornalisti? Può l’intelligenza artificiale generativa automatizzare il giornalismo con la stessa facilità dei lavori che sono stati sulla catena di montaggio per anni? E se questo accadesse cosa significherebbe per il futuro delle notizie?
La questione necessita di essere analizzata da più punti di vista.
ChatGPT al banco di prova: limiti e possibili usi in ambito pubblico
Utilizzo di ChatGpt da parte dei giornalisti
Il primo è pratico e operativo. Come avvenuto nel marketing, anche nelle redazioni giornalistiche uno strumento come ChatGPT è certamente utile, ad esempio, per semplificare abstract o articoli particolarmente complessi, elaborare domande originali quando ci si prepara ad intervistare un personaggio o per avere spunti o idee di titolazione.
Lo stesso Satya Nadella, Ceo di Microsoft dice che i giornalisti (come altri professionisti) a breve non cominceranno più a lavorare da un foglio bianco, ma partiranno sempre da una bozza creata dall’IA.
Nadella evidenzia insomma la collaborazione tra IA e giornalisti, il cui ruolo complementare e di supervisione sarà sempre salvaguardato. Journalist in the loop, insomma, si potrebbe dire (human in the loop è un principio cardine etico dell’uso responsabile dell’IA per applicazioni di importanza critica, come è l’informazione).
Il CEO di BuzzFeed Jonah Peretti ha recentemente annunciato che la società di media e intrattenimento con sede a New York inizierà ad usare sistemi di intelligenza artificiale per migliorare i quiz online e tutta una serie di contenuti. La comunicazione doveva restare interna all’azienda ma è stata intercettata dal Wall Street Journal che l’ha resa nota.
Può essere usata per creare contenuti personalizzati, come le newsletter, o per produrre versioni multilingue degli articoli.
Altre applicazioni includono la ricerca di fonti per gli articoli e la verifica dei fatti.
L’uso dell’intelligenza artificiale – di tipo molto più rudimentale di ChatGpt – già da dieci anni è in voga in alcune grandi redazioni, come quella della grande agenzia di stampa Associated Press, per tradurre in linguaggio umano bilanci societari o risultati di partite. Sta consentendo così alle redazioni di concentrarsi su attività di maggior valore aggiunto, come l’analisi dei dati, migliorando la qualità del lavoro giornalistico e la velocità di pubblicazione
L’intelligenza artificiale può aiutare a risolvere il problema del sovraccarico di informazioni, aiutando i giornalisti a identificare le notizie più importanti in un flusso di informazioni in continua crescita. Può servire a creare notizie personalizzate e articoli specifici per le esigenze o i gusti dei loro lettori.
In sintesi, l’intelligenza artificiale generativa può consentire alle redazioni di essere più produttive e di pubblicare notizie di alta qualità, più personalizzate e in grado di raggiungere un pubblico più ampio. Tutto questo può migliorare l’esperienza dei lettori e offrire nuove opportunità di business per i giornali.
Una nostra prova
Bisognerà vedere in che modo e in quale misura l’IA aiuterà ad accelerare il lavoro, presentando ai giornalisti bozze e pre-lavorati.
Prove che abbiamo fatto con alcuni software come Jasper (a pagamento), ChatGpt e il nuovo Bing (ora accessibile con lista d’attesa) hanno mostrato difficoltà a sviluppare testi lunghi e anche errori di formattazione e di scrittura.
In ogni caso l’IA riesce, in qualche modo, a rielaborare materiale disponibile online o documenti forniti dall’utente-giornalista; resta certo tutto in capo a quest’ultimo il lavoro a monte – ricerca, verifica delle notizie, cura delle fonti- e a valle (analisi e spiegazione di senso); come anche l’esercizio di una tecnica stilistica adeguata. Qui inclusa la capacità di attirare l’attenzione del lettore e di tenerlo interessato fino alla fine.
I problemi di affidabilità
Certo, siamo agli inizi. E agli inizi c’è anche chi inciampa. Abbiamo già un caso esemplare da non imitare: Cnet, un magazine per gli appassionati di tecnologia, ha iniziato a pubblicare – senza averlo annunciato ufficialmente – interi articoli in tema di finanza scritti con ChatGPT. A scoprire il fatto l’esperto di marketing digitale Gael Breton che cliccando sulla firma dell’articolo, un generico CNET Money Staff, ha visto comparire il testo: “Questo articolo è stato generato utilizzando la tecnologia di automazione e accuratamente modificato e verificato da un redattore del nostro staff editoriale”.
Cnet ha riconosciuto la veridicità di quanto scoperto, ma ha specificato che si trattava di un esperimento (compiuto perlopiù per massimizzare la presenza su Google) terminato lo scorso 20 gennaio come dichiarato dalla direttrice Connie Guglielmo.
Ne può nascere un nuovo principio di trasparenza, etico: i media che decidono di far scrivere i loro articoli ai software di IA generativa devono rivelarlo ai lettori. Bene anche indicare quale software è usato. Poiché i mezzi di informazione dipendono dalla fiducia e dalla credibilità, l’introduzione dell’intelligenza artificiale nel giornalismo potrebbe essere, sotto questo punto di vista, molto rischioso.
Un gruppo di ricercatori della Boston University ha condotto un’indagine che ha sottolineato che se viene rivelato che un articolo è stato generato dall’intelligenza artificiale i lettori attribuiscono un ulteriore deficit di credibilità alle notizie.
Per di più, è emerso che l’IA di Cnet faceva molti errori negli articoli, alcuni davvero marchiani, soprattutto quando c’è di mezzo la matematica, che i sistemi di large language model come ChatGpt non maneggiano bene.
Qui casca l’asino. “Queste IA possono essere forti propalatori di notizie e fatti falsi, in particolare se sostituiranno l’uso del motore di ricerca; c’è il rischio che l’IA si presenti al lettore come unica fonte, infatti, al fronte del pluralismo di quelle disponibili e accessibili al solito con un motore”, spiega Giovanni Boccia Artieri, sociologo all’università di Urbino. Fatti falsi avanzeranno incontrastati. Così come, forse, visioni di parte di un certo fatto o situazione.
Poi, certo, strumenti come ChatGPT possono essere al servizio anche dell’industria delle fake news “volontarie”, animate dal complottismo o da ideologie politiche. In meno di un’ora e con pochi input il software ha lanciato in rete il Suncost Sentinel diretto da Michael Martinez la cui biografia recita: amante del buon cibo, ama il jazz, fa volontariato e trascorre lunghe giornate facendo escursioni nei parchi della Florida.
Ovviamente né Martinez, né il Suncoast Sentinel, esistono. In poche ore, chiunque sia in possesso di sufficienti abilità informatiche potrebbe lanciare falsi giornali locali ricchi di notizie plausibili ma false, con una redazione fatta di nomi e cognomi e perfino politiche editoriali chiare e precise solo usando, ad esempio, ChatGPT.
“L’intelligenza artificiale non può pubblicare un articolo su un sito Web importante oggi senza la supervisione umana; quindi, non siamo al punto in cui gli editori si sbarazzeranno dei giornalisti e li sostituendoli con l’intelligenza artificiale”, ha affermato, rassicurando, il marketer Gael Breton.
Per Marcela Kunova, giornalista freelance, il dibattito è già superato: lo strumento ha già un posto nell’industria del giornalismo.
Quale futuro per i giornalisti
Tralasciati gli aspetti etici della questione e – ovviamente – i rischi prendiamo l’IA per quella che è: non si tratta di una bacchetta magica. È uno strumento anche nel giornalismo per automatizzare la scrittura di articoli, in particolare per le notizie finanziarie, automatizzando la creazione di articoli relativi ai dati finanziari, come i rapporti trimestrali delle aziende o i risultati dei mercati azionari, oppure creare notizie basate su cambiamenti significativi dei mercati o rispetto ad altre variabili.
Le redazioni dei giornali – al pari di molti uffici marketing – diventeranno, nel medio periodo, team sempre più interdisciplinari poiché l’intelligenza artificiale è un insieme di tecnologie relativamente nuove e anche per il giornalismo questi sistemi imperniati su algoritmi richiedono competenze e strategie specifiche.
Ciò detto, non è insomma la fine del giornalismo. Non ci saranno robot che prenderanno il posto dei giornalisti, non saremo inondati da notizie costruite da software basati sull’intelligenza artificiale generativa. Ma siamo alle porte di una rivoluzione che, viste anche le reazioni di Google che si è detta pronta a dare battaglia agli articoli scritti tramite IA solo per ottenere maggiore visibilità, quasi certamente alzerà il livello qualitativo della comunicazione.
Di fondo, bisogna ricordare che la missione del giornalista è la ricerca disinteressata della verità (“verità sostanziale dei fatti” dice la legge cardine 69/1963; quella “putativa” scrive la cassazione). Per l’intelligenza artificiale generativa, invece, no: per lei la verità non è l’obiettivo. La stessa OpenAI dichiara, tramite un articolo nel suo blog interno, che non c’è alcuna fonte di verità in ChatGPT.
I suoi enunciati sono frutto di correlazioni statistiche senza contezza del mondo che c’è fuori, all’esterno di quel linguaggio binario.
A interessarci del mondo dobbiamo essere ancora – per forza e per fortuna –noi esseri umani. E i giornalisti dovranno continuare a lavorare, senza sottrarsi alle sfide della contemporaneità, per aiutarci a farcelo conoscere meglio.