Come incide e inciderà l’utilizzo dell’intelligenza artificiale generativa sul lavoro degli operatori dell’informazione?
Quali sono le implicazioni etiche dell’uso di questo strumento? Cosa pensano i giornalisti dell’impiego dei loro scritti per alimentare l’IA generativa? A queste e ad altre domande fornisce risposta uno studio commissionato dall’Associated Press a 7 ricercatori, i cui risultati sono stati pubblicati pochi giorni addietro.
IA e giornalismo, il rapporto Associated Press
L’IA applicata al mondo dell’informazione fornisce un ventaglio di opportunità per accrescere la produttività e l’implementazione di nuove esperienze, ma desta anche preoccupazioni circa l’accuratezza, la provenienza e l’attribuzione delle informazioni di origine, nonché per l’accresciuto potenziale di creazione di disinformazione. Il rapporto – “L’IA generativa nel giornalismo: l’evoluzione del lavoro giornalistico e dell’etica in un ecosistema dell’informazione generativa” – è stato realizzato mediante un sondaggio cui hanno partecipato 292 persone – con una media di 18 anni di esperienza lavorativa nel settore – l’81,4% delle quali ha dichiarato di essere a conoscenza dell’IA generativa e il 73,8% che la propria organizzazione l’ha già utilizzata in qualche modo. Dei 292 intervistati, il 58,3 % dei quali uomini, il 61.7% lavora in Nord America, il 24,8 in Europa, il 7,9 in Asia, il 2,8 in Africa, l’1,7 in Oceania, l’1 % in Sud America.
Generative AI: panorama attuale nell’ambito giornalistico
L’uso maggiore dell’IA generativa comprende varie forme di produzione di testi, raccolta di informazioni, creazione di senso, contenuti multimediali, usi aziendali.
Quasi la metà degli intervistati ha rilevato che le attività o i flussi di lavoro sono già cambiati. Il nuovo lavoro è creato nell’elaborazione di istruzioni efficaci e nella modifica degli output. Esiste un’opportunità non ancora soddisfatta di progettare nuove interfacce per supportare il lavoro giornalistico con l’intelligenza artificiale generativa, in particolare per consentire la necessaria supervisione umana per il controllo e la verifica dei risultati. I giornalisti avranno bisogno di interfacce di editing ben progettate. Gli intervistati aspirano a ricevere supporto dall’intelligenza artificiale generativa per attività correlate, come analizzare, ottenere o elaborare dati e informazioni, tutti compiti giudicati noiosi e ripetitivi.
Generative AI e giornalismo: opportunità e rischi
L’automazione genera ansia sulla possibile perdita di posti di lavoro. Se i sistemi di intelligenza artificiale generativa possono fare notizie di base raccogliendo e scrivendo, potrebbero sostituire giornalisti ed editori? Oppure questi strumenti saranno complementari e contribuiranno ad aumentare il lavoro? In che modo tutto ciò cambierà il lavoro delle persone nel settore dell’informazione, in particolare con l’evoluzione anche delle esperienze e delle aspettative degli utenti? E’ già chiaro che l’intelligenza artificiale generativa sta cambiando la struttura e l’organizzazione del mondo del lavoro e sta esercitando pressioni sugli individui affinché acquisiscano nuove competenze per tenere il passo, creando allo stesso tempo nuovi ruoli e opportunità.
Impiego attuale della Generative AI nel giornalismo
Entrando nel dettaglio degli ambiti in cui l’IA generativa viene già usata, la categoria dominante è quella della produzione di contenuti, tra cui la creazione, l’editing e la trasformazione dei formati multimediali. Nella categoria del testo, l’intelligenza artificiale generativa ha supportato il lavoro giornalistico generando titoli di notizie, post sui social media, newsletter, quiz, testo da dati, slogan e bozze di storie, ma anche correzione di bozze e articoli riassuntivi, riscrittura per un mezzo diverso (ad es. produzione di script), miglioramento della scrittura, redazione di comunicati stampa, realizzazione di fact checking.
Altri impieghi sono la generazione di contenuti multimediali, come le illustrazioni (es. per i post sui social media), video, audio (ad es. testo o discorso), o la modifica di immagini. Alcuni intervistati hanno usato l’IA per creare chatbot rivolti al consumatore o metadati (ad esempio testo alternativo per immagini o metadati per file audio).
Un altro uso piuttosto comune è la raccolta di informazioni e la creazione di senso (21.5%). Questa categoria comprende i modi in cui l’IA viene utilizzata per la scoperta di notizie, la ricerca, l’ideazione e la curatela.
Generative AI e futuro del lavoro giornalistico
Rispondendo riguardo alle attività per le quali auspicano l’utilizzo dell’IA in futuro, gli intervistati hanno aggiunto pianificazione/analisi della distribuzione, personalizzazione, rilevamento di notizie false. Per quanto concerne la personalizzazione, si propende ad avere suggerimenti sui contenuti da inviare ai singoli utenti in base alle informazioni fornite dagli stessi (ad es. “personalizzazione delle newsletter e della homepage”).
Per la raccolta di informazioni e la creazione di senso, molti desidererebbero assistenza per il monitoraggio e la scansione di diversi media (social media, mezzi di informazione e governo locale) e una maggiore disponibilità di informazioni degne di essere sviluppate. Per la produzione di contenuti multimediali, c’è una crescente necessità di assistenza per produrre video e audio, ad esempio brevi video esplicativi di notizie.
IA e giornalismo: cosa funziona e cosa non funziona
I partecipanti al sondaggio hanno indicato, tra le attività che potrebbero essere avvantaggiate, la produzione di contenuti con titoli e illustrazioni, la ricerca nella raccolta di contenuti di base, il lavoro sui dati per lo scraping e l’estrazione dai documenti, le politiche per allargare la platea dei lettori.
L’IA viene ritenuta invece inefficace per tutto ciò che concerne la qualità, con problemi di accuratezza, affidabilità, pertinenza dei titoli, insipienza del testo.
L’IA può produrre inoltre testo distorto, anche a causa di prompt inadeguati e difficoltà nel controllo efficace dei modelli. Alcuni intervistati hanno puntato il dito semplicemente sul troppo tempo necessario per modificare e creare istruzioni in grado di accrescere in maniera corrispondente l’efficienza complessiva.
Dall’ utilizzo dell’IA generativa possono d’altronde scaturire nuovi lavori e ruoli: dirigenziali, come responsabile dell’innovazione, esperto di intelligenza artificiale, responsabile IA; posizioni come proprietario del prodotto IA; lavori editoriali come prompt designer/editor/specialista, fact checker, editor video IA; ruoli legali; ruoli a contenuto ingegneristico, quali Software Engineer, AI + Automation Engineer e Quality Assurance.
Generative AI: questioni etiche nel giornalismo
Veniamo ora ad approfondire uno dei temi più delicati e sentiti da tutti gli intervistati, il che riflette il dibattito generale sul tema: i risvolti etici dell’utilizzo dell’IA generativa.
Questi includono, a titolo esemplificativo, le sfide relative al materiale di origine, i problemi di proprietà intellettuale e i pregiudizi. Le preoccupazioni più importanti manifestate dagli intervistati sono: mancanza di supervisione umana (21.8%), inesattezza (16.4%) e pregiudizi (bias). Alcuni intervistati pensano che non bisogna essere preoccupati se l’output viene esaminato da un editore; altri, invece, che i giornalisti dovrebbero verificare in modo indipendente le informazioni e pagare in caso di errori o inesattezze. Destano apprensione le informazioni imprecise, che generano disinformazione e misinformazione, poiché l’IA potrebbe produrre molti output errati. Informazioni errate, immagini false, brutte storie, scrittura sciatta o errata. Anche i pregiudizi sono una preoccupazione importante. Quelli nascosti e le imprecisioni sono il timore principale. La scrittura di articoli e la raccolta di materiali dovrebbero insomma essere gestite da esseri umani. Gli intervistati temono poi che molti contenuti di intelligenza artificiale svaluteranno il giornalismo in un momento in cui la loro monetizzazione direttamente attraverso il canale dei lettori si sta rivelando sempre più diffusa e decisiva. Un grosso problema è la mancanza di trasparenza nell’uso dell’IA generativa (6.8%), poiché gli intervistati temono che le persone nel settore dell’informazione non riveleranno quali modelli hanno utilizzato.
Altre preoccupazioni ancora includono il problema del posto di lavoro (6.8%), il rischio di plagio (3.2%) e la mancanza di originalità (2.7%). Meno menzionate le questioni relative al copyright e alla protezione della vita privata e dei dati. Gli intervistati, nell’affrontare le criticità legate all’etica, temono anche la mancanza di formazione (18. 2%).
Formazione e competenze richieste nell’era della Generative AI
Tra le esigenze formative evidenziate, l’insegnamento delle migliori pratiche e dei rischi dell’IA generativa. Altri intervistati affermano che le organizzazioni più piccole potrebbero non aver risorse sufficienti per investire nella formazione, dato che il tempo ad essa dedicato sarebbe sottratto alle attività giornalistiche.
In altre parole, essi sembrano non essere sufficientemente preparati per la trasformazione già avviata, e la formazione necessaria comporterebbe costi eccessivi, specialmente per i piccoli editori. Altre questioni concernono la mancata regolamentazione (in itinere nella UE) e la mancanza di controllo della qualità: gli intervistati temono che i risultati dell’IA generativa non saranno sufficientemente verificati.
Alcuni usi dell’IA generativa sono stati tout court additati come da evitare o limitare fortemente. Ad avviso della maggioranza degli intervistati (il 55,8%), la generazione di interi contenuti da parte dell’IA generativa dovrebbe essere off limits, in quanto i modelli non sono ancora affidabili per fare ciò. I divieti specifici sono radicati nella convinzione generale che il giornalismo richieda competenze che non possono essere adeguatamente possedute da una macchina. Altri potenziali usi in cui sono stati suggeriti i divieti includono la generazione di domande per le interviste (17.6%), ciò in quanto esse spesso cambiano marcia a metà strada grazie all’istinto del giornalista, cosa che l’IA non potrebbe fare.
Inoltre, alcuni intervistati hanno suggerito di non utilizzare l’IA generativa per la copertura delle notizie locali e per il giornalismo investigativo, sottolineando che l’IA non possiede la comprensione sfumata o il giudizio etico richiesto per questi tipi di lavoro. Questi divieti suggeriti alimentano la convinzione emergente che ci siano alcune forme di utilizzo dell’IA generativa nel giornalismo che sono semplicemente inaccettabili. In altre parole, a parte le preoccupazioni per l’aumento della produttività, le considerazioni etiche e le aspettative del pubblico nei confronti del ruolo del giornalismo possono essere un’altra ragione importante per astenersi dall’utilizzare l’IA generativa per determinati compiti. Alla fine, la strategia più frequentemente menzionata per superare le preoccupazioni e le sfide etiche è stata quella di non utilizzare per niente l’IA generativa (20 %). In altre parole,1 intervistato su 5 ha dichiarato che la strategia giusta per utilizzare eticamente l’IA generativa è quella di non usarla per niente! Un intervistato ha addirittura affermato “che l’uso dell’IA generativa nel giornalismo semplicemente non è etico, punto e basta.”
Al di là del divieto totale, un buona fetta di intervistati chiede di limitare l’uso (8,3%) e verificare i risultati (15,2%) dell’IA generativa nel giornalismo. Alcuni hanno suggerito di utilizzarla solo a scopo di prova e di confrontarne i risultati con altri materiali per valutarne l’accuratezza. In generale, gli intervistati hanno messo inevidenza la necessità di una supervisione umana e di un controllo approfondito dei fatti, facendo affidamento sui valori editoriali fondamentali quali verifica dei fatti, trasparenza, imparzialità e responsabilità.
Linee guida per l’uso etico della Generative AI nel giornalismo
La maggior parte degli intervistati (61,2%) è a conoscenza delle varie linee guida relative all’uso dell’intelligenza artificiale generativa nel giornalismo. Alcune organizzazioni sono in attesa di ulteriori progressi che risolvano i problemi di copyright e proprietà intellettuale prima di considerarne l’implementazione. Non tutte le testate giornalistiche hanno strategie in atto per superare queste preoccupazioni e sfide etiche. Le linee guida svolgono un ruolo significativo, ma non si può prescindere, ovviamente, dalla coscienza dei singoli e dalla loro bussola morale. In due parole, dalla deontologia professionale. Esistono variazioni negli approcci alla creazione di linee guida. Alcune organizzazioni adottano un approccio dal basso verso l’alto, formando gruppi di lavoro interni, mentre altre fanno affidamento su standard o linee guida di settore esistenti. Inoltre, secondo alcuni intervistati dovrebbero esistere standard a livello di settore, in combinazione con autoregolamentazione o documenti di orientamento. I risultati del sondaggio sottolineano che le linee guida dovrebbero essere riviste regolarmente e adattate all’evolversi dell’intelligenza artificiale generativa. Gli intervistati ritengono che molte linee guida siano di alto livello, ma che ci sarebbe bisogno di maggiore concretezza e operatività per renderle utilizzabili efficacemente.
Inoltre, le linee guida potrebbero essere maggiormente rispondenti ai bisogni se si redigessero una versione interna e una esterna. La prima più dettagliata, contenente informazioni sui processi vietati e su quali applicazioni software specifiche utilizzare. La seconda con principi più ampi e mirata prevalentemente alla trasparenza con il pubblico. Tra le organizzazioni che hanno indicato di avere proprie linee guida, il 22,8% ha specificato di avere una versione interna separata.
Su chi deve ricadere la responsabilità?
Nel complesso, gli intervistati ritengono che redattori e manager dovrebbero avere la maggiore responsabilità nel garantire l’uso etico dell’IA, seguiti da dirigenti e giornalisti. In fondo alla classifica, gli intervistati tendono a collocare i sindacati e i fornitori di tecnologia.
Le notizie giornalistiche “carburante” per l’IA generativa?
Agli intervistati è stato chiesto di pronunciarsi riguardo alla concessione della possibilità, da parte delle società di IA generativa, di addestrare i propri modelli sugli articoli e sulle informazioni delle testate giornalistiche: il 53,6% ha risposto “forse”. Qualcuno ha affermato che in teoria sembrerebbe una buona idea, ma che, nel contempo, è sbagliato non avere il controllo su come vengono utilizzati i contenuti. In sostanza, non è giusto lasciare che i giganti della tecnologia traggano profitto sulle spalle dei giornalisti.
Pur riconoscendo il potenziale nella generazione di entrate in danaro, e i possibili progressi degli strumenti di intelligenza artificiale, molti intervistati hanno sottolineato la necessità di un’attenta considerazione delle questioni relative ai diritti d’autore, alla trasparenza e alla responsabilità per proteggere la proprietà intellettuale e l’integrità giornalistica. Inoltre, hanno messo l’accento sulla responsabilità nel modo in cui vengono utilizzati i dati e viene riconosciuto il lavoro dei creatori originali, anche se buoni input significano buoni risultati, con notizie verificate e contenuti di alto livello. Il “forse” è dettato dai dubbi circa la remunerazione adeguata e dal timore che le aziende tecnologiche non prendano sul serio i loro impegni. Coloro che si oppongono all’idea di consentire ad altre società di addestrare modelli sulle proprie informazioni (32,5%) esprimono preoccupazione per la violazione del copyright, l’uso non autorizzato di contenuti proprietari e i potenziali impatti negativi sulla competitività e la sostenibilità delle testate giornalistiche. Lo scetticismo è legato al fatto di fornire dati preziosi senza compenso o controllo sul loro utilizzo, con preoccupazioni su pregiudizi, disinformazione e perdita di fiducia del pubblico nel giornalismo. In altre parole, se un’azienda che vuole realizzare profitti ha bisogno dei contenuti giornalistici, dovrebbe pagarli o condividere i profitti.
Prendere il lavoro di qualcuno e usarlo a proprio vantaggio viene definito da qualcuno, con grande franchezza, un semplice furto. Coloro che sostengono di consentire alle aziende di formarsi sui propri archivi (13,9%) sostengono che tale collaborazione potrebbe far avanzare significativamente il campo migliorando l’accuratezza e l’affidabilità del modello di intelligenza artificiale, a vantaggio dell’industria dell’informazione e della società.
La collaborazione è considerata vitale per produrre contenuti accurati e verificati nel rispetto degli standard professionali ed etici. Inoltre, gli intervistati evidenziano il potenziale di generazione di entrate e vantaggi pratici per i giornalisti, sottolineando l’importanza della trasparenza e del rispetto del copyright negli sforzi di collaborazione. Nel complesso, consentire l’accesso ai dati delle notizie per la formazione sull’intelligenza artificiale è visto da alcuni intervistati come uno sforzo reciprocamente vantaggioso che può migliorare la qualità del giornalismo basato sull’intelligenza artificiale rispettando l’integrità giornalistica e le considerazioni legali.
Generative AI: impatto sul flusso di lavoro giornalistico
Quasi la metà degli intervistati (49%) ritiene che le richieste o i flussi di lavoro sono già cambiati a causa dell’IA generativa, incidendo sulla struttura e l’organizzazione del lavoro. I modelli di intelligenza artificiale assumono ruoli di collaboratori e vengono utilizzati per far circolare le idee e alimentare il dibattito, o anche per recuperare cose che potrebbero essere sfuggite. L’intelligenza artificiale può anche modellare le relazioni tra le persone. Un intervistato ha raccontato: “invece di chiedere aiuto a un collega per un titolo, chiedo sempre prima a ChatGPT”. In altri casi, l’IA consente di fare da sé, limitando il ricorso a supporti esterni: in pratica, si smette di assumere freelance per determinati compiti, come quelli di base, traduzioni o copywriting. Al contrario, può anche succedere che l’utilizzo dell’IA comporti un aumento esponenziale del lavoro proveniente dall’esterno, e quindi la necessità di creare nuovi lavori editoriali per valutare le fonti di informazione. In conclusione, si può affermare che il mondo dell’informazione e il lavoro stesso del giornalista stanno già mutando mano a mano che si espande l’utilizzo dell’IA generativa. Appare una battaglia di retroguardia quella di chi ritiene che si possa o si debba andare avanti come se nulla fosse.
Conclusioni
Il cambiamento è in atto, e non può essere fermato. Le legittime preoccupazioni di carattere etico possono essere lenite solo facendo ricorso ad una regolamentazione (affiancata da linee guida precise e concrete) che abbia come elementi fondanti la trasparenza sulle fonti e la supervisione umana sugli output. I timori sulle ripercussioni a livello occupazionale sono anch’essi legittimi e fondati. D’altra parte, anche in questo settore l’innovazione apre nuove opportunità per compiti e ruoli a più alto contenuto intellettivo, mentre per quelli a carattere ripetitivo o routinario, come accade in altri ambiti, sembra che le prospettive siano decisamente differenti. Si tratta, anche in questo caso, di tentare di governare a vantaggio di tutti processi che appaiono irreversibili.