Un po’ alla volta, sofisticati sistemi di IA hanno pervaso il settore dei media. “La redazione di questo articolo è stata supportata dall’uso di un sistema di IA e rivisto, controllato e modificato dalla nostra redazione”. Sempre più spesso le persone che si approcciano a una notizia di stampa reperita online, sui siti web delle testate o sui canali social, si imbattono in disclaimer analoghi a quello riportato.
L’impatto dell’IA generativa sul giornalismo
Non si tratta di un tema nuovo. Da quasi un decennio vengono pubblicati articoli di stampa generati da algoritmi in diversi settori, finanziario, sportivo, meteo, in cui sono disponibili dati strutturati. Tuttavia, c’è una distinzione chiave tra queste prime implementazioni dell’IA nel mondo giornalistico e quelle attuali, ovvero le potenzialità creative dell’IA generativa, alimentate con dati non strutturati.
Dal rilascio pubblico dei grandi modelli linguistici, tra cui il noto ChatGPT, abbiamo assistito alla diffusione capillare di cd. “IA generative”, a causa della loro innovativa capacità di creare, a partire da semplici comandi immessi dall’uomo in una chat, testi realistici, immagini accurate, audio verosimili.
La “corsa” alle IA generative da parte dei grandi player tecnologici, come Microsoft e Google, ha stimolato ingenti investimenti economici, consentendo impressionanti sviluppi tecnici dei modelli. Redigere articoli anche su argomenti specifici, fornire informazioni dettagliate e organizzate in modo coerente, creare post e contenuti per i social media, scrivere script per video e podcast, sono solo alcuni possibili utilizzi delle IA generative in ambito giornalistico. Le funzionalità più evolute di questi modelli conversazionali consentono addirittura di adattare il tono, lo stile e i valori delle risposte, generare testi personalizzati e più naturali, e di apprendere “per rinforzo” dall’interazione con gli utenti.
Per quanto tecnologicamente impressionanti, questi sviluppi sollevano importanti interrogativi circa il loro impatto sugli ordinamenti democratici.
L’impatto dei modelli di linguaggio sulla dialettica democratica
Abbiamo fino ad adesso dato per scontato il ruolo dell’uomo nel determinare i temi del dibattito pubblico.
Il giornalista, infatti, deve svolgere la funzione fondamentale di selezionare, verificare e pubblicare le informazioni rilevanti per il pubblico, garantendone la pluralità, l’obiettività, la completezza e l’imparzialità. Assolvendo a tali compiti, vitali per la qualità del dibattito pubblico, il giornalista deve contribuire all’effettività del diritto dei cittadini all’informazione e all’apertura alle diverse opinioni e tendenze politiche, culturali e religiose, come sancito dalla storica sentenza n. 11/1969 della Corte costituzionale.
Con l’avvento delle IA generative, i professionisti dell’informazione si fanno supportare dai modelli di linguaggio per redigere bozze di articoli, generare contenuti audiovisivi, sintetizzare testi, tradurre post e personalizzare i contenuti interattivi per i lettori. Ovvio che proprio questi esempi evidenzino anche i rischi dell’impiego di modelli generativi nell’attività giornalistica, come la divulgazione di notizie fattualmente errate, nonostante la revisione umana (quantomeno, dichiarata).
Dunque, il tema delle IA generative solleva delicate questioni deontologiche. In questa prospettiva, il dovere di rettifica per errori e inesattezze, quale previsto dall’art. 4 delle Regole deontologiche relative al trattamento di dati personali nell’esercizio dell’attività giornalistica del Garante Privacy (del 29 novembre 2018), assume una centrale e rinnovata importanza.
Quale creatività? Le IA generative si nutrono di contenuti protetti dal diritto d’autore
L’ingresso delle IA generative nel mondo dell’informazione desta anche preoccupazioni legate alla tutela dei diritti di proprietà intellettuale e autoriale di soggetti terzi.
È noto, infatti, che i modelli di IA sono addestrati con dati raccolti massivamente, ricorrendo a tecniche di cosiddetto web scraping, comprensivi anche di contenuti testuali, visivi e audiovisivi di titolarità di autori terzi, editori, giornalisti senza la loro autorizzazione preventiva.
NYT vs OpenAI, un caso emblematico
L’ampio ricorso a queste tecniche per alimentare i modelli di IA generativa incide sulla protezione di altri diritti fondamentali, come il diritto al lavoro, alla paternità di un’opera e alla libera iniziativa imprenditoriale. Emblematico il noto caso del NY Times.
In un primo momento, la nota testata giornalistica ha adottato contromisure tecnologiche a protezione dei propri contenuti editoriali, bloccando l’operatività dei software di scraping sul proprio sito web[1]. Poi, a fine dicembre dell’anno scorso, il NY Times ha depositato un atto di citazione nei confronti di OpenAI LLC, domandando il risarcimento dei danni subiti, l’inibitoria di condotte sleali e in violazione dei diritti di proprietà intellettuale, nonché la distruzione di tutti i modelli GPT e altri grandi modelli di linguaggio, nella misura in cui contengano opere di propria titolarità[2]. Al cuore delle pretese attoree, una considerazione ben precisa: il successo commerciale di OpenAI si fonda sulla violazione dei diritti autorali della testata, nella specie numerose riproduzioni di opere protette dal diritto d’autore nella fase di addestramento del modello di linguaggio.
In attesa degli ulteriori sviluppi della vicenda giudiziaria, è indubbio che il caso offrirà preziosi spunti di riflessione, in ottica di analisi comparatistica.
Deep fake, fake news: l’interrelazione tra IA generative e la diffusione della disinformazione
La verosimiglianza dei contenuti creati dai modelli di IA generativa solleva inoltre sfide inedite quanto alla disinformazione. Le stime al riguardo sono allarmanti. Secondo il rapporto NewsGuard, da maggio 2023 vi è stato un incremento impressionante del 1000% dei siti web che diffondono notizie false, generate dall’IA[3]
Il rilascio dei modelli di linguaggio ha rivoluzionato la sintesi di notizie false, consentendo una proliferazione di fake news su argomenti delicati quali conflitti, consultazioni elettorali e disastri ambientali.
È mutato il paradigma delle guerre dell’informazione: se in passato era necessario assoldare addetti umani alla propagazione di notizie false, ora la disinformazione si sta diffondendo con scarsa, se non alcuna supervisione umana. Infatti, i siti web di disinformazione sono popolati di articoli redatti, interamente o parzialmente, da chatbot anziché da umani. Peraltro, le logiche algoritmiche delle principali piattaforme di social media privilegiano l’esposizione a contenuti controversi, in quanto maggiormente attrattivi dell’attenzione degli utenti, così facilitando l’ulteriore propagazione di tali contenuti.
Bisogna tuttavia considerare come, al contempo, l’argomento della disinformazione sia stato spesso affrontato nell’ottica di restringere il libero pensiero. Questo è particolarmente preoccupante, soprattutto se a valutare la veridicità o meno di un contenuto sia una grande piattaforma online, in qualità di censore del dibattito pubblico. In tal senso, è emblematica la dichiarazione di Meta, in cui vengono annunciati provvedimenti per il fact-checking[4]. Rispetto ad audio, video o foto manipolati, la piattaforma dichiara di voler intervenire sul proprio algoritmo, declassando la visibilità di tali contenuti, in modo tale da ridurne la diffusione tra gli utenti. Inoltre, viene esternata l’intenzione di etichettare le immagini generate dall’IA generativa di diversi sviluppatori (tra cui Google, OpenAI, Microsoft) pubblicate dagli utenti su Facebook, Instagram e Threads. Verrà, infine, richiesto agli inserzionisti che pubblicano annunci relativi a temi sociali o politici di dichiarare l’uso di deep fake.
L’AI Act e le prospettive di regolazione europea
Cosa implicherà il sempre maggior ricorso ai modelli generativi per il futuro della democrazia? In che modo una produzione sempre più automatizzata dell’informazione potrà influire sulla partecipazione democratica? Sarà possibile mantenere l’uomo al centro del mondo dell’informazione, rivoluzionato dall’IA? L’IA generativa può promuovere i valori costituzionali della libertà di espressione, del diritto di cronaca, di critica e di satira?
A questi delicati interrogativi, tenta di rispondere il Regolamento sull’IA, noto come “AI Act”, che si applicherà a chi importerà e utilizzerà all’interno dell’Unione europea i sistemi e i modelli di IA
Il Regolamento, formalmente adottato dal Parlamento europeo lo scorso 13 marzo, è stato il frutto di un intenso lavoro e di un accordo politico raggiunto tra Consiglio e Parlamento stesso lo scorso dicembre.
Si tratta di un testo estremamente ambizioso, in quanto mira a creare una governance dell’IA, che non è soltanto una tecnologia, ma una vera e propria sfida antropologica, con l’introduzione di regole armonizzate per l’immissione sul mercato, la messa in servizio e l’uso di tali sistemi e modelli e la conseguente responsabilità degli operatori di mercato coinvolti (tra cui fornitori, utilizzatori, importatori).
Mutuato dal Regolamento europeo in materia di protezione dati, la ratio dell’AI Act è risk-based, perché traccia una tassonomia degli usi dell’IA (non consentiti, ad alto rischio e non rischiosi), sulla base del livello di rischio intrinseco.
Dopo un faticoso negoziato politico, è stata introdotta nel testo dell’AI Act una complessa cornice regolatoria volta a disciplinare nello specifico i modelli di intelligenza artificiale a uso generale. Si tratta di quei modelli capaci di servire una varietà di scopi, sia per uso diretto che per integrazione in altri sistemi di IA. Stante la loro duttilità d’utilizzo, questi modelli possono diventare componenti o parte integrante dei sistemi qualificati “ad alto rischio”.
Rispetto a questi modelli, i fornitori saranno chiamati a rispettare degli standard innalzati di accountability. Tra questi obblighi, vi è l’onere di redigere una documentazione tecnica che comprovi come siano stati addestrati, testati e convalidati i modelli. Ancora, i fornitori dei modelli dovranno comunicare, in modo comprensibile, agli altri operatori del mercato le capacità e i limiti dei modelli. In ottica di trasparenza, i fornitori dovranno rendere pubblico un riassunto dettagliato sui contenuti utilizzati per addestrare i modelli.
Inoltre, i modelli con elevate capacità computazionali, determinate sulla base di specifici criteri tecnici, sono qualificati come “sistemici” e, dunque, assoggettati a ulteriori obblighi. Tra questi, l’obbligo di notifica alla Commissione europea se sono raggiunte le soglie di elevata capacità computazionale, la valutazione di impatto e la mitigazione dei rischi sistemici individuati, il monitoraggio, la documentazione e la segnalazione di incidenti gravi occorsi nel funzionamento dei modelli e possibili misure correttive, l’implementazione di elevate misure di cybersecurity.
Quanto alla tecnologia deepfake, l’AI Act introduce all’art. 52, par. 3 l’obbligo in capo agli utilizzatori di sistemi di IA capaci di creare o manipolare contenuti fotografici, vocali o audiovisivi di comunicarlo, in modo chiaro e distinguibile per l’utente, ad esempio utilizzando dei watermark. È prevista una deroga, qualora l’uso dei contenuti così generati sia necessario per l’espressività artistica e la manifestazione del libero pensiero.
Quali prospettive per il giornalismo post-AI Act?
La libertà di informazione è un irrinunciabile strumento di partecipazione al dibattito pubblico e politico. Proprio per questo ha una duplice anima: una che si manifesta nel diritto di informare (senza indebite interferenze) e un’altra che si manifesta nel dovere di formare, cioè di assolvere il compito di garantire all’opinione pubblica una informazione consapevole e responsabile.
Sul crinale di questa duplice anima si gioca una sfida epocale per editori, giornalisti, professionisti del mondo dell’informazione, ossia coniugare professionalità e innovazione, mantenendo il vincolo fiduciario con il pubblico.
Ciò implicherà sperimentare gli usi delle IA generative per ottimizzare la ricerca e la selezione delle notizie, la verifica dei dati e dei contenuti errati o artefatti e la creazione di contenuti originali, nel rispetto del non negoziabile principio di trasparenza. L’applicazione di quest’ultimo principio richiederà in concreto di dichiarare la provenienza dei contenuti diffusi dai modelli di linguaggio, fornendo un’informativa chiara e intellegibile al pubblico, con appositi disclaimer ed etichette.
Il ricorso ai modelli generativi dovrà avvenire secondo un approccio responsabile e critico, con la consapevolezza della natura, della capacità e dei limiti di tali tecnologie. Questo vale soprattutto con riferimento al fenomeno delle “allucinazioni”, ossia del rischio di questi modelli di generare informazioni fattualmente scorrette e, dunque, da verificare ex post manualmente. Quindi, sarà fondamentale garantire una supervisione umana effettiva, per poter assicurare la diffusione di notizie affidabili.
La professione giornalistica sarà, infine, inevitabilmente chiamata a confrontarsi con testi o contenuti multimediali la cui provenienza e accuratezza potrebbero non essere certe o semplicemente verificabili. Parafrasando le parole della Corte Suprema statunitense nel caso United States v. Alvarez, il rimedio contro le dichiarazioni false o artefatte sarà un’informazione vera e autentica, rispondendo al disinformato con l’illuminato, secondo un approccio trasparente, critico e plurale, nel rispetto delle regole deontologiche, interpretate alla luce dell’inevitabile evoluzione tecnologica.
Note
[1] Si veda la pagina web del New York Times: <https://www.nytimes.com/robots.txt>.
[2] Per un approfondimento giornalistico, si veda Michael M. Grynbaum e Ryan Mac, The Times Sues OpenAI and Microsoft Over A.I. Use of Copyrighted Work, consultabile online all’URL <https://www.nytimes.com/2023/12/27/business/media/new-york-times-open-ai-microsoft-lawsuit.html>. L’atto di citazione n. 1:23-cv-11195 depositato il 27 dicembre 2023 è consultabile online all’URL <https://www.courthousenews.com/wp-content/uploads/2023/12/new-york-times-microsoft-open-ai-complaint.pdf>.
[3] Il rapporto di NewsGuard è reperibile online all’URL: <https://www.newsguardtech.com/it/special-reports/centro-monitoraggio-ia/>.
[4] Nick Clegg, How Meta Is Planning for Elections in 2024, consultabile online: <https://about.fb.com/news/2023/11/how-meta-is-planning-for-elections-in-2024/>.