Se l’intelligenza artificiale può iniziare a scrivere e comporre articoli al posto dei giornalisti quali limiti dovrebbero essere posti? Ma soprattutto quali sono oggi i limiti applicativi di questa tecnologia?
A queste domande urge trovare, pensare e formulare risposte, soprattutto in relazione alla libertà d’informazione.
L’ultimo spunto viene dalla notizia di un software, realizzato dall’organizzazione no profit OpenAI così bravo a scrivere articoli da aver preoccupato gli stessi sviluppatori. Che hanno quindi deciso di non pubblicare il software temendo che potesse alimentare un fenomeno di produzione massiva di fake news.
Ma la questione viene da molto più lontano.
Che cos’è il giornalismo automatizzato
Il giornalismo automatizzato, giornalismo robot o giornalismo algoritmico, è una definizione usata per descrivere l’impiego dell’Intelligenza Artificiale (IA) nell’elaborazione di testi da impiegare nel giornalismo.
Questo nuovo metodo di produzione di news è basato sulla tecnologia NLG (natural language generation), che permette, in generale, la creazione di giornalismo testuale a partire da un insieme di dati strutturati digitalmente. Una tecnologia, questa, che prevede che un algoritmo raccolga e analizzi i dati in modo indipendente e poi scriva un articolo dagli e sugli stessi.
Il giornalismo automatizzato opera sia scrivendo e pubblicando autonomamente articoli di cronaca senza l’intervento di un giornalista, sia “collaborando” con un giornalista che può essere incaricato di supervisionare il processo o fornire input per migliorare l’articolo.
Esempi di utilizzo della tecnologia
Il primo utilizzo dell’IA nel mondo giornalistico è stato quello del Washington Post, che utilizzò il software Heliograf per coprire i Giochi Olimpici di Rio 2016; il software ha raccolto i dati relativi al calendario degli eventi, ai risultati e alle medaglie creando brevi news interamente prodotte dall’IA.
Ad ora la tecnologia non può ancora scrivere articoli complessi, ma il giornalismo automatizzato sta evolvendo rapidamente.
Il campo in cui il giornalismo automatizzato potrebbe operare ed essere utile per aumentare la qualità delle notizie sembra essere quello del diritto di cronaca, ossia quella species della libertà di informazione che si occupa della diffusione di notizie e accadimenti senza particolari commenti critici.
Il Los Angeles Times’ Homicide Report del Los Angeles Times è un buon esempio di come il giornalismo automatizzato potrebbe evitare distorsioni nella copertura mediatica degli omicidi segnalando tutti i tipi di omicidi e informando l’opinione pubblica con dati corretti. Altri esempi di implementazione del diritto di cronaca sono il Quakebot sempre del Los Angeles Times, che riguarda la segnalazione dei terremoti, e la piattaforma di AP Wordsmith, che riguarda la cronaca inerenti i profitti e i bilanci aziendali.
Giornalismo automatizzato e data mining
Il giornalismo automatizzato è basato sul data mining, ossia sulla possibilità di avere accesso a dati strutturati digitalmente.
A prescindere dalle implicazioni in tema di responsabilità dell’operato dell’IA in questo campo, serve rilevare come il data mining posto in essere in tali procedure necessiti di forme di regolamentazione etica o legale per garantire che gli articoli generati dall’IA corrispondano alle regole di correttezza sottese al diritto di cronaca.
Il giornalismo automatizzato attualmente funziona correttamente solo “per storie basate sui fatti per le quali sono disponibili dati puliti, strutturati e affidabili”.
La questione principale dell’uso attuale dell’IA nella scrittura di articoli è la qualità e la correttezza dei dati utilizzati: una regolamentazione etica e giuridica del data mining è dunque necessaria.
La trasparenza delle fonti di dati
La prima questione problematica dell’IA nel campo della stampa riguarda l’identità dei dati utilizzati o, più precisamente, la trasparenza delle fonti di dati.
E qual è la soluzione eticamente più auspicabile per le fonti di dati nel giornalismo automatizzato?
L’utilizzo di un dataset proveniente da una fonte “politica” o da un’autorità indipendente/pubblica è accettabile anche se – probabilmente – i parametri utilizzati da un attore politico e da un’autorità pubblica indipendente per raccogliere i dati sono diversi. È evidente che il dataset di un’organizzazione politica (partiti, sindacati etc.) come quello di un’azienda privata (dati sul consumo etc.; funzionamento delle scuole private etc.) sarà basato su determinati parametri di raccolta e sarà teso a una raccolta “orientata di dati”. La questione rimane indifferente finché i dati sono di qualità.
Da un punto di vista etico, però, così come il pubblico ha il diritto di conoscere la posizione politica di un giornale, le persone hanno anche un analogo diritto di conoscere le fonti dei dati utilizzati dal giornalismo automatizzato, così come il loro orientamento politico. Resa palese la scelta della fonte dei dati delle notizie l’utente potrebbe così decidere di non leggere le notizie provenienti da determinati dataset.
La qualità dei dati utilizzati
La seconda questione riguarda la “qualità” dei dati utilizzati: ossia l’accuratezza e la correttezza dei dati da cui l’articolo è generato. In questo campo qual è la soluzione eticamente auspicabile per mantenere la qualità dell’informazione?
Da un punto di vista etico la scelta di un set di dati dovrebbe essere guidata dal principio etico dell’accuratezza, perché la scelta di una fonte affidabile, soprattutto se orientata politicamente, è un punto etico centrale e irrinunciabile esattamente come nel giornalismo tradizionale.
Il programmatore/editore/giornalista che programma l’IA dovrà verificare ex ante l’esattezza e la correttezza dei dati e continuare a vegliare sul modo in cui essi vengono raccolti. Naturalmente, questa verifica deve essere condotta anche se il set di dati è gestito dallo Stato o da un’autorità pubblica. Gli errori e le raccolte frettolose sono in agguato ovunque.
Al contrario, la conseguenza dell’utilizzo di dati inaffidabili potrebbe essere la diffusione di notizie false, come accadde al Quakebot del Los Angeles Times che riportò in passato terremoti mai verificatisi.
In relazione a questo fenomeno sarebbe forse necessario anche l’incentivo all’incrocio di diversi dati, evitare di fare produrre all’AI notizie su fenomeni imprevedibili e controllare ex post la produzione delle notizie.
Il giornalismo automatizzato dovrebbe dunque essere utilizzato solo quando i dati sono affidabili e riguardano eventi prevedibili.
Controllo e monitoraggio dell’output
La terza questione riguarda il controllo e monitoraggio dell’attività dell’IA nel trattamento dei dati. Il monitoraggio da parte di un fact checker o di un editore potrebbe scongiurare gli inevitabili errori che una macchina potrebbe commettere.
L’assenza di monitoraggio e validazione dell’output prodotto potrebbe essere uno degli aspetti più rischiosi e rovinosi del giornalismo automatizzato. Un monitoraggio e una validazione coscienziosa potrebbe, al contrario, eliminare o ridurre al minimo gli errori dovuti, soprattutto, ai cosiddetti falsi positivi e falsi negativi.
IA e distorsione dei dati
La quarta questione etico-giuridica dell’uso dell’IA nell’ambito della libertà di informazione riguarda la distorsione dei dati dovuta o alla modifica dei risultati in malafede o all’esistenza di distorsioni nell’algoritmo dell’IA.
L’etica giornalistica si è già occupata del primo aspetto: la creazione di notizie false, così come la distorsione dei fatti e dei dati, è vietata. La responsabilità dell’editore anche nell’ambito del giornalismo automatizzato dovrebbe implicare un vaglio sull’integrità del prodotto.
Il secondo aspetto è invece rivoluzionario e involve l’algoritmo con cui agisce l’IA e il modo in cui essa è programmata (e in futuro anche il modo in cui apprenderà da sola): l’IA potrebbe, infatti, influenzare la lettura dei dati e, di conseguenza, la correttezza e l’accuratezza dell’articolo.
In quest’ambito potrebbero agire sia le volontà manipolatrici dei programmatori sia bias e pregiudizi indiretti degli stessi, che potrebbero portare a una lettura distorta dei dati.
Che fare allora?
Sono necessarie sicuramente forme di responsabilità e responsabilizzazione dei programmatori che evitino forme di distorsione in malafede della macchina, sia elementi di controllo (affidate ad altre AI?) sugli algoritmi e i loro bias presenti e futuri.
Per ulteriori approfondimenti si può rimandare a questo paper.
Una possibile soluzione
Una soluzione alle problematiche appena analizzate potrebbe essere l’inserimento dei principi etici di cui sopra in un codice di condotta che potrebbe assistere i giudici ad applicare le leggi vigenti, interpretandole per applicarle all’IA, e comprendere il rispetto delle buone pratiche nei processi in materia di responsabilità. In parallelo, sarebbe anche necessario pensare ed elaborare normative che incorporino nuove forme di responsabilizzazione per programmatori e giornalisti nel mondo digitale.
Tutto questo dovrebbe essere sviluppato al fine di garantire la libertà d’informazione e inquadrare le nuove pratiche del giornalismo digitale nel novero dei tradizionali schemi delle responsabilità editoriale e della visione della stampa come cane da guardia della democrazia.
Qualora, poi, il giornalismo automatizzato riuscisse un giorno a sviluppare capacità di analisi critica dei fatti che raccoglie e racconta si porranno nuove sfide che potrebbe marginalizzare il compito del giornalista; ad oggi questo pericolo non sussiste. Sussistono invece forti rischi, nell’impiego diffuso di questa tecnologia, di un suo uso scorretto.
In quest’ambito sembra necessario, oltre a sviluppare adeguate forme di responsabilità editoriali per gli output del giornalismo automatizzato, ossia le notizie di cronaca prodotte, anche garantire un corretto utilizzo del data mining.