l’approfondimento

Il giornalismo nell’era dell’algoritmo: il matrimonio impossibile tra IA e news



Indirizzo copiato

La platform society, con la sua logica della monetizzazione dell’attenzione produce un output informativo in cui vero e falso convivono. Contro i seri rischi che questo stato di cose comporta per le nostre economie, occorre aumentare la collaborazione internazionale e la condivisione di metodologie e risultati

Pubblicato il 31 mag 2023

Francesca Rizzuto

Docente di Sociologia del giornalismo dell’Università di Palermo



shutterstock_2083343668 (1)

La circolazione di notizie false (Albright 2017; Corner 2017), favorita da utenti ignari, nonché la frequente costruzione intenzionale di campagne coordinate di disinformazione, impongono a livello globale l’obbligo di focalizzare l’attenzione sul tema, centrale per tutti i sistemi democratici, della nuova opacità dei confini tra la libertà di espressione e la necessità di limitare la manipolazione dei flussi informativi, operata dalle piattaforme (Rizzuto, Vaccaro 2023).

Il giornalismo nell’era dell’IA: tutte le distorsioni in atto

Indubbiamente, il problema della crescente diffusione delle pratiche disinformative richiede una riflessione critica sia ai professionisti del giornalismo che ai vari attori istituzionali, chiamati a regolare e controllare i circuiti planetari dell’informazione on line. In particolare, sono i recenti ed inediti progressi tecnologici dell’intelligenza artificiale, legati a complessi algoritmi di machine learning per elaborare e comprendere testi, a presentare sfide “nuove” poste al giornalismo insieme all’ascesa dei social media come attori centrali nella sfera pubblica, che costituiscono per milioni di utenti le principali fonti di accesso all’informazione.

Numerosi studi (Van Dijck, Poell, de Wall 2018; Sorice 2020) hanno evidenziato che nell’ecosistema comunicativo contemporaneo, ibrido, iper-frammentato e dominato dalle piattaforme, si creano significative distorsioni sia nei processi di ricerca delle news che sul piano delle possibilità di controllo della loro veridicità e fattualità. La logica strutturale degli algoritmi, ideati e gestiti dai proprietari privati, mossi da legittime finalità di profitto in un contesto di mercato altamente concorrenziale, favorisce e dà visibilità soprattutto a determinati flussi di informazioni, limitando fortemente gli spazi di “libertà” e autonomia dei singoli così efficacemente che le persone vedono ciò che vogliono vedere o ciò che un algoritmo ‘crede’ che siano interessate a vedere (Chambers 2021).

Pertanto, nella platform society un tale ecosistema può essere considerato responsabile di una varietà di fenomeni emergenti e con risvolti problematici, tra cui, ad esempio, la polarizzazione politica, le camere dell’eco, la mediatizzazione, la vetrinizzazione sociale. Come ha sottolineato Chambers, al giorno d’oggi ci sono minacce “nuove” per l’acquisizione di informazioni anche se, naturalmente, la circolazione di bufale o bugie non è nuova. Tuttavia, “sembra esserci sia un picco nel numero assoluto di tali storie in circolazione, sia un aumento dell’inclinazione partigiana politicamente rilevante delle informazioni false e fuorvianti, che vengono immesse nella sfera pubblica da attori discutibili” (ivi, 149). Pertanto, l’opacità tra vero e falso dell’era post-verità presenta rischi rilevanti per le architetture costituzionali occidentali, favorendo processi come la “normalizzazione” di severe pratiche di censura o, per scopi totalmente diversi, dinamiche comunicative conflittuali e divisive, in cui prevale un linguaggio aggressivo e di odio (Allcott e Gentzkow, 2017; Lazer et al. 2018; Sorice 2020).  

Lo storytelling NON è giornalismo

Grazie alle tecnologie digitali è possibile l’ampliamento delle risorse per accedere alla realtà che, però, si traduce, spesso, in un vero e proprio caos informativo, in cui si diffondono pratiche di disinformazione (Bracciale, Grisolia 2020) e processi di viralizzazione di notizie false ma verosimili, i cui “effetti di realtà” (Ireton, Posetti 2018; Edson, Tandoc, Lim, Ling 2018) sono in grado di inquinare le dinamiche democratiche. In tale prospettiva, la logica della post-verità, riconoscendo spazio e visibilità a tutte le ricostruzioni individuali, si coniuga perfettamente con il predominio degli imperativi commerciali nelle news e con la loro spinta verso eccessi intrattenitivi, che favorisce lo story model (Rizzuto 2019). Secondo  Kormelink e Meijer (2015), proprio lo storytelling costituisce un elemento di criticità per il giornalismo poiché non si tratta, infatti, soltanto di una strategia in grado di attrarre e coinvolgere utenti: viene reso sempre più opaco il confine tra report obiettivo degli eventi e loro ricostruzione narrativa nella quale le notizie possono essere parcellizzate e diffuse come monadi fluide con rilevanti tendenze alla multiautorialità (Rizzuto 2022).

Il giornalismo dell’ecosistema digitale ibrido è, quindi, perfettamente coerente con la logica della post-verità, che favorisce il predominio della logica narrativa transmediale (McErlean 2018): in altri termini, la platform society proprio per le peculiarità produttive legate alla sua logica della monetizzazione dell’attenzione,  produce un output informativo caratterizzato dalla presenza di grumi concettuali in cui vero e falso convivono (Lorusso 2018), un sistema granulare, che presenta  punti di vista verosimili come verità plurime e plausibili (Groot Komerlink, Costera Meijer 2015) e valori-notizia, che sono imposti dagli algoritmi e non dalla tradizione professionale (Codina, Lopezosa, Rovira 2022). Oltre alle false informazioni, diffuse involontariamente o intenzionalmente per finalità politiche e di propaganda, l’infosfera è condizionata, quindi, dalla logica del business delle piattaforme (Floridi 2018), che, diventate ormai enormi macchine per accumulare denaro o consensi, privilegiano i contenuti che attirano like e commenti. Poche grandi aziende, così, contribuiscono alla circolazione di fake news così come alla manipolazione mediale dei singoli, con la conseguenza che la “trasformazione tossica del dibattito pubblico” (Bentivegna, Boccia Artieri, 2021, 97), non sembra più definibile come un rischio potenziale ma come realtà già presente, in grado di contribuire significativamente alla profonda crisi di legittimità delle istituzioni politiche in numerosi contesti occidentali. L’uso strategico di pseudo-facts (Riva 2018), infatti, favorisce soprattutto i leader politici che si servono di retoriche del consenso fondate su posizioni a cui aderire “emozionalmente”, delineando in tal modo, un cortocircuito informativo, nel quale i cittadini-elettori possono diventare anche complici involontari di pratiche di disinformazione, misinformazione o malinformazione (Ireton, Posetti 2018), semplici coprotagonisti del contagio emotivo che avvia cortocircuiti anche per l’assenza di trasparenza nel processo di ricerca delle news o di un serio controllo professionale sul contenuto.

News verosimili e credibilità del giornalismo

Le news verosimili costituiscono, inoltre, un serio e concreto pericolo per la credibilità del giornalismo che è sempre più incline ad un racconto eccessivamente drammatizzante ed iperbolico della realtà, per attrarre ed emozionare ampie fasce di audience (Zelizer, 2004; Santos 2009), e che vede aumentare, sul terreno della creazione di testi, la pericolosa concorrenza delle applicazioni tecnologiche che la ricerca sull’intelligenza artificiale ha prodotto in questi ultimi mesi. Il caso recente dell’affermazione planetaria di ChatGPT costituisce un esempio evidente dei rischi connessi al progresso inarrestabile dell’intelligenza artificiale all’ambito del newsmaking ed ha suscitato perplessità e allarmi non solo tra gli attori istituzionali ma anche tra i professionisti dell’informazione e gli stessi tecnici dell’ingegneria informatica, molti dei quali stanno iniziando a prendere le distanze dai processi in corso, evidenziandone i rischi attuali e le prospettive minacciose per il futuro.

Questa tecnologia ha mostrato in modo inequivocabile il lato opposto e pericoloso della medaglia della rivoluzione digitale: se è vero che l’ascesa della rete e l’affermazione delle piattaforme nella vita quotidiana dei singoli hanno prodotto come esito rivoluzionario la creazione di ambiti di azione ed interazione inediti, in grado di ampliare su scala planetaria gli spazi di partecipazione e di accesso alla realtà, un’agorà nella quale è possibile connettersi con ogni luogo, proprio alcune specificità delle nuove dinamiche comunicative (la struttura orizzontale, la velocità, la brevità, l’ipersemplificazione del linguaggio o l’anonimato) possono facilitare bias relazionali, come la polarizzazione delle opinioni o la negazione del confronto con l’alterità. I social, ad esempio, proprio grazie all’interconnessione e alla loro pervasività, sono diventati uno dei canali privilegiati sia per la diffusione dell’hate speech che per la circolazione di fake news intenzionalmente costruite per danneggiare avversari politici.

I rischi concreti per le democrazie

Le esperienze eclatanti delle elezioni americane del 2016 o le campagne di disinformazione costruite durante il confitto in Ucraina in questo ultimo anno dimostrano i rischi concreti per le democrazie, che istituzioni e cittadini sono chiamati ad affrontare con consapevolezza, in una sfera pubblica abitata anche da attori discutibili, ben diversa dalla tradizionale configurazione habermasiana. Al fine di favorire una prospettiva di analisi critica lucida e libera da pregiudizi analitici miopi, in primo luogo, come ha sottolineato Chambers (2021), occorre prendere in considerazione  sia il modello finanziario dei social media, dominato dai big data, dal micro-targeting e dai bot, sia le peculiarità delle declinazioni nazionali dei sistemi mediali, in cui si sono storicamente affermate concezioni normative molto differenti tra loro sul ruolo attribuito ai newsmedia nelle dinamiche politiche. 

Il ruolo del giornalismo nei contesti occidentali

Nei contesti occidentali, tradizionalmente, il ruolo del giornalismo è stato considerato centrale e nei diversi modelli della professione il suo rilievo quale agente di mediazione è universalmente riconosciuto: “anche quando agiscono come sbocchi ideologici, organi di partito, o rapaci capitalisti, la funzione politica di mediazione tra cittadino e Stato o tra cittadino e cittadino era inteso dalla maggior parte degli attori. Al contrario, i social media si sono sviluppati non come un organo di stampa libera, o come mediatori tra cittadino e Stato, ma come strumenti divertenti, utili per socializzare e, a quanto pare, un buon modo per fare soldi. Il loro ruolo epistemico e la loro funzione di trasmettitori di fatti importanti su ciò che sta accadendo nel mondo, incluso il mondo della politica, è stato uno sviluppo non intenzionale”. (Chambers 2021, 150-151).

La pervasività delle piattaforme ha reso più opaco il confine tra producer e consumer di news, favorendo il prevalere della componente emotiva rispetto alla “vecchia” questione dell’obbligo per il giornalismo della veridicità dei fatti riportati. La conseguenza più significativa dei processi in corso è evidente nel ruolo crescente dei social media come fornitori di notizie e trasmettitori di eventi (García-Orosa, López-García, Vázquez-Herrero 2020; Reuters), che ha modificato radicalmente il panorama contemporaneo del giornalismo, sommandosi ai processi di spettacolarizzazione della realtà (Thussu 2007; Rizzuto 2018) e alle pratiche di produzione e fruizione dei contenuti informativi che si servono delle tecnologie di intelligenza artificiale, ormai perfettamente capaci di produrre senza l’intervento umano costruzioni narrative fluide, verosimili, che si inseriscono velocemente in dinamiche virali planetarie.

Il dibattito innescato da ChatGPT: farà proliferare l’industria della falsità e della disinformazione?

Con la creazione da parte di OpenAI di una piattaforma online utilizzabile da tutti, ChatGPT, si è avviato un ampio dibattito sulla rivoluzione che i  nuovi chatbot basati sull’AI  potranno portare in numerosi ambiti della vita sociale e culturale: dalle implicazioni per il  mondo del lavoro, alla politica fino alla ricerca scientifica, le capacità di questa nuova tecnologia sono molteplici ed hanno un potenziale veramente enorme in termini di ricadute sui circuiti democratici e sui flussi informativi in circolazione. Di conseguenza, a prescindere dagli interrogativi relativi a come e in che cosa l’intelligenza artificiale possa sostituire l’essere umano, è opportuno chiedersi quali cambiamenti potranno registrarsi effettivamente, sia a livello delle interazioni sociali tra gli individui che nel processo di acquisizione delle conoscenze. ChatGPT è stato lanciato nel novembre 2022, con l’obiettivo di rendere l’Intelligenza Artificiale Generale fruibile per tutti e, per questo motivo la piattaforma è gratuita, anche se esistono piani a pagamento che consentono l’accesso prioritario a nuove funzionalità. Fondata da Elon Musk nel 2015, Open AI è un’organizzazione di ricerca sull’intelligenza artificiale che mira a collaborare con altre istituzioni: nata con l’intento di utilizzare l’intelligenza artificiale per analizzare e comprendere i testi scritti dagli esseri umani, si serve di complessi algoritmi di machine learning per elaborare, comprendere e persino rielaborare milioni di pagine di testi.

L’elemento veramente rivoluzionario è la possibilità di istruire lo strumento su un determinato argomento, fornendo materiale da leggere e poi chiedergli di rispondere a domande o di realizzare un testo originale su quel tema: commentando i primi risultati, David Luan, vice presidente della divisione degli ingegneri informatici di OpenAI ha evidenziato che il prodotto “sembra dannatamente reale” e proprio in tale eccesso di verosimiglianza risiede il nucleo maggiormente problematico della nuova tecnologia. Testi tanto simili ad uno reale possono diventare pericolosi se inseriti intenzionalmente nei circuiti comunicativi alla base delle architetture istituzionali dei sistemi democratici moderni: in altri termini, OpenAI è perfettamente in grado di scrivere notizie false con uno stile che sembra quello di uno scrittore umano, e per questo può velocemente diventare una gigantesca ed efficientissima macchina per produrre fake news in serie e con costi molto bassi. Inoltre, in numerosi esperimenti è stato dimostrato che simili tecnologie sono tecnicamente in grado di far fiorire, in modo esponenziale,  l’industria della falsità e della disinformazione, immettendo svariati elementi tossici nell’agorà on line, come nel caso di perfetti testi complottisti o diffamatori (scritti da un computer a costo zero e ad una velocità straordinaria) o nel caso in cui, coinvolgendo leader o candidati politici, possono condizionare pesantemente l’opinione pubblica o importanti tornate elettorali, diventando un pericolo per tutte le elezioni democratiche e per la libertà (Mazzoleni 2021).

Perché ChatGPT ha cambiato le regole del gioco

In particolare, ChatGPT, acronimo di Generative Pretrained Transformer si sta rivelando un versatile strumento di elaborazione del linguaggio naturale (o Natural Language Processing) che utilizza algoritmi avanzati di apprendimento automatico per generare risposte simili a quelle umane all’interno di un discorso. Si tratta di un prototipo di chatbot, cioè un agente software in grado di eseguire azioni per un interlocutore umano, basandosi su comandi ricevuti dall’utente in linguaggio naturale (scritto o parlato): pertanto, può conversare con un essere umano e rispondere ad una serie di domande, fino ai casi più evoluti, nei quali è addirittura in grado di comprendere il tono e il contesto del dialogo, e successivamente di sfruttare queste informazioni nella conversazione. A differenza dei Chatbot rule based, (bot in grado di dialogare con un umano seguendo alberi conversazionali predefiniti con  risposte standard), chatGPT è un chatbot di tipo conversazionale, che può intrattenere una conversazione, comprendendo richieste, e fornire risposte specifiche alle domande dell’utente: a differenza degli ormai comuni assistenti virtuali come Siri, Amazon Alexa e Google Assistant,  ChatGPT è quindi in grado di rispondere ai prompt con un linguaggio simile a quello del suo interlocutore, e, quindi, può, per esempio, scrivere articoli, risolvere operazioni matematiche, rivedere o tradurre testi (non solo notizie ma anche saggi) e, nelle versioni più recenti, generare immagini a partire da una descrizione testuale o (a pagamento in ChatGPT-4 comprendere input sia testuali che visivi. Oltre all’ottimizzazione dei processi, ad esempio in ambito aziendale nelle relazioni con i clienti,  il mondo dell’informazione e quello della politica non possono ignorare le potenziali conseguenze di queste applicazioni sia al livello di  una vera e propria sostituzione di mansioni creative, in particolare per la produzione di immagini e testi scritti, che sul piano del fondamento epistemologico proprio del giornalismo, almeno nei termini in cui si è affermato nella modernità occidentale quale mediatore affidabile nella sfera pubblica.

I limiti di ChatGPT

Uno dei limiti principali di Chat GPT è l’aggiornamento delle informazioni, anche se le stesse interazioni con gli utenti costituiscono un metodo di addestramento, che permette alla macchina di aggiornarsi: è indubbio non soltanto che può commettere errori, in particolare nel comprendere le intenzioni di chi lo ha interpellato, ma anche che le sue risposte possano essere superficiali e, per quanto riguarda l’attività di ricerca di informazioni da parte degli utenti, non è da escludere che un uso eccessivo possa contribuire all’impigrimento dell’utente e, in diversi casi, sostituire la ricerca su motori di ricerca come Google. Tra gli altri limiti, riconosciuti dalla stessa OpenAI, risultano anche la produzione di risposte plausibili, ma senza senso o errate, soprattutto nei casi di domande ambigue o con sfumature linguistiche, difficilmente comprensibili dall’algoritmo, o la possibilità di produrre risposte offensive, da limitare con il ricorso a filtri per moderare il linguaggio. Uno dei risvolti più problematici del legame tra produzione di testi, giornalismo e intelligenza artificiale riguarda la disinformazione: essendo Chat GPT addestrato su testi presi da Internet, la piattaforma può essere facilmente soggetta a fake news, rendendo quasi del tutto impossibile una corretta distinzione tra contenuti veri e testi, sia verbali che iconici, manipolati. Il recente caso dell’immagine fake di Papa Francesco con un piumino bianco, diventata virale a livello planetario, ha imposto in modo evidente all’attenzione generale la portata dei rischi per la narrazione giornalistica del reale: con questo caso, non l’unico in rete, l’applicazione linguistica generativa per la produzione di contenuti visuali del tutto verosimili alla realtà sembra riuscire a rendere definitivamente irrilevante la differenza tra vero e verosimile ed il problema sia le immagini, ma anche nella produzione di testi scritti,

L’evidente fragilità della sfera pubblica online

Se è plausibile che Chat GPT non solo potrebbe attingere da fonti di disinformazione online, ma produrre testi mendaci, il rischio evidente di proliferazione incontrollata di fake news è una delle principali problematiche etiche che politici, cittadini e ricerca scientifica dovranno affrontare: convivere con  l’AI  significa mirare ad attivare policies, produrre norme efficaci nell’attuale far west legislativo in cui da anni i leader del mercato della comunicazione operano, promuovere il ricorso a solide competenze  professionali per diventare cittadini capaci di riconoscere fonti credibili ed autorevoli nell’alluvione informativa della platform society. Un esempio palese del rapporto ancora squilibrato tra forze ed esigenze degli attori coinvolti è stato recentemente fornito dal blocco di ChatGPT da parte del Garante della privacy italiano: andando nella direzione di un controllo severo del rispetto di norme riguardanti i dati personali degli utenti, con il Provvedimento dell’11 aprile 2023 ha imposto limitazioni e obblighi di adeguamento a OpenAI. Il 28 aprile, la società statunitense lo ha reso nuovamente accessibile agli utenti italiani, dopo aver fatto pervenire al Garante per la protezione dei dati personali una nota nella quale illustra le misure introdotte in ottemperanza alle richieste ed alle indicazioni dell’Autorità.
L’episodio dimostra la fragilità della sfera pubblica online, evidenziando i rischi di come la tecnologia possa essere manipolata per scopi politici e ha suggerito la necessità di proporre risposte ai problemi legati all’esistenza stessa dell’intelligenza artificiale: sia la società civile che le autorità di regolamentazione devono attivarsi per creare resilienza nel mondo digitale. La disinformazione e le notizie false sono molto diffuse e coloro che cercano di manipolare la sfera pubblica online possono capitalizzare il calo dei livelli di fiducia nelle istituzioni e negli esperti.

Sempre più potere nelle mani di pochi

La straordinaria concentrazione di potere di mercato in pochissime aziende tecnologiche solleva seri interrogativi in un mondo in cui l’intelligenza artificiale e la tecnologia hanno il potenziale per trasformare interi settori dell’economia: nel caso dell’informazione, orami da alcuni anni, le news sono prodotte e fruite in un panorama mediatico radicalmente alterato in cui le piattaforme tecnologiche ricevono la maggior parte dei ricavi pubblicitari, indebolendo ulteriormente gli editori di notizie tradizionali. Inoltre, la rivendita dell’attenzione umana agli inserzionisti solleva profondi interrogativi non solo sulle notizie a cui le persone accedono ma anche sulle concrete possibilità per i singoli cittadini di comprendere questo nuovo panorama in cui la disinformazione e la mal informazione proliferano online accanto al giornalismo tradizionale, con un enorme incremento di pirateria informatica, fughe di notizie e inserimento di informazioni false in documenti scaricati online.

Conclusioni

I governi sono sempre più preoccupati per le notizie false, la disinformazione e il modo in cui la sfera pubblica può essere manipolata: molti hanno annunciato indagini, o proposto leggi e regolamenti. Tuttavia, il problema non può essere risolto multando le aziende: occorre aumentare la collaborazione internazionale e la condivisione di metodologie e risultati. Dovrebbe esserci anche un impegno da parte dei policymakers per una maggiore trasparenza su come si utilizzano i dati dei cittadini. Ma, soprattutto, occorrono politiche a lungo termine per aiutare i cittadini a diventare più informati, al fine di costruire forme nuove di resilienza per i sistemi democratici: è vero che non si tornerà, ed è un bene, ad un panorama mediatico in cui ci saranno solo pochi arbitri della verità, ma questo mette al centro la questione della responsabilità di ogni attore sociale con ancora maggiore rilevanza.

Bibliografia

Albright J. (2017), “Welcome to the era of fake news”, Media and Communication, 5.2, 87-89.

Bentivegna S., Boccia Artieri G. (2021), Voci della democrazia. Il futuro del dibattito pubblico, Il Mulino, Bologna.

Bracciale R., Grisolia F. (2020), “Information disorder: acceleratori tecnologici e dinamiche sociali”, Federalismi.it, https://www.federalismi.it/nv14/articolo-documento.cfm?Artid=42112.

Chadwick A. (2013), The hybrid media system. Politics and power, Oxford University Press, Oxford-New York.

Chambers S. (2021), “Truth, Deliberative Democracy, and the Virtues of Accuracy: Is Fake News Destroying the Public Sphere?”, Political Studies, Vol. 69(1) 147–163, Sage, London.

Codina, L.; Lopezosa, C.; Rovira, C. (2022): Periodismo y algoritmos: de la era de la información a la era del algoritmo, en Documentación de Ciencias de la Información 45 (1), 1-5. Ediciones Complutense

Corner J. (2017), “Fake news, post-truth and media–political change”, Media, Culture & Society, 39 (7), 1100–1107.

Edson C., Tandoc Jr., Lim Z.W, Ling R. (2018), “Defining Fake news”, Digital Journalism, 2, 137-153.

García-Orosa B., López -García X., Vázquez-Herrero J., (2020), “Journalism in Digital Native Media: Beyond Technological Determinism”, Media and Communication , 8.2, 5–15.

Groot Kormelink T., Costera Meijer I. (2015), Truthful or Engaging? Surpassing the dilemma of reality versus storytelling in journalism in Digital Journalism , 3.2, 158-174.

Ireton C., Posetti J. (eds) (2018), Journalism, ‘Fake News’ & Disinformation , UNESCO.

Floridi L., (2017), La quarta rivoluzione. Come l’infosfera sta trasformando il mondo. Editore Cortina Raffaello, Milano.

Ireton C., Posetti J. (eds) (2018), Journalism, ‘Fake News’ & Disinformation, UNESCO.

Lorusso A. M. (2018), Postverità. Fra reality tv, social media e storytelling. Laterza, Roma-Bari.

Marinov R. (2020), “Mapping the infotainment literature: current trajectories and suggestions for future research”, The Communication Review, 23, 1-28.

Mazzoleni G. (a cura di), 2021, Introduzione alla comunicazione politica, Il Mulino, Bologna.

McErlean K. (2018), Interactive Narratives and Transmedia storytelling , Routledge, New York.

Riva G. (2018), Fake news, il Mulino, Bologna.

Rizzuto F. (2018), La società dell’orrore. Terrorismo e comunicazione nell’era del giornalismo emotivo, Pisa University Press, Pisa.

Rizzuto F. (2022), “Transmedia e informazione” in Leonzi S. (a cura di), TRANSMEDIA STUDIES: logiche e pratiche degli ecosistemi della comunicazione, Armando editore, Roma.

Rizzuto F., Vaccaro S. (2023), Il giornalismo nell’era della disinformazione, Mimesis, Milano.

Sorice M. (2020), Sociologia dei mass media, Carocci, Roma.

Thussu D.K. (2007), News as Entertainment: The Rise of Global Infotainment, Sage, New York.

Vaccaro S., (2020), Gli algoritmi della politica, Eleuthera, Milano.

Van Dijck J., Poell T., de Waal M. (2018), The Platform Society: Public Values in a Connective World, Oxford University Press, Oxford.

  • Tutela dei minori
  • Per quanto riguarda la verifica dell’età dei minori, oltre all’immediata implementazione di un sistema di richiesta dell’età ai fini della registrazione al servizio, l’Autorità ha ordinato a OpenAI di sottoporle entro il 31 maggio un piano di azione che preveda, al più tardi entro il 30 settembre 2023, l’implementazione di un sistema di age verification, in grado di escludere l’accesso agli utenti infratredicenni e ai minorenni per i quali manchi il consenso dei genitori.
  • Campagna di informazione
  • Di concerto col Garante, entro il 15 maggio, OpenAI dovrà infine promuovere una campagna di informazione su radio, televisione, giornali e web per informare le persone sull’uso dei loro dati personali ai fini dell’addestramento degli algoritmi.
  • L’Autorità proseguirà nell’accertamento delle violazioni della disciplina vigente eventualmente poste in essere dalla società e si riserva l’adozione di ogni ulteriore o diversa misura che si rendesse necessaria a conclusione della formale istruttoria tuttora in corso.
  • Roma, 12 aprile 2023

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3