la guida

IA e disinformazione: un manuale per le aziende contro le fake news



Indirizzo copiato

L’IA contribuisce alla diffusione di fake news, ma offre anche soluzioni per combatterle. Le aziende devono investire in strumenti di verifica, formazione del personale e collaborazioni per promuovere un ambiente informativo sicuro e affidabile

Pubblicato il 29 gen 2025

Chiara Benvenuto

Senior Associate Rödl & Partner dipartimento di Data Protection, Cybersecurity e Innovation

Mario Cucciarrè

Associate – Rödl & Partner, dipartimento di Data Protection, Cybersecurity e Innovation

Valeria Specchio

Senior Associate Rödl & Partner dipartimento di Data Protection, Cybersecurity e Innovation



vero e falso. fake, ia (1)

Nel panorama dell’informazione globale, l’intelligenza artificiale svolge un duplice ruolo come generatore di fake news e strumento di contrasto alle stesse.

Proponiamo allora alcune azioni pratiche che le aziende possono adottare per resistere alla diffusione di fake news, tra cui: l’implementazione di processi di verifica interna basati su strumenti di IA avanzata per monitorare e filtrare le informazioni prima della pubblicazione; l’investimento sulla formazione del personale, con programmi di alfabetizzazione mediatica per migliorare la capacità di identificare contenuti manipolati; la collaborazione con organismi indipendenti di fact-checking e promuovere l’adozione di standard di trasparenza nel trattamento dei dati e delle informazioni.

L’IA generativa come potente strumento di disinformazione

L’IA, specialmente negli ultimi anni, ha acquisito notevoli capacità che possono essere utilizzate anche per generare fake news, ossia notizie false o ingannevoli create per manipolare opinioni, disinformare o ottenere altri scopi. Questa capacità deriva principalmente dai modelli di linguaggio avanzati e da altre tecnologie basate sull’IA.

L’IA può, infatti, generare fake news grazie a diverse tecniche avanzate. Modelli di linguaggio naturale come GPT possono creare testi realistici e persuasivi che imitano lo stile giornalistico, mentre tecnologie come i deepfake generano immagini, video e audio manipolati, rendendo notizie false ancora più credibili. La produzione di contenuti può avvenire in modo rapido e automatizzato, permettendo la diffusione capillare su larga scala.

Fake news personalizzate e falsi commenti

Inoltre, l’IA personalizza le fake news sfruttando dati personali, adattandole ai bias e interessi degli utenti, e sfrutta algoritmi di piattaforme social per massimizzarne la visibilità, favorendo la viralità di contenuti sensazionalistici.

A questo si aggiunge la capacità di generare commenti e discussioni false tramite bot automatizzati, rendendo la disinformazione più credibile. Queste tecniche rendono le fake news sempre più sofisticate e difficili da rilevare, amplificando i rischi sociali, politici e culturali associati alla diffusione di informazioni false.

Tali difficoltà di rilevazione delle fake news si riverberano, in particolare, sulle società che si occupano di informazione, come TV, radio ed editori, poiché pongono una sfida significativa nella consultazione delle fonti e nella selezione delle notizie. Questo problema non solo rallenta i processi editoriali, ma aumenta anche il rischio di diffondere contenuti inaccurati, compromettendo la fiducia del pubblico. Inoltre, gli stessi utenti incontrano difficoltà nel distinguere informazioni affidabili da quelle fuorvianti, amplificando il problema a livello sociale e culturale.

L’IA nella lotta alla disinformazione

Cionondimeno, l’IA si è altresì dimostrata un utile supporto per la lotta alla disinformazione, avendo il potenziale di diventare una risorsa fondamentale per promuovere la diffusione di informazioni corrette e affidabili.

In tal senso, sono sorti alcuni progetti che prevedono l’impiego dell’IA a beneficio della società, aiutando a contrastare il fenomeno delle fake news e della disinformazione nell’Unione Europea. Grazie all’integrazione tra tecnologie avanzate e competenze umane, è risultato possibile creare con l’AI un sistema ibrido in cui l’intelligenza artificiale supporta il lavoro dei fact-checker, migliorando l’efficienza del monitoraggio delle informazioni.

In un mondo in cui la quantità di contenuti online cresce a ritmi vertiginosi, individuare rapidamente segnali di disinformazione, come fonti inaffidabili e nuove narrazioni, è una sfida impossibile da affrontare con le sole risorse umane. Qui entra in gioco l’IA, che permette di monitorare in tempo quasi reale i contenuti pubblicati su numerosi canali, inclusi social media e fonti tradizionali, analizzando testo, immagini e audio in più lingue. E, più in particolare, parliamo di sistemi che, una volta identificati i contenuti potenzialmente rischiosi, li segnalerebbe agli esperti per una revisione accurata. I fact-checker, a loro volta, verificherebbero le informazioni, aggiornando i dati e migliorando continuamente gli algoritmi utilizzati, in un ciclo virtuoso di collaborazione tra uomo e macchina.

L’obiettivo raggiunto sarebbe quello di fornire report affidabili e personalizzati per giornalisti, ricercatori e decisori politici, in modo da prevenire la diffusione incontrollata di disinformazione e promuovere un ambiente informativo più sicuro e trasparente. Grazie a questa sinergia tra tecnologia avanzata e competenze umane, l’IA è in grado di diventare uno strumento essenziale per ristabilire la fiducia nelle informazioni e promuovere un dibattito pubblico più consapevole e informato.

Le misure tecnico-organizzative per le aziende e la lotta alla disinformazione

Consapevole dei rischi correlati alla creazione di contenuti generati artificialmente allo scopo di informare il pubblico, lo stesso legislatore europeo ha previsto l’adozione di alcuni presidi. In particolare, ai sensi dell’art. 50, par. 4, AI Act, i deployer di un sistema di IA che generi testo “allo scopo di informare il pubblico su questioni di interesse pubblico” dovrebbero rendere noto che il testo in questione sia stato generato o manipolato artificialmente.

Tuttavia, il legislatore europeo ha altresì ritenuto di esonerare dall’obbligo di trasparenza il deployer di un sistema di IA che, nel generare testo allo scopo di informare il pubblico, abbia adottato misure di sorveglianza umana sul contenuto generato artificialmente ovvero di controllo editoriale e una persona fisica o giuridica detenga la responsabilità editoriale della pubblicazione del suddetto contenuto.

Pertanto, se da un lato sembra potersi affermare la centralità dei presidii di trasparenza, revisione umana e controllo editoriale, dall’altro lato residuerebbero ulteriori misure da adottare, a livello aziendale, per contrastare il dilagare di fake news.

Nel solco di quanto sopra anticipato, al fine di contrastare efficacemente la disinformazione e scongiurare i rischi connessi ad essa, il suggerimento concreto che è possibile fornire alle aziende rimane quello di adottare dunque una serie di misure mirate che combinino tecnologie avanzate, formazione del personale e collaborazioni strategiche, quali:

Implementazione di processi di verifica interna basati su strumenti di IA avanzata

Le aziende possono integrare strumenti di intelligenza artificiale avanzata nei loro processi interni per monitorare e filtrare le informazioni prima della pubblicazione. Questi strumenti, basati su modelli di linguaggio naturale (cd. NLP), algoritmi di machine learning e tecnologie di analisi multimodale (testo, immagini e audio), sono in grado di rilevare contenuti manipolati o potenzialmente ingannevoli in tempo quasi reale.

Tali sistemi di IA possono esaminare l’affidabilità delle fonti citate nei contenuti, verificando se provengono da siti riconosciuti per la diffusione di fake news. Gli algoritmi avanzati identificano schemi ricorrenti, incongruenze o toni sensazionalistici nei testi e nei media visivi, segnalando contenuti a rischio per un controllo umano.

Inoltre, prima che un contenuto venga diffuso su siti aziendali o piattaforme social, l’IA può valutarne l’accuratezza e suggerire modifiche o approfondimenti.

Questi processi riducono il rischio di diffondere informazioni errate, ottimizzando il lavoro delle redazioni interne e fornendo strumenti di verifica automatica sempre più sofisticati.

Investimento nella formazione del personale con programmi di alfabetizzazione mediatica

L’adozione di strumenti tecnologici deve essere accompagnata da un forte investimento sulla formazione del personale aziendale. Programmi dedicati all’alfabetizzazione mediatica possono migliorare sensibilmente la capacità dei fact-checkers di monitorare l’attività svolta dalla macchina di individuazione e segnalazione di contenuti manipolati o disinformativi.

Le aziende potrebbero attuare:

  • Corsi di alfabetizzazione sull’IA in generale e sulla sua applicazione in campo giornalistico;
  • Corsi di formazione continua, quali sessioni periodiche per aggiornare il personale sulle nuove tecniche di disinformazione, incluse manipolazioni visive, deepfake e fake news testuali.
  • Simulazioni pratiche, basate su scenari realistici in cui i dipendenti imparano a riconoscere contenuti ingannevoli attraverso esempi concreti.
  • Corsi di formazione per il corretto uso di strumenti di fact-checking e di piattaforme affidabili di verifica delle notizie o software proprietari basati su IA.

L’alfabetizzazione mediatica aiuta a costruire una cultura aziendale più attenta alla qualità delle informazioni condivise, riducendo il rischio di errori nella comunicazione.

Collaborazione con organismi indipendenti di fact-checking

La collaborazione dell’azienda con enti esterni specializzati nel fact-checking rappresenta un ulteriore pilastro nella lotta contro la disinformazione.

Gli organismi indipendenti, come associazioni di giornalismo investigativo o agenzie di verifica accreditate, possono supportare le aziende nella validazione delle informazioni e nell’identificazione delle fonti affidabili. Stabilire partnership formali con organizzazioni certificate per garantire un controllo periodico dei contenuti pubblicati può allora risultare cruciale.

Inoltre, le aziende potrebbero anche valutare la partecipazione a progetti collaborativi promossi da enti di fact-checking a livello internazionale, contribuendo a sviluppare metodologie condivise contro le fake news.

Questo assetto collaborativo consentirebbe alle aziende di ottenere un ulteriore livello di verifica, migliorando la trasparenza e la credibilità dei contenuti diffusi.

Integrazione di API di verifica nei sistemi digitali aziendali

Le aziende potrebbero valutare l’integrazione di API dedicate alla verifica automatizzata dei dati e delle informazioni nei loro sistemi digitali, traendo vantaggio sia dalla semplificazione che l’utilizzo di protocolli standardizzati comporta lato implementazione e interoperabilità sia dalla tipologia di soluzione (aumento dell’efficienza operativa, riduzione degli errori umani e la capacità di adattarsi efficacemente al carico di lavoro, particolarmente utile quando vi sia la necessità di dover trattare grossi volumi di dati ed informazioni).

Promozione di standard di trasparenza nel trattamento dei dati e delle informazioni

Adottare standard elevati di trasparenza appare fondamentale per contrastare la disinformazione e promuovere la fiducia del pubblico nei confronti delle informazioni fornite dall’azienda. La trasparenza riguarda sia il modo in cui i contenuti vengono creati che il trattamento dei dati utilizzati per elaborarli. È, infatti, possibile che all’interno di articoli o video siano presenti dati personali (quali: nomi, cognomi, immagini, informazioni anche particolari sui soggetti, pubblici o meno pubblici, cui le notizie fanno riferimento), nonché che vengano riportati dati personali degli stessi fact-checkers o di coloro che si siano occupati in prima battuta del caricamento.

Le misure aziendali chiave

Tra le misure aziendali chiave di cui si suggerirebbe l’implementazione:

  • Dichiarare le fonti: ogni contenuto pubblicato dovrebbe includere riferimenti chiari e verificabili alle fonti utilizzate.
  • Etichettare i contenuti generati dall’IA: quando vengono usati strumenti automatizzati per produrre testi, immagini o video, è importante indicarlo chiaramente, non solo per obbligo di legge (come previsto dallo stesso Regolamento europeo sull’IA), ma anche per evitare ambiguità.
  • Audit periodici dei dati: garantire che i processi di raccolta e analisi dei dati aziendali seguano protocolli etici e trasparenti, prevenendo manipolazioni e distorsioni.
  • Comunicazione verso l’esterno: creare policy aziendali che promuovano la responsabilità dell’azienda nell’elaborare le informazioni e verificarle, nonché diffondere tali documenti di policy sia internamente che esternamente.
  • Adottare policy di privacy by design, che garantiscano la valutazione di progetti che implichino un trattamento di dati personali.
  • Valutare eventuali rischi privacy dei trattamenti eventualmente svolti mediante IA. Effettuare valutazioni di impatto ai sensi dell’art. 35 del Regolamento Generale europeo sulla Protezione dei Dati personali (“GDPR”) in caso di rischio residuo alto o di un trattamento che comporti un monitoraggio sistematico, o anche totalmente automatizzato.
  • Adottare misure organizzative (quali informative e policy per la gestione dei dati e l’informazione degli interessati, registro dei trattamenti, etc.) e tecniche adeguate anche ai sensi dell’art. 32 GDPR.

Un ruolo attivo per le aziende nella lotta alla disinformazione

In conclusione, le aziende possono assumere un ruolo attivo nella lotta alla disinformazione, attraverso:

  • l’implementazione di processi avanzati di verifica,
  • la formazione continua del personale,
  • collaborazioni con organismi indipendenti,
  • l’integrazione di API di verifica nei sistemi digitali aziendali, e
  • l’adozione di standard di trasparenza,

Questo approccio integrato permette di garantire la diffusione di informazioni affidabili, proteggendo l’integrità della comunicazione aziendale e contribuendo a un ambiente informativo più sicuro e trasparente, contribuendo, a ben vedere, a contrastare la disinformazione, ma soprattutto a rafforzare la reputazione dell’azienda, creando un rapporto di fiducia con il pubblico e gli stakeholder.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Social
Video
Agevolazioni
A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
Quadri regolamentari
Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
Coesione
Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
Dossier
Pubblicato il long form PO FESR 14-20 della Regione Sicilia
Iniziative
400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
Formazione
“Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
TRANSIZIONE ENERGETICA
Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
Formazione
“Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
MedTech
Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Agevolazioni
A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
Quadri regolamentari
Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
Coesione
Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
Dossier
Pubblicato il long form PO FESR 14-20 della Regione Sicilia
Iniziative
400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
Formazione
“Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
TRANSIZIONE ENERGETICA
Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
Formazione
“Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
MedTech
Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4