la guida

Difendersi dai deepfake: rischi, tecniche di verifica e prevenzione



Indirizzo copiato

I deepfakes rappresentano una minaccia crescente alla sicurezza digitale e alla privacy, con impatti rilevanti in vari settori, dalla politica alla finanza, minando la fiducia pubblica e la protezione dei dati personali

Pubblicato il 2 apr 2025

Francesca Gaudino

Partner, Head of Data Privacy & Security presso Baker McKenzie Italia

Leonardo Lazzaro

Baker McKenzie



deepfake (1)

I deepfakes sono contenuti digitali manipolati, generati tramite intelligenza artificiale, che rappresentano una crescente minaccia per la sicurezza digitale.

Con implicazioni che spaziano dalla politica alla finanza, i deepfake mettono in discussione la veridicità delle informazioni online e pongono nuove sfide in termini di protezione dei dati personali e difesa contro la disinformazione.

La tecnologia dietro ai Deepfake: come vengono creati e come ci protegge la legge

Negli ultimi mesi, l’intelligenza artificiale sta ridefinendo il panorama della cybersecurity, rivelandosi al contempo sia uno strumento di difesa efficace sia una potenziale minaccia. Se da un lato fornisce strumenti avanzati per contrastare gli attacchi informatici, dall’altro apre la strada a nuove criticità e vulnerabilità, come dimostra l’ascesa dei deepfake: illusioni sofisticate generate dall’intelligenza artificiale, un tempo semplice curiosità nel campo della manipolazione digitale, oggi una sfida concreta e insidiosa.

I deepfake e la sicurezza digitale

I deepfake sono contenuti sintetici o manipolati digitalmente che sono stati alterati in modo da rappresentare o impersonare in maniera convincente qualcuno o qualcosa. Essi sollevano problematiche di rilievo riguardanti la sicurezza dei dati, la privacy e i diritti di proprietà intellettuale. Difatti, quando questa tecnologia viene utilizzata in modo improprio, può causare fughe di dati personali e l’utilizzo non autorizzato dell’immagine di una persona per scopi commerciali o di lucro.

Eguide

Sveliamo la potenza della Crittografia Quantistica: tutti i segreti per proteggere la tua azienda!

Gestione Dati
Backup

L’uso dei deepfakes nella disinformazione

I deepfakes si sono affermati come uno strumento potente nella diffusione di misinformation e disinformation, ponendo una sfida di rilievo per la società contemporanea: questa tecnologia sfuma il confine tra realtà e finzione, generando contenuti falsi di straordinario realismo, in grado di costruire narrazioni persuasive e influenzare l’opinione pubblica. Attori malintenzionati possono infatti utilizzare i deepfakes per rappresentare persone nell’atto di dire o fare cose che in realtà non hanno mai detto o fatto e la diffusione di questi strumenti preoccupa anche nel contesto del cosiddetto revenge porn: celebre il caso del video hard in cui il volto della protagonista era stato sostituito, grazie a specifici software basati sull’AI, con quello della Presidente del Consiglio.

La rapida diffusione di questi contenuti, spesso sensazionalistici, cattura l’attenzione del pubblico e genera un impatto mediatico significativo. A titolo esemplificativo, abbiamo tutti assistito alle recenti elezioni presidenziali statunitensi, durante le quali sono circolati video falsi estremamente realistici, rappresentando candidati politici in situazioni o dichiarazioni mai avvenute, con l’obiettivo di manipolare l’opinione pubblica e influenzare l’esito elettorale.

La crescita esponenziale dei deepfake sui social media rende sempre più difficile contenere la diffusione di informazioni false. Questi contenuti vengono creati appositamente per sfruttare le vulnerabilità di individui o organizzazioni e l’aumento della sofisticazione tecnologica rende sempre più complesso individuare e smascherare i contenuti manipolati. Questa tecnologia può infatti colpire chiunque e infiltrarsi in qualsiasi settore. Nei settori medico e finanziario, ad esempio, emergono preoccupazioni legate alla possibilità di falsificazione di cartelle cliniche, alterazione di documentazione medica esistente, furto di identità e creazione di procedure di verifica dell’identità fraudolente.

L’uso dei deepfakes per attacchi fraudolenti

Ciononostante, i deepfakes rappresentano l’espressione di un impulso umano tutt’altro che nuovo: sfruttare ogni innovazione tecnologica, per quanto promettente, con l’obiettivo di ottenere vantaggi illeciti. Se da un lato questa capacità apre scenari innovativi per il settore dell’intrattenimento, della formazione o della pubblicità, dall’altro offre strumenti pericolosi per chi intende ingannare. In ambito aziendale, ad esempio, i deepfakes possono essere utilizzati per orchestrare frodi elaborate, come truffe ai danni di dirigenti attraverso video o audio contraffatti che sembrano provenire da figure autorevoli, inducendo così a trasferimenti di fondi o alla divulgazione di informazioni riservate.

Deepfake e reputazione aziendale

Oltre al rischio economico, l’utilizzo illecito dei deepfake minaccia anche la reputazione delle aziende, poiché la diffusione di contenuti manipolati può danneggiare l’immagine di un marchio o influenzare negativamente la percezione pubblica. In questo contesto, la sfida legale e tecnologica diventa quella di individuare e prevenire tali abusi, bilanciando l’innovazione con la necessaria tutela dei diritti individuali e collettivi. Studi recenti nei contesti aziendali mostrano come le frodi deepfake aumentino esponenzialmente di anno in anno, mentre si stima che le frodi basate sulla voce rappresentino perdite annuali per 25 miliardi di dollari. In tale contesto, emerge anche che un numero cospicuo di aziende non sia preparato a questo tipo di attacco, in quanto non vengono ancora stabiliti protocolli e linee guida per affrontare gli attacchi deepfake.

La truffa del falso Crosetto

Da ultimo, nel panorama nazionale, la truffa del “falso Crosetto” ha rappresentato un chiaro esempio delle nuove minacce digitali. Attraverso l’utilizzo di avanzate tecnologie di intelligenza artificiale, un gruppo di cybercriminali ha replicato la voce del Ministro della Difesa per ingannare noti imprenditori italiani con richieste di fondi destinate a presunti riscatti di giornalisti rapiti. Questo episodio non solo evidenzia l’evoluzione delle tecniche di deepfake vocale, ma sottolinea quanto queste minacce possano colpire chiunque, andando oltre le vittime di alto profilo.

Del resto, le minacce più grandi sono spesso quelle che ignoriamo o minimizziamo: da questo si ricava un dato moto importante, ossia la difficoltà nel riconoscere tempestivamente i pericoli più insidiosi, soprattutto quando si presentano sotto forme nuove e complesse.

Pertanto, il primo passo da intraprendere è (ri)conoscere la minaccia.

Truffe d’investimento con deepfake

Una delle più recenti e insidiose evoluzioni di questa tecnologia è rappresentata dalle truffe d’investimento con deepfake. Questa tecnica utilizza l’intelligenza artificiale per generare video contraffatti in cui celebrità, leader aziendali o esperti finanziari appaiono falsamente intenti a promuovere opportunità di investimento fraudolente. Il meccanismo è articolato e si compone di diverse fasi: i truffatori partono da filmati autentici di personaggi noti, estratti da interviste o apparizioni pubbliche, per poi manipolarli attraverso algoritmi di deep learning in grado di riprodurre fedelmente espressioni facciali, voce e movimenti labiali.

Questi video artefatti vengono poi diffusi in massa sui social media, raggiungendo un vasto pubblico con una rapidità impressionante. Il vero inganno si consuma quando le vittime, convinte dalla presunta autorevolezza del testimonial, cliccano su link che le indirizzano a piattaforme finanziarie contraffatte, dove, una volta trasferito il denaro, scoprono di essere state truffate. Questo fenomeno si basa sull’effetto alone, un bias cognitivo che induce le persone a riporre fiducia in figure influenti senza mettere in discussione l’autenticità del messaggio. Il pericolo è accentuato dall’estremo realismo di questi contenuti e dalla rapidità con cui si diffondono online, rendendoli una delle minacce finanziarie più insidiose e rilevanti dello scorso anno.

Tecnologie deepfake e la loro evoluzione

Attualmente, le tecniche di deepfake più avanzate si basano su modelli di intelligenza artificiale evoluti, come le Generative Adversarial Networks (GANs) e le architetture transformer multimodali, che integrano elaborazione del linguaggio, generazione vocale e manipolazione video con un livello di precisione sempre più elevato.

Tra le innovazioni più rilevanti, emerse anche negli esempi sopra citati, si trovano il face reenactment, che trasferisce le espressioni facciali da un volto a un altro in tempo reale, e il voice cloning, capace di replicare una voce con pochi secondi di registrazione mantenendo accenti e inflessioni originali. Tecniche di full-body deepfake animation permettono di falsificare anche i movimenti corporei, mentre i modelli di lip-sync deepfake adattano i movimenti labiali a una traccia audio, generando discorsi interamente falsificati ma incredibilmente realistici. Infine, i real-time deepfakes che consentono di applicare una maschera deepfake in diretta, creando rischi concreti per la sicurezza in ambiti come videoconferenze aziendali o sistemi di autenticazione biometrica.

Mentre una tecnologia così avanzata può facilmente ingannare la maggior parte degli spettatori o degli ascoltatori umani, l’intelligenza artificiale stessa si rivela un formidabile alleato nella lotta ai deepfakes. Ma un approccio ibrido è quello che promette di più.

Strategie di rilevamento dei deepfake

Negli Stati Uniti, il Federal Bureau of Investigation ha di recente messo in guardia aziende e cittadini fornendo delle raccomandazioni preziose. Innanzitutto, risulta fondamentale osservare le impercettibili imperfezioni in immagini e clip, come volti indistinti oppure irregolari, occhi e denti poco realistici. Per quanto invece riguarda gli audio deepfakes, è importante ascoltare con attenzione il tono della voce e la scelta delle parole del proprio interlocutore. Ancora, è fondamentale monitorare l’eventuale richiesta di azioni sensibili, come la predisposizione di un bonifico bancario.

Per queste attività, modelli di intelligenza artificiale addestrati in modo efficace possono fornirci un grande supporto, individuando anomalie minime — spesso impercettibili all’occhio o all’orecchio umano — che segnalano la presenza di contenuti sintetici. Questi segnali possono manifestarsi sotto forma di piccole aree sfocate in un’immagine, variazioni di tonalità della pelle tra fotogrammi consecutivi o rumori di fondo anomali in brevi frammenti audio.

Tuttavia, i risultati più efficaci e precisi si ottengono con un approccio multimodale, che analizza simultaneamente immagini, suoni, voci e testi. Questo metodo si dimostra altamente accurato, riducendo il rischio di falsi positivi e mantenendo buone prestazioni anche in contesti reali, dove rumori ambientali e cali di qualità possono rendere più difficile l’identificazione dei contenuti manipolati.

Naturalmente, la tecnologia deepfake si evolve rapidamente e i sistemi di rilevamento multimodale richiedono un’elevata potenza computazionale, soprattutto quando devono elaborare dati in tempo reale, come nel caso delle videochiamate. Nonostante queste sfide, tali strumenti offrono alle aziende una difesa efficace contro attacchi fraudolenti in contesti critici, come i call center, e permettono di gestire con maggiore efficacia la moderazione dei contenuti, bloccando contenuti falsi che possono compromettere la reputazione aziendale.

Gli attacchi tramite deepfakes possono verificarsi in qualsiasi momento. Per questo motivo, i sistemi di rilevamento devono essere sempre attivi e pronti a intervenire. Con il progresso delle tecniche di manipolazione, diventa essenziale mantenere i modelli di rilevamento aggiornati per anticipare le evoluzioni della minaccia. Occorre poi evidenziare che molte soluzioni basate su modelli linguistici di grandi dimensioni (LLM) si concentrano principalmente sull’inglese. Tuttavia, in un panorama globale, è fondamentale che questi sistemi siano in grado di riconoscere e analizzare contenuti in più lingue per garantire una protezione completa.

L’approccio ibrido contro i deepfake

Come si accennava in precedenza, un approccio ibrido è quello più promettente. Difatti, l’intelligenza artificiale offre un supporto potente nella lotta ai deepfakes, accelerando il monitoraggio e permettendo una protezione in tempo reale di chiamate vocali e video. Tuttavia, non può operare in modo completamente autonomo. La valutazione umana rimane essenziale per gestire scenari complessi, questioni etiche o interpretazioni culturali specifiche. La sinergia tra tecnologia e giudizio umano è fondamentale per un rilevamento efficace e consapevole.

La responsabilità dei social nella diffusione dei deepfake

Per quanto invece riguarda i contenuti deepfake che vengono pubblicati nelle piattaforme social, quest’ultime dovrebbero rivalutare e rafforzare il loro impegno nella rilevazione e rimozione proattiva dei contenuti dannosi, in particolare quelli relativi a truffe e furti d’identità, soprattutto nelle regioni altamente vulnerabili.

Il passaggio a un modello di applicazione reattivo, sebbene potenzialmente in grado di responsabilizzare gli utenti, comporta rischi significativi, soprattutto quando si ha a che fare con deepfakes complessi. Difatti, affidarsi principalmente alle segnalazioni degli utenti e alle note della community per contenuti che sfruttano le vulnerabilità economiche e manipolano gli individui pone un onere indebito sugli utenti e può comportare un’azione ritardata, causando danni sostanziali nel frattempo.

Le piattaforme social, dunque, dovrebbe reinvestire e migliorare le rispettive tecnologie di rilevamento proattivo basate sull’intelligenza artificiale, specificamente studiate per identificare i deepfakes, concentrandosi sulle anomalie visive e uditive, sull’analisi contestuale e sulle tattiche di truffa note. Questo approccio proattivo dovrebbe essere prioritario per le categorie di contenuti ad alto potenziale di danno, come le truffe finanziarie, e dovrebbe essere mirato geograficamente verso le regioni note per essere colpite in modo sproporzionato da tali attività, garantendo che le popolazioni vulnerabili ricevano un’adeguata protezione. In secondo luogo, per integrare i progressi tecnologici, le piattaforme dovrebbero migliorare in modo significativo la formazione e le risorse assegnate ai rispettivi revisori dei contenuti online.

Il ruolo dei revisori umani

Sebbene gli strumenti di rilevamento alimentati dall’intelligenza artificiale siano fondamentali, essi non sono infallibili e spesso faticano a cogliere le sottili sfumature della tecnologia deepfake e il contesto culturale in cui operano le truffe: i revisori umani, in particolare quelli con competenze regionali, sono dunque essenziali per identificare casi complessi e formulare giudizi informati.

Trasparenza nella moderazione dei contenuti

Inoltre, per promuovere una maggiore trasparenza e responsabilità, le piattaforme dovrebbero migliorare la comunicazione con gli utenti in merito alle decisioni di moderazione dei contenuti, in particolare nei casi di segnalazione di deepfakes. Difatti, gli utenti che segnalano contenuti dovrebbero ricevere aggiornamenti chiari e tempestivi sullo stato delle loro segnalazioni e, qualora il contenuto venisse rimosso, una spiegazione chiara del ragionamento utilizzato.

Raccomandazioni chiave contro i deepfake

Pertanto, tracciando le linee guida essenziali per fronteggiare questa sfida quanto mai attuale, possiamo individuare alcune raccomandazioni chiave: potenziare i sistemi di rilevamento dei deepfakes basati sull’intelligenza artificiale, rafforzare i processi di revisione umana dei contenuti presenti nelle piattaforme, sviluppare strategie di applicazione specifiche per le diverse regioni, inasprire le restrizioni sulla pubblicità ingannevole e migliorare la trasparenza nelle decisioni di moderazione dei contenuti.

Abbiamo constatato che i deepfakes possono presentare segnali rivelatori della loro falsità, ma il continuo progresso tecnologico li rende sempre più complessi, al punto che l’assenza di indizi non offre più alcuna certezza sull’autenticità del contenuto.

Sebbene i deepfakes costituiscano un tema centrale per la legislazione e le future misure di contrasto, le piattaforme social e gli altri gestori di siti web possono già adottare un approccio proattivo, anticipando l’utilizzo di alcune strategie di difesa in vista dei futuri sviluppi, anche normativi, sul fenomeno.

WHITEPAPER

Proteggi la tua azienda: adegua la sicurezza alla direttiva NIS2 e difenditi dagli attacchi!

Sicurezza informatica
Network Security

EU Stories - La coesione innova l'Italia

Tutti
Video & Podcast
Analisi
Social
Iniziative
Podcast
Centro Servizi Territoriali: uno strumento per accompagnare gli enti nell’attuazione della politica di coesione. Il podcast “CapCoe. La coesione riparte dalle persone”
Podcast
EU Stories, il podcast | Politiche di coesione e comunicazione: una sinergia per il futuro
Opinioni
La comunicazione dei fondi europei da obbligo ad opportunità
eBook
L'analisi della S3 in Italia
Norme UE
European Accessibility Act: passi avanti verso un’Europa inclusiva
Agevolazioni
A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
Quadri regolamentari
Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
Coesione
Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
Dossier
Pubblicato il long form PO FESR 14-20 della Regione Sicilia
Iniziative
400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
Formazione
“Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
TRANSIZIONE ENERGETICA
Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
Formazione
“Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
MedTech
Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Podcast
Centro Servizi Territoriali: uno strumento per accompagnare gli enti nell’attuazione della politica di coesione. Il podcast “CapCoe. La coesione riparte dalle persone”
Podcast
EU Stories, il podcast | Politiche di coesione e comunicazione: una sinergia per il futuro
Opinioni
La comunicazione dei fondi europei da obbligo ad opportunità
eBook
L'analisi della S3 in Italia
Norme UE
European Accessibility Act: passi avanti verso un’Europa inclusiva
Agevolazioni
A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
Quadri regolamentari
Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
Coesione
Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
Dossier
Pubblicato il long form PO FESR 14-20 della Regione Sicilia
Iniziative
400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
Formazione
“Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
TRANSIZIONE ENERGETICA
Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
Formazione
“Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
MedTech
Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4