intelligenza artificiale

Ghiglia: “Pericolo deepfake, è l’ora dell’educazione civica digitale”



Indirizzo copiato

Il DSA rappresenta un importante passo avanti nella lotta contro i deepfake e la disinformazione online ma la sua efficacia dipenderà da un approccio coordinato che includa leggi rigorose, collaborazione internazionale, responsabilità delle aziende e educazione degli utenti. Solo così si potrà costruire un ambiente digitale sicuro e affidabile

Pubblicato il 25 mar 2024

Agostino Ghiglia

Componente del Garante per la protezione dei dati personali



Businesswoman,Pressing,Smiley,Face,Touch,Screen,.,Business,Service,Satisfaction

L’evoluzione delle tecnologie legate all’intelligenza artificiale generativa, come i deepfake, ha portato l’Unione Europea a prendere misure concrete per tutelare i suoi cittadini cercando di garantire un ambiente digitale sicuro e trasparente. Una di queste misure è il Digital Service Act (DSA): il Regolamento che mira a regolamentare i servizi digitali e le piattaforme online operanti nell’UE.

Ma da solo non basterà a creare un ambiente online sicuro per tutti: perché ciò avvenga serve uno sforzo collettivo, che coinvolga le aziende e le istituzioni educative, con anche l’inserimento dell’educazione civica digitale come materia di studio fin dal primo ciclo scolastico.

Ma andiamo per gradi, partendo dagli sforzi legislativi compiuti dalla Ue.

Gli obblighi del DSA per le piattaforme online

Il DSA impone una serie di obblighi alle piattaforme online con particolare riferimento, tra gli altri, alla rimozione di contenuti illegali, alla trasparenza sulla profilazione, alla protezione dei diritti fondamentali degli utenti, alla trasparenza delle operazioni di pubblicità online e alla previsione di misure atte a prevenire la diffusione di disinformazione.

Proprio per quanto riguarda il contrasto al deepfake operato sulla base del DSA, nelle scorse settimane l’Unione Europea ha inviato alle principali piattaforme come Bing, Google Search, Facebook, Instagram, Snapchat, TikTok, YouTube e X, una richiesta di informazioni per conoscere quali misure esse abbiano adottato al fine di attenuare i rischi di un uso “malevolo” dell’IA generativa; misure utili per identificare, segnalare e rimuovere contenuti falsificati che possano causare danno agli utenti o alla società. Da ciò si deduce che le piattaforme dovrebbero dotarsi di maggiori di strumenti per la rilevazione dei deepfake, la verifica delle fonti e la promozione di una maggiore trasparenza riguardo la natura artificiale dei contenuti.

L’iniziativa dell’UE rappresenta un passo sicuramente importante, anche se non risolutivo, rispetto alle crescenti dimensioni del mercato dell’IA generativa che interessa migliaia di aziende, di Start up e di creators oltre, ovviamente, ai giganti della tecnologia. Tale panorama, crescente e variegato, rende particolarmente complesso, per i regolatori, monitorare e conoscere il mercato al fine di poter mitigare efficacemente i rischi associati ai deepfake e ad altre applicazioni dell’IA generativa.

Gli esempi più evidenti dei rischi dei deepfake

Alcuni esempi del passato risultano ancora oggi paradigmatici per evidenziare i pericoli potenziali che i deepfake possono rappresentare. Un caso noto, ormai preistorico visto che risale al 2018, è quello di un video fake, creato dall’attore e regista Jordan Peel per evidenziare i rischi della tecnologia deepfake che ebbe quale protagonista l’allora presidente degli Stati Uniti, Barack Obama. Sebbene fosse inteso all’epoca come una, preveggente, esercitazione educativa, il video dimostra, peraltro senza preoccupare troppo né gli esperti né tantomeno la popolazione,come i deepfake potessero già all’epoca essere utilizzati anche per creare messaggi politici ingannevoli o dannosi.

Un altro esempio famoso, del lontano 2019, è rappresentato dal video fake del CEO di Facebook, Mark Zuckerberg (ai tempi ancora al centro dello scandalo Cambridge Analytica) che recitava: “Devo tutto a Spectre, Spectre mi ha mostrato che chiunque controlla i dati controlla il futuro”. Il video, sebbene falso, sollevò qualche reazione e preoccupazione in più relativamente alla privacy, alla fiducia nelle Tech Companies e al loro potere. Un fake, in questo caso, in cui la parte realmente fake è la famigerata società criminale già nemica di 007, la Spectre, mentre è un dato che Meta-e gli altri Gatekeepers-abbia a disposizione (e, di fatto, controlli) da anni, tramite diversi livelli di profilazione, miliardi e miliardi di dati relativi a parti considerevoli della vita pubblica dei suoi utenti e che grazie ad essi abbia sviluppato un business enorme i cui sviluppi futuri non sono ancora noti.

Di fake in fake siamo arrivati ai giorni nostri con le finte telefonate del presidente Joe Biden agli elettori del New Hampshire e non si contano più le campagne di diffamazione tramite video deepfake o l’uso delle loro cugine, le fake news, con impatti devastanti sulla reputazione e la sicurezza personale delle vittime. Un fatto appare assodato: il deepfake, da attacco isolato a fini umoristici, si sta trasformando in un fenomeno di massa, utilizzato per incastrare o diffamare personaggi in vista e dissidenti ma presto potrebbe entrare nelle nostre case, diffondersi tra la gente comune e, trasformandosi in deepnude e non solo, andare a minare i diritti umani, la libertà di espressione, la privacy delle persone.

Cosa serve per porre freno al problema crescente dei deepfake

A mio avviso per porre freno al problema crescente dei deepfake occorre un approccio dinamico e adattabile, una visone nuova e poliedrica della Società e, per quanto possibile, del Diritto, che veda coinvolte tutte le parti in gioco. Occorre un quadro normativo “flessibile”, una cooperazione tra il settore privato e le autorità regolatorie passando per un’essenziale ed efficace collaborazione internazionale. Quello del deepfake, infatti, è un fenomeno globale (come tutto nell’era digitale)che non conosce confini e, quindi, le risposte devono essere coordinate a livello internazionale. Qualunque altra iniziativa rischia di risultare parziale e inadeguata.

Sviluppo e la standardizzazione di tecnologie di watermarking digitale

Anche lo sviluppo e la standardizzazione di tecnologie di watermarking digitale, che possano certificare l’autenticità di un video o di un’immagine potrebbe rappresentare un aiuto contro il deepfake ma una diffusione sistematica e organizzata su larga scala appare, allo stato, decisamente problematica.

Consapevolezza digitale nei curricoli scolastici

Il contrasto al deepfake, come già ribadito in altre occasioni ha, inoltre, come presupposto l’istruzione e la formazione pubblica ancorché in una -indispensabile a mio avviso- dimensione prospettica. Campagne di sensibilizzazione e programmi educativi di ampio respiro sul nuovo mondo digitale, possono aiutare le persone che matureranno una nuova consapevolezza, anche a riconoscere i contenuti deepfake. Ciò include l’integrazione della consapevolezza digitale nei curricoli scolastici e la promozione di iniziative di alfabetizzazione mediatica. Misure eccessive? Forse, ma se si vanno a scandagliare, sui motori di ricerca e sulle app, gli strumenti troppo semplici e alla portata di tutti con cui si può realizzare il deepfake, non possiamo non dirci preoccupati.

Collaborazione tra legislatori, le piattaforme, esperti di sicurezza e società civile

Se, quindi, il Digital Service Act segna un passo significativo verso la regolamentazione dei servizi digitali e la mitigazione dei rischi associati ai deepfake, per attuare iniziative veramente efficaci, in aggiunta, la UE -tramite il DSA-dovrà operare un monitoraggio costante e perseguire un adattamento delle politiche in materia, per rispondere adeguatamente all’evoluzione della tecnologia e delle tattiche di disinformazione. Tutto ciò richiede una collaborazione stretta tra i legislatori, le piattaforme tecnologiche, gli esperti di sicurezza informatica e la società civile ed è importante che tale processo sia trasparente e mediaticamente diffuso.

Data la natura transnazionale sopracitata di Internet e delle piattaforme digitali, inoltre, è fondamentale che l’UE si impegni a livello globale in favore dello sviluppo di standard e normative comuni. Solo l’armonizzazione delle leggi e delle pratiche regolatorie a livello globale può prevenire la creazione di “paradisi digitali” dove i creatori di deepfake operino indisturbati.

Collaborazione proattiva delle aziende

Un altro pilastro fondamentale nella lotta contro il deepfake è la collaborazione proattiva delle aziende. Oltre a conformarsi alla legislazione, le piattaforme e le aziende tecnologiche dovrebbero assumersi la responsabilità etica di combattere i deepfake e altre forme di disinformazione. Tali attività dovranno includere investimenti in tecnologie di rilevamento che rendano più rigorosi i processi di verifica e offrano maggiore supporto alle vittime di disinformazione.

Educazione degli utenti

Non meno importante, poi, è l’educazione degli utenti. Una società ben informata è la miglior difesa contro i deepfake e la disinformazione. Tanto banale quanto difficile da realizzare. Occorrerebbe promuovere massive campagne di informazione dei cittadini non solo e non tanto per aiutarli a riconoscere i contenuti falsificati ma soprattutto a comprendere le implicazioni etiche e sociali delle tecnologie basate sull’IA. Le campagne di sensibilizzazione dovrebbero puntare a costruire una cultura digitale basata sullo scetticismo costruttivo, l’etica e la responsabilità individuale.

La necessità di bilanciare controlli e libertà di espressione

Il Digital Service Act rappresenta un importante passo avanti nella lotta contro i deepfake e la disinformazione online ma la sua efficacia dipenderà da un approccio coordinato che includa leggi rigorose, collaborazione internazionale, responsabilità delle aziende e educazione degli utenti. Solo attraverso uno sforzo collettivo e multidimensionale è possibile sperare di affrontare le sfide poste dai deepfake e costruire un ambiente digitale sicuro e affidabile per tutti.

In questo contesto, è essenziale sottolineare che qualsiasi meccanismo di controllo e verifica introdotto per combattere la diffusione di deepfake e disinformazione deve essere attentamente bilanciato per rispettare la libertà di parola e di pensiero. La regolamentazione non dovrebbe diventare un pretesto per la censura o la limitazione ingiustificata del dibattito pubblico. La libertà di espressione è un pilastro fondamentale delle società democratiche e qualsiasi iniziativa volta a garantire la sicurezza digitale deve tutelare questo diritto, garantendo al contempo che l’informazione diffusa non sia dannosa o ingannevole.

L’importanza dell’educazione civica digitale

Qual è, prodromicamente a quanto detto sopra, il presupposto non solo della lotta al deepfake ma, più in generale, dello sviluppo di nuovi modelli di “onlife” atti a supportare noi e le prossime generazioni nell’era della rivoluzione digitale? A mio avviso l’assunto, già più volte ribadito, è che l’educazione civica digitale debba essere inserita come materia di studio fin dal primo ciclo scolastico. In un’era caratterizzata da rapidi cambiamenti tecnologici e dalla pervasività dei media digitali, è cruciale che le giovani generazioni siano cresciute non solo con le competenze tecniche necessarie per navigare nel mondo digitale ma anche educate ad un approccio critico che le renda capaci di valutare le informazioni e le fonti in modo indipendente e consapevole.

L’educazione civica digitale non dovrebbe limitarsi all’uso sicuro e responsabile della tecnologia ma dovrebbe anche includere una comprensione profonda dei diritti digitali, delle questioni etiche e degli impatti sociali delle tecnologie emergenti. Educando e istruendo sin dalla tenera età, possiamo sperare di formare cittadini informati, responsabili e critici, in grado di affrontare opportunità e insidie dell’era digitale.

Conclusioni

Concludendo, mentre il Digital Service Act e altre iniziative legislative sono passi importanti che vanno nella giusta direzione, il successo nella lotta contro i deepfake e la disinformazione e, più in generale, la creazione di una sensibilità collettiva nei confronti dell’era digitale, richiederà un impegno collettivo che vada oltre la mera regolamentazione. Un approccio che integri il rispetto per la libertà di espressione, la cooperazione internazionale, la responsabilità aziendale e, soprattutto, l’educazione civica digitale, per costruire una società più resiliente e informata. Deep fight vs Deep fake insomma.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2