allerta fake news

Elezioni europee: come proteggere la democrazia nell’era dell’IA



Indirizzo copiato

A otto mesi circa al prossimo appuntamento elettorale europeo, è quanto mai necessario un approccio multisettoriale e multilaterale per tutelare la democrazia dai pericoli dell’era digitale. Dalla aziende tech, alla politica fino al mondo della scuola e agli utenti, tutti devono fare la loro parte

Pubblicato il 23 ott 2023

Eleonora Poli

Head of Economic Analysis, Centro politiche europee – Roma (CEP)



Robot,Hand,Selecting,A,Person,Symbol,Out,Of,Many,In

Ormai da anni la proliferazione delle piattaforme social ha rivoluzionato il modo in cui comunichiamo e condividiamo le idee. Aggiungendo ora le potenzialità dell’intelligenza artificiale, essi stanno divenendo strumenti di informazione sempre più potenti, in grado di plasmare l’opinione pubblica. In effetti, come evidenziato dal Reuters Institute, la fiducia dei cittadini nei media tradizionali è molto bassa, mentre cresce la dipendenza dai social media come Meta, Instagram e X come fonti di informazione.

IA, i rischi per le democrazie europee

Secondo uno studio pubblicato recentemente dal Centres for European Policy Network (CEP) – che esamina in particolare la situazioni italiana, francese e tedesca in vista delle elezioni al Parlamento europeo nel maggio 2024 – una profusione di informazioni frammentate e radicalizzate, facilitata dalle tecnologie digitali e canalizzata da singoli attori, partiti o movimenti di natura populista rappresenta una tendenza molto pericolosa, che rischia di minare la stessa tenuta democratica europea.

Pericolo deepfake

Un esempio concreto dei pericoli che l’intelligenza artificiale può generare è rappresentato dalla possibilità di diffondere notizie false tramite immagini o video generati artificialmente, i cosiddetti deepfake. Secondo uno studio del Parlamento europeo, entro il 2026 il 90% dei contenuti online potrebbe essere generato artificialmente, dando quindi potenzialmente ampio spazio alla diffusione di contenuti falsi. Già oggi, comunque, i deepfake sono un problema.

Gli esempi di Ron De Santis e di AFD

Un esempio concreto è rappresento dalla recente campagna presidenziale di Ron De Santis, governatore della Florida, che ha utilizzato immagini false per attaccare il suo rivale Donald Trump. Se è vero che la pratica dei deepfake non è ancora molto diffusa nell’Unione europea, secondo lo studio del CEP questo fenomeno non va sottovalutato.

In Germania, il partito Alternativa per la Germania (AfD) sta già utilizzando immagini generate dall’intelligenza artificiale su piattaforme social come Instagram per creare indignazione sociale o denunciare politiche del governo.

In Italia invece, il problema sembra essere rappresentato maggiormente dagli account fake, che seguono i canali social dei principali rappresentanti politici e che possono condividere e quindi diffondere sotto i loro post informazioni false o di matrice razzista.

Le contromisure

Per far fronte al fenomeno che risulta problematico anche in Francia, il Senato francese sta portando avanti una nuova proposta legislativa per la sicurezza digitale che rende penale la diffusione di immagini di deepfake che coinvolgono persone che non abbiano dato il proprio consenso e rafforza il ruolo dei cittadini nel controllare le informazioni che vengono postate online.

Il Digital Services Act

In questo contesto, Il Digital Services Act (DSA) dell’Unione europea, entrato in vigore nel novembre 2022 è sicuramente uno sviluppo positivo per disciplinare i servizi digitali. In particolare, il DSA stabilisce che ciascun Stato membro dell’Unione Europea deve istituire un proprio organismo regolatore nazionale entro febbraio 2024, incaricato di ricevere le richieste provenienti da enti governativi, organizzazioni non profit, associazioni di settore o aziende che desiderano ottenere lo status di “segnalatori fidati”. Quest’ultimi saranno autorizzati a segnalare direttamente a Meta e ad altre piattaforme social la presenza di contenuti illegali. Tali segnalazioni dovranno essere esaminate senza ritardi ingiustificati dalle piattaforme stesse, che altrimenti rischiano di incorrere in sanzioni pecuniarie fino al 6% del fatturato annuo globale.

I problemi dell’applicazione dei provvedimenti del DSA

Tuttavia, non solo l’implementazione dei provvedimenti previsti dal DSA richiederà del tempo, ma c’è il rischio che un’applicazione inadeguata di tali disposizioni limiti la libertà di espressione dei cittadini. In generale, per il CEP il DSA non è comunque sufficiente a far fronte al fenomeno. La moderazione dei contenuti digitali tramite il factchecking tradizionale da parte delle stesse piattaforme ad esempio è utile solo quando viene fatta costantemente ed in maniera proattiva, cosa impossibile vista la velocità con cui le informazioni vengono prodotte e condivise. Inoltre, lo stesso blocco degli account social responsabili della diffusione di contenuti illegali o falsi è facilmente aggirabile tramite la creazione di account alternativi che possono continuare a promuovere la disinformazione. Occorrono quindi nuove norme europee.

Un regolamento sulla trasparenza delle campagne politiche

Al momento al Parlamento europeo si sta discutendo un regolamento sulla trasparenza delle campagne politiche, che introdurrebbe regole specifiche per rendere pubblico l’utilizzo di contenuti generati artificialmente. Un modello simile verrà implementato da Google stesso che, prima della campagna per le Presidenziali, renderà obbligatorio negli Stati Uniti la pubblicazione di un avviso quando le immagini utilizzate per una campagna politica sono artificiali.

In effetti, perché qualsiasi provvedimento legislativo possa funzionare, serve una forte collaborazione da parte delle istituzioni con il mondo dei privati. Ad esempio, Meta che riviste un ruolo cruciale nella formazione dell’opinione pubblica e del consenso, già impiega una serie di algoritmi avanzati basati sull’IA per individuare e filtrare contenuti fuorvianti o di matrice razzista.

Il delicato equilibrio tran moderazione dei contenuti e libertà di espressione

È però cruciale trovare un equilibrio tra la necessità di filtrare i contenuti e quella di preservare la libertà di espressione, consentendo agli utenti di personalizzare le proprie preferenze entro limiti ragionevoli. Per questo, la moderazione umana e la possibilità per gli utenti di segnalare disinformazione e richiedere etichette per identificare contenuti generati dall’IA o manipolati sono passi cruciali. Similmente, iniziative come la Coalition for Content Provenance and Authenticity (C2PA), una partnership lanciata nel 2021 da aziende come Microsoft o Adobe, per far fronte alla diffusione di informazioni false e per lo sviluppo di standard tecnici atti a certificare le fontidi contenuti online o SynthID strumento progettato per indicare se le immagini sono state generate utilizzando l’IA, sono passi fatti nella giusta direzione che però necessitano  di una maggiore diffusione e di un miglioramento continuo.

Quali soluzioni?

Tuttavia, data la velocità con cui i contenuti vengono creati e diffusi in modo decentralizzato, forme di moderazione tradizionali potrebbero essere non sufficienti. Secondo il CEP, allora occorrerebbe rallentare la trasmissione di contenuti critici o sviluppare forme di “sollecitazione digitale” che spingano gli utenti a leggere anche fonti alternative per diversificare le esperienze online. L’educazione alla cultura digitale rimane inoltre fondamentale per dotare ciascun utente delle competenze digitali necessarie a discernere la disinformazione e i contenuti generati dall’IA. Inoltre, coinvolgere i cittadini nella formulazione delle politiche e nella governance attraverso piattaforme partecipative potrebbe rafforzare le istituzioni democratiche nell’era digitale.

Conclusioni

Ad otto mesi circa al prossimo appuntamento elettorale europeo, serve un approccio multisettoriale e multilaterale per tutelare la democrazia dai pericoli dell’era digitale. Non esiste una soluzione universale, ma occorre una combinazione di misure a contrasto della diffusione di disinformazione, che coinvolga tutte le parti e i settori, dalla tecnologia, alla politica fino all’educazione, chiamando in causa anche gli utenti stessi al fine di promuovere una comunicazione digitale più inclusiva e basata sulla conoscenza; elemento quest’ultimo che sta alla base di ogni democrazia funzionante.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3