Si parla ormai da tempo della disinformazione come problema di grave allarme generale che, su scala planetaria, potrebbe alterare il regolare svolgimento delle procedure elettorali, mettendo, quindi, a rischio la legittimità dei sistemi democratici.
Lo ha già evidenziato, a chiare lettere, il Rapporto annuale “Global Risks 2024” a cura del World Economic Forum, nella parte in cui sottolinea, tra i fattori di instabilità generale, il pericolo concreto di fake news alla luce della crescente propagazione di contenuti propagandistici fuorvianti in grado di radicalizzare la polarizzazione ideologica al fine di destabilizzare la società.
In un momento politico particolarmente delicato a livello globale, sta entrando, infatti, nel vivo un intenso ciclo elettorale per il rinnovo degli organi istituzionali di numerosi Paesi (tra cui, UE e USA), nel corso dei prossimi mesi di un 2024 che potrebbe, quindi, rappresentare un vero e proprio banco di prova per misurare l’effettivo impatto della disinformazione.
Chatbot e disinformazione: rischio fake news nelle prossime elezioni europee
In attesa di verificare concretamente il riscontro di simili preoccupazioni a seconda di quale sarà l’incidenza reale delle fake news, cominciano a circolare svariate ricostruzioni sui possibili scenari che si potrebbero determinare, a maggior ragione considerati gli effetti collaterali amplificati prodotti da sofisticati sistemi di intelligenza artificiale, come variabile inedita da prendere in seria considerazione per comprendere le relative implicazioni del fenomeno.
Al riguardo, ad esempio, è stata riportata la presenza di chatbot in grado di veicolare disinformazione “non intenzionale” in relazione alle prossime elezioni europee, a causa della condivisione, da parte dei modelli tecnologici più popolari, di contenuti informativi imprecisi e non accurati resi noti alla collettività.
L’European Digital Media Observatory sull’incremento delle fake news
Del resto, a riprova dei timori sollevati, anche l’European Digital Media Observatory (EDMO) ha sottolineato la gravità potenzialmente dannosa della disinformazione, come “fenomeno pervasivo” in grado di compromettere i processi elettorali sino a erodere la tenuta dei sistemi democratici vigenti, predisponendo, a tal fine, la stesura di uno specifico report di approfondimento, da cui si evince l’incremento esponenziale delle fake news, talvolta riferibili anche a indebite influenze straniere, con l’intento di inquinare il dibattito pubblico mediante la proliferazione di contenuti polarizzati riguardanti soprattutto i temi maggiormente divisivi per la collettività (ad esempio: guerra in Ucraina, cambiamento climatico, immigrazione, ecc.).
Studio di Democracy Reporting International: come rispondono i chatbot
Di estremo interesse risultano, in tal senso, le rilevazioni dello studio a cura di Democracy Reporting International che, dopo aver sottoposto a una serie di chatbot monitorati, mediante l’uso di un linguaggio semplice basato sulla comprensione di un utente medio, circa 400 domande (formulate in 10 diverse lingue) per ottenere informazioni utili sulla competizione elettorale europea, confermano i medesimi timori paventati (sia pure però con esiti più cauti e meno pessimistici): quando i sistemi di intelligenza artificiale non dispongono di una mole consistente di dati da processare per elaborare le relative risposte, tenderebbero a fornire contenuti in qualche modo inventati, privi di fondati riscontri.
Nel merito delle evidenze analizzate, però, le notizie false o fuorvianti hanno riguardato, tra l’altro, errate indicazioni sul procedimento di registrazione degli elettori e sulle modalità di esercizio del voto all’estero, confondendo meccanismi e sistemi regolatori vigenti in Paesi diversi da quello della lingua utilizzata per la formulazione delle relative domande; mentre rispetto alle questioni più “politiche” sarebbero stati generati, invece, contenuti più imparziali e neutrali, dalla natura tendenzialmente asettica, non associabile ad alcun esplicito orientamento partitico.
I chatbot si sarebbero, infatti, limitati a fornire spiegazioni generali su come formarsi un’opinione politica (ad esempio: invitare le persone a leggere programmi, guardare dibattiti, ecc.), illustrando complessive semplici panoramiche di mera ricognizione sulla posizione dei gruppi politici costituiti all’interno del Parlamento europeo. Solo in pochi casi avrebbero assunto posizioni più “partigiane”.
In alcune ipotesi, i chatbot avrebbero anche rifiutato di rispondere.
Sono stati segnalati, inoltre, carenti riferimenti in relazione alle fonti riportate (ad esempio, qualificando le “voci di Wikipedia” come “informazioni governative”), talvolta, peraltro, omettendo di utilizzare le notizie più autorevoli e qualificate come fonti primarie di informazioni.
In generale, il rapporto pubblicato da Democracy Reporting International evidenzia che il livello qualitativo delle risposte elaborate dai chatbot consultati sia notevolmente variabile, al punto da rendere oltremodo difficile qualsivoglia previsione sugli effettivi risvolti informativi configurabili.
Il rispetto del Digital Services Act nell’era delle fake news
Sul piano giuridico, lo studio menzionato prospetta, altresì, il mancato rispetto degli obblighi legali previsti dal Digital Services Act (DSA), vanificando, in particolare, il ricorso obbligatorio ad una preventiva valutazione volta a mitigare i rischi correlati alla possibile circolazione di notizie false suscettibili di alterare il corretto funzionamento dei processi elettorali (cfr. art. 34).
Le misure di mitigazione proposte dalla Commissione Europea contro la disinformazione
In una recente indagine (riportata dallo studio), la Commissione europea ha chiesto, come formale atto investigato, ad alcuni colossi tecnologici di fornire indicazioni dettagliate sulle misure di mitigazione adottate proprio per evitare il rischio di possibili manipolazioni informative (cd. “allucinazioni”) prodotte dai sistemi di intelligenza artificiale in relazione allo svolgimento delle competizioni elettorali.
Ai sensi e per gli effetti degli artt. 50 e ss. del DSA, infatti, la Commissione europea può imporre sanzioni per informazioni errate, incomplete o fuorvianti, in conseguenza della mancata ottemperanza alle prescrizioni richieste, con l’ulteriore irrogazione di penalità di mora.
Non è la prima volta che si registra una simile presa di posizione: in altre attività istruttorie sempre la Commissione europea ha avviato analoghi procedimenti formali di accertamento per sospetta violazione del Digital Services Act (DSA), con l’intento di combattere la disinformazione a presidio di regolari elezioni democratiche, che potrebbero essere compromesse dalla circolazione di contenuti ingannevoli, intenzionalmente divulgati per destabilizzare l’opinione pubblica e inficiare il diritto alla libera autodeterminazione politica.
Codice di condotta sulla disinformazione: l’impegno delle big tech
Una criticità di simile portata, quindi, è rilevante sotto il profilo applicativo della disciplina introdotta dal Digital Services Act (DSA), che pone a carico delle grandi piattaforme online (VLOP) l’obbligo di effettuare periodiche valutazioni del rischio atte a prevenire la diffusione di notizie false o manipolate. Inoltre, va precisato che, alla normazione cogente di diritto derivato, si aggiunge un recente codice di condotta sulla disinformazione promosso dalla Commissione europea, con il coinvolgimento diretto delle “big-tech”, per combattere il problema delle fake news e impegnarsi a pubblicare informazioni autorevoli.
La bozza base del Codice di condotta, costituente il risultato di una prima fase progettuale di lavori preparatori risalenti al Piano d’azione europeo per la democrazia (EDAP), è stata, infatti, firmata dalle principali piattaforme sociali e da vari inserzionisti del settore pubblicitario, qualificandosi come strumento di coregolamentazione destinato ad integrare la legge sui servizi digitali, rispetto alle indicazioni fornite da apposite relazioni illustrative sullo stato di avanzamento delle misure adottate dalle stesse aziende tecnologiche nell’ambito di una progressiva tabella di marcia pianificata per la relativa attuazione.
Più precisamente, nel merito degli impegni assunti, i firmatari predispongono, tra l’altro, meccanismi di protezione dalla disinformazione, mediante il miglioramento del sistema di inserzioni di advertising, con particolare riferimento ai messaggi pubblicitari di natura politica, anche al fine di permettere agli utenti, sulla base di apposite campagne di sensibilizzazione, di comprendere i rischi provocati dalla diffusione di fake news, unitamente agli insidiosi pericoli connessi alla manipolazione algoritmica.
La “Global Coalition for Digital Safety” del World Economic Forum e l’alfabetizzazione mediatica digitale
Al di là dei profili prettamente regolatori di rilievo normativo, come interessante iniziativa di matrice culturale va segnalata la costituzione in senso al World Economic Forum della Global Coalition for Digital Safety con il compito di facilitare, nell’ambito di una cooperazione “multistakeholder”, la ricerca di un approccio sinergico, mediante la condivisione delle migliori pratiche esistenti propedeutiche a coordinare azioni congiunte, in grado di intensificare la lotta alla disinformazione, per rafforzare il contrasto dei contenuti virtuali dannosi. A tal fine, peraltro, viene auspicato un necessario miglioramento del livello di “alfabetizzazione mediatica digitale” da parte della popolazione mondiale, come obiettivo indispensabile da cui dipende, sostanzialmente, l’acquisizione di una maggiore consapevolezza per sapere identificare correttamente le informazioni false e fuorvianti.
Parlare di disinformazione rappresenta indubbiamente una questione globale di centrale rilevanza conoscitiva, anche perché, l’imminente svolgimento di un consistente numero di elezioni previste nei prossimi mesi, con un coinvolgimento complessivo di circa 4,2 miliardi di persone chiamate alle urne per decidere i futuri assetti politici dei sistemi democratici vigenti, induce a monitorare con estrema attenzione, pur senza avallare esasperati allarmismi, il concreto impatto delle fake news.
Conclusioni
Le opinioni espresse nel presente articolo hanno carattere personale e non sono, direttamente o indirettamente collegate, in alcun modo, alle attività e funzioni lavorative svolte dall’Autore, senza, quindi, impegnare, in alcun modo, l’Amministrazione di appartenenza del medesimo.