Le grandi piattaforme online (VLOP e VLOSE) non sono molto collaborative nei confronti delle istituzioni europee e non rispettano il Digital services act in termini di contrasto alla disinformazione, tanto che la disinformazione russa “sembra funzionare”. Tema su cui la Commissione ha aperto varie indagini, tra cui anche sugli strumenti AI di Microsoft il 17 maggio.
Al contempo, si apprende come l’amministrazione statunitense abbia fatto pressioni sulle piattaforme di Meta tra giugno e agosto 2021: l’obiettivo era far rimuovere qualsiasi contenuto che potesse mettere in dubbio l’efficacia della campagna vaccinale contro il Covid-19.
Al G7 della Giustizia, poi, il Ministro della giustizia Carlo Nordio, da Venezia, lancia il Venice Justice Group per contrastare la disinformazione.
Insomma, c’è molta carne al fuoco.
La guerra della disinformazione negli USA
Colpisce intanto – a quanto riportato su alcuni organi di stampa come l’Economist – che negli Usa, X e le piattaforme di Meta non forniscano più i dati su post e account delle loro piattaforme.
Mentre Twitter le forniva gratuitamente per scopi di studio, X (cioè Twitter nella versione di Elon Musk) chiede un cospicuo compenso per fornire le metriche.
Meta, da parte sua, ha annunciato il ritiro del tool CrowdTangle, uno strumento di monitoraggio della piattaforma che consente a scienziati, giornalisti e gruppi della società civile di accedere ai dati.
Meta conferma, comunque, che gli accademici potranno ancora avere accesso a determinati set di dati, su richiesta espressa.
Il tema è serio, perché gli studi sulla disinformazione e sull’efficacia delle campagne di propaganda si basa sullo studio di una quantità enorme di dati che sono gestiti direttamente dalle piattaforme social.
Il punto, comunque, è che non c’è chiarezza normativa su quello che può o non può essere fatto in termini – legali – di moderazione dei contenuti.
Dato che la distinzione tra moderazione dei contenuti e censura non è netta, negli Usa si è posto un serio problema, ora al vaglio della Corte Suprema Federale, sollevato nella causa Murthy vs Missouri, tuttora in decisione e che riguarda il Primo emendamento della Costituzione degli Stati Uniti.
Quest’ultimo recita, testualmente: “Il Congresso non promulgherà leggi per il riconoscimento ufficiale di una religione, o che ne proibiscano la libera professione; o che limitino la libertà di parola, o della stampa; o il diritto delle persone di riunirsi pacificamente in assemblea e di fare petizioni al governo per la riparazione dei torti”.
Problema analogo è il provvedimento dell’agosto 2023 nel caso Missouri vs Biden; qui si registra l’emanazione di una preliminary injunction e il relativo judgment, con cui il giudicante impedisce al governo federale, in particolare alle agenzie federali – F.B.I. e Office of the Surgeon General su tutte – di interagire con i social media per ridurre la diffusione delle fake news in materia di tutela della salute pubblica.
La questione è cruciale, perché attiene alla campagna vaccinale per il Covid-19 e la propaganda politica per le elezioni presidenziali del 2024: nel frattempo, la preliminary injunction è esecutiva su tutto il territorio degli USA.
La tesi dei ricorrenti è la sussistenza di una cospirazione censoria organizzata da politici liberal, dirigenti dei social network finalizzata a contrastare la diffusione di idee “alternative”.
Secondo il Giudice che ha emesso l’ingiunzione, la free speech clause del Primo Emendamento della Costituzione garantisce a chiunque di diffondere qualunque idea, senza limiti, indipendentemente dalla verità dei contenuti, dal fatto che incitino all’odio o che siano discriminatori.
In altri termini, il far west del dibattito pubblico.
Si capisce quindi meglio perché X faccia resistenza sulla moderazione dei contenuti e perché negli USA la disinformazione – ammesso che possa essere chiamata così a fronte del Primo Emendamento – sia un business.
È quindi ovvio che di fronte alla preliminary injunction le società della Silicon Valley siano corse ai ripari e abbiano chiuso i canali di contatto esterno e di verifica dei dati di post e account.
In conclusione, The Economist, su questo, ha mancato del tutto il bersaglio.
Nel caso Murthy vs Missouri, invece, si sono registrate aperture verso una moderazione dei contenuti, ma solo perché si è aperto il tema della guerra in Ucraina, e il timore di influenze straniere sull’opinione pubblica statunitense è fortissimo.
L’indagine della Commissione ue sull’AI di Microsoft
La Commissione ue indaga sulla capacità di Microsoft di evitare che i suoi strumenti AI sia usati a scopo di disinformazione.
A seguito di una prima richiesta di informazioni inviata il 14 marzo in merito a rischi specifici derivanti dalle funzioni di intelligenza artificiale generativa di Bing, in particolare “Copilot in Bing” e “Image Creator by Designer”, l’azienda ha ora tempo fino al 27 maggio per fornire alla Commissione le informazioni richieste.
La Commissione chiede a Bing di fornire documenti e dati interni che non erano stati resi noti nella precedente risposta di Bing. La richiesta di informazioni si basa sul sospetto che Bing possa aver violato la DSA per i rischi legati all’IA generativa, come le cosiddette “allucinazioni”, la diffusione virale di deepfakes e la manipolazione automatizzata di servizi che possono indurre in errore gli elettori. In base alle DSA, i servizi designati, tra cui Bing, devono effettuare un’adeguata valutazione del rischio e adottare le rispettive misure di mitigazione del rischio (artt. 34 e 35 delle DSA). L’intelligenza artificiale generativa è uno dei rischi identificati dalla Commissione nelle sue linee guida sull’integrità dei processi elettorali, in particolare per le prossime elezioni del Parlamento europeo di giugno.
In UE VLOP e VLOSE non fanno bene i compiti per casa
In Europa, invece si scopre che il Digital Service Act impone alle grandi piattaforme (VLOP e VLOSE, appunto) di fornire i dati necessari alla valutazione della disinformazione a soggetti indipendenti e legati alla Commissione europea.
Il problema, noto almeno dal dicembre 2023, è che non lo stanno facendo, tanto che X e TikTok sono oggetto di un’indagine della Commissione stessa.
Va comunque detto che entrambe le società hanno dichiarato di essere conformi, o in procinto di essere conformi, al DSA, anche se X ha ritirato la propria adesione al Codice di buone pratiche comportamento contro la disinformazione.
Ne frattempo, i ministri della Giustizia del G7 hanno visto nascere il Venice Justice Group, presieduto dall’Italia.
L’obiettivo del Venice Justice group è favorire il coordinamento internazionale per affrontare le sfide globali, in ambito giustizia, a cominciare dall’intelligenza artificiale, per contribuire alla difesa dei sistemi democratici contro disinformazione in rete e tutela dei processi elettorali.
Anche qui, è la guerra in Ucraina a determinare la nascita di organismi di direzionamento dell’informazione, vista come mezzo di difesa dei sistemi democratici.
La disinformazione non è uguale per tutti
In epoca di assoluta globalizzazione delle piattaforme social non c’è un contesto armonico di normativa di riferimento sull’informazione in generale.
Ciò che è disinformazione in Italia non lo è in Russia e ciò che è considerato assoluta libertà di espressione del pensiero in USA non lo è nella UE (e questo solo per fare un rapido passaggio aereo).
The Economist loda gli esempi di Taiwan, Brasile e Svezia, che hanno adottato politiche durissime di repressione dei contenuti.
In Svezia, addirittura, c’è un’agenzia governativa per la difesa psicologica.
Tutti i modelli summenzionati hanno in comune la cooperazione tra governi, studiosi indipendenti, piattaforme social e attori interessati in generale.
È un dato di fatto che questi modelli sono la soluzione migliore possibile in un contesto in cui ci si deve accontentare del meno peggio: è evidente che si tratti di censura a più livelli, come è evidente che vi siano spinte “culturali” verso l’una o l’altra direzione.
È dati tempi in cui Gramsci ha elaborato la teoria dell’egemonia culturale che questo dibattito è oggetto di studio: negare che vi siano interferenze sul sistema dell’informazione a più disparati livelli sarebbe negare l’evidenza.
L’unico approccio possibile quindi, è quello pragmatico; prendere atto della situazione e accettare che la Televisione di Stato russa sia considerata, in Europa, disinformazione, nonostante i media occidentali abbiano sbandierato, fino alla fine del 2023, notizie palesemente false sull’andamento della guerra in Ucraina o sull’efficacia dei vaccini anti-Covid-19.
Conclusioni
Gli unici veri mezzi di contrasto alla disinformazione sono, a tutti gli effetti, la diffidenza verso ogni fonte di informazione e lo spirito critico del singolo quando viene investito dalla tempesta informativa cui è soggetto ogni singolo giorno.
Ma questo è un approccio culturale, non politico o giuridico: su questi fronti, invece, la partita è sempre aperta e la tensione continua.