“Durante il primo anno della guerra illegale della Russia in Ucraina, le società di social media hanno consentito al Cremlino di lanciare una campagna di disinformazione su larga scala contro l’Unione Europea e i suoi alleati”.
Così si apre lo studio (74 pagine) condotto dalla Direzione generale per le reti di comunicazione, i contenuti e la tecnologia della Commissione Europea. Il dito è puntato contro X (ex Twitter), colpevole di avere persino peggiorato le policy anti abusi; ma in realtà tutte le piattaforme sono estremamente vulnerabili.
Lo studio evidenzia che la campagna russa ha raggiunto “un pubblico aggregato di almeno 165 milioni” generando almeno 16 miliardi visualizzazioni. “L’analisi preliminare suggerisce che la portata e l’influenza dei resoconti sostenuti dal Cremlino è cresciuto ulteriormente nella prima metà del 2023, spinto in particolare dallo smantellamento degli standard di sicurezza”.
Lo studio sulla disinformazione russa
Le più grandi piattaforme di social media si sono impegnate a mitigare la portata e l’influenza della disinformazione sponsorizzata dal Cremlino. Nel complesso, questi sforzi non hanno avuto successo.
Nel corso del 2022, il pubblico e la portata degli account sui social media allineati al Cremlino sono aumentati sostanzialmente in tutta Europa.
Queste circostanze sollevano interrogativi non solo europei sulle difese dell’Unione contro la guerra dell’informazione della Russia, ma anche contro l’integrità del sistema in vista delle Elezioni europee nel giugno del 2024.
Questa la prosecuzione dell’analisi condotta per conto della Commissione.
In altri termini, le piattaforme online o non sono state in grado di controllare gli account filorussi o non hanno voluto farlo, verosimilmente per ragioni economiche.
Va anche detto che lo studio equipara “l’allineamento al Cremlino” a disinformazione e incitamento all’odio, mentre nulla vieta che si tratti di informazione in senso stretto, per quanto orientata.
Quello che però è chiaro è il “terrore”, che serpeggia nelle istituzioni europee in vista delle elezioni europee del 2024, quando non è inverosimile che possano essere eletti esponenti di partiti non necessariamente favorevolissimi allo scontro armato in Ucraina.
Lo studio, un volta esplicitate le premesse già poste nell’introduzione, si dipana in due sezioni, ossia l’analisi del rischio e la sua mitigazione.
Analisi del rischio ex articolo 34 del DSA
La Risk assessment parte dalla definizione stessa ei rischi, anche se, nel caso di specie, sarebbe più corretto parlare di individuazione dei rischi.
Nella sezione seguente mostriamo che la campagna di disinformazione del Cremlino interessa tre categorie di rischi sistemici individuate nell’articolo 34 del Digital Service Act. Nell’analisi, esaminiamo il contenuto delle comunicazioni presenti nel campione attraverso il test di proporzionalità di Rabat modificato dal nostro quadro di riferimento.
Come punto di partenza, si rileva che che la natura di chi parla (controllato o allineato dal governo) e il contesto (guerra di aggressione) contraddistinguono qualsiasi cosa pubblicata dai resoconti di questi attori come potenziale rischio sistemico.
La disinformazione cinese nella Hawaii con l’AI
Gli incendi che hanno squassato le Hawaii non sono naturali: così hanno affermato tanti utenti al soldo della Cina in una raffica di falsi post che si sono diffusi su Internet. Una mossa contro gli Stati Uniti. I post riportavano fotografie che sembravano essere state generate da programmi di intelligenza artificiale. Così sono tra i primissimi casi a utilizzare questi nuovi strumenti per rafforzare l’aura di autenticità di una campagna di disinformazione.
Per la Cina – che è rimasta in gran parte ai margini delle elezioni presidenziali statunitensi del 2016 e del 2020 mentre la Russia conduceva operazioni di hacking e campagne di disinformazione – lo sforzo di far passare gli incendi selvaggi come un atto deliberato delle agenzie di intelligence e dell’esercito americani è stato un rapido cambiamento di tattica.
Finora, le campagne di influenza della Cina si sono concentrate sull’amplificazione della propaganda a difesa delle sue politiche su Taiwan e su altri temi. L’ultimo sforzo, rivelato dai ricercatori di Microsoft e di una serie di altre organizzazioni, suggerisce che Pechino sta facendo tentativi più diretti per seminare discordia negli Stati Uniti.
Il Relatore speciale delle Nazioni Unite per la libertà di espressione rileva che, sebbene la disinformazione sponsorizzata dagli Stati non sia di per sé illegale ai sensi del diritto internazionale, essa “ha un impatto potente sui diritti umani, lo stato di diritto, i processi democratici, la sovranità nazionale e la geopolitica stabilità a causa delle risorse e della portata degli Stati e per la loro capacità di far sopprimere contemporaneamente le voci indipendenti e critiche nel paese in modo che non possano esserci sfide alle narrazioni ufficiali” (pag. 26).
L’articolo 34 del Digital Service Act è uno dei più potenti e controversi strumenti inseriti nel contesto del mercato dei servizi digitali: impone una valutazione di rischio in capo a VLOP e VLOSE (Piattaforme e motori di ricerca di grandi dimensioni) che determina una progettazione delle interfacce tale da disincentivare o azzerare i rischi sistemici individuati dalla disposizione stessa, ossia:
“a) la diffusione di contenuti illegali tramite i loro servizi;
b) eventuali effetti negativi, attuali o prevedibili, per l’esercizio dei diritti fondamentali, in particolare i diritti fondamentali alla dignità umana sancito nell’articolo 1 della Carta, al rispetto della vita privata e familiare sancito nell’articolo 7 della Carta, alla tutela dei dati personali sancito nell’articolo 8 della Carta, alla libertà di espressione e di informazione, inclusi la libertà e il pluralismo dei media, sanciti nell’articolo 11 della Carta, e alla non discriminazione sancito nell’articolo 21 della Carta, al rispetto dei diritti del minore sancito nell’articolo 24 della Carta, così come all’elevata tutela dei consumatori, sancito nell’articolo 38 della Carta;
c) eventuali effetti negativi, attuali o prevedibili, sul dibattito civico e sui processi elettorali, nonché sulla sicurezza pubblica;
d) qualsiasi effetto negativo, attuale o prevedibile, in relazione alla violenza di genere, alla protezione della salute pubblica e dei minori e alle gravi conseguenze negative per il benessere fisico e mentale della persona”.
Per evitare questi rischi, hanno i seguenti obblighi:
“ a) la progettazione dei loro sistemi di raccomandazione e di qualsiasi altro sistema algoritmico pertinente;
b) i loro sistemi di moderazione dei contenuti;
c) le condizioni generali applicabili e la loro applicazione;
d) i sistemi di selezione e presentazione delle pubblicità;
e) le pratiche del fornitore relative ai dati”.
Nel valutare i rischi, VLOP e VLOSE devono analizzare le metriche per capire se vi sia intenzionalità o meno nella diffusione di contenuti che determinano rischi sistemici (account falsi e sponsorizzazioni su tutto).
Lo studio ha individuato nei rischi elencati alle lettere a), b) e c) dell’articolo 34 del DSA gli interventi aggressivi filorussi.
La lettera c) è, forse, la più interessante, perché riguarda apertamente il dibattito elettorale.
Sul punto lo studio mostra di essere piuttosto sensibile e calca moltissimo la mano sulla disinformazione in lingua tedesca e su alcune posizione di Viktor Orban, primo ministro ungherese, contrario da subito alle sanzioni alla Federazione Russa.
Perché i controlli dei social sono inadeguati
Ma un punto è interessante: l’indicazione dell’inadeguatezza dei controlli delle piattaforme online.
“La prima categoria di attività che abbiamo documentato riguardava i comportamenti di elusione – approfonditi nell’Appendice – a cui hanno fatto ricorso gli attori allineati al Cremlino per aggirare il rilevamento e la mitigazione da parte delle piattaforme online. Questa categoria di comportamenti include l’uso di identità ingannevoli e rebranding.
Ad esempio, Reset e altre organizzazioni hanno identificato reti di migliaia di account di social media che si ponevano in modo ingannevole come “mezzi di informazione” su piattaforme online, ma sono stati istituiti con l’unico intento di riutilizzarli e diffondere disinformazione russa e contenuti di propaganda di guerra. In molti casi, questi account sono stati creati appositamente per continuare a distribuire contenuti da parte dei media statali russi, i cui account erano stati bannati o geobloccati in risposta alle sanzioni dell’UE”.
Qui, tuttavia, l’inadeguatezza dell’intero apparato si manifesta in modo disarmante.
Le istituzioni europee hanno deciso che, tra le sanzioni, debba esserci l’impossibilità, per i cittadini dell’Unione, di ascoltare la televisione di Stato russa o altri canali televisivi: l’equivalente è il ban, per i cittadini russi, della RAI o di Mediaset.
Per rendere effettiva la sanzione, si impone alle piattaforme social ed ai motori di ricerca di bloccare gli account di questi operatori.
Questi ultimi diffondono i propri programmi attraverso account di altri soggetti o con account con nomi diversi (rebranding).
Tutto questo viene scoperto da Reset, non meglio identificata organizzazione indipendente.
Sulla base di questo apparato, l’Unione europea vuole difendersi dalla propaganda elettorale ritenuta ostile, anche se non è chiaro verso chi o cosa.
Le misure di mitigazione dei rischi
Lo studio individua quattro ambiti di intervento:
- le condizioni generali di utilizzo delle piattaforme social,
- preparazione e trasparenza,
- misure di moderazione dei contenuti
- e i sistemi di raccomandazione algoritmica.
Il primo spetto riguarda le condizioni contrattuali attraverso le quali, sostanzialmente, l piattaforme devono imporre agli utenti obblighi attraverso i quali, eventualmente, poter limitare accessi e contenuti.
La seconda si traduce, in pochissime parole, in relazioni sulla trasparenza che le piattaforme devono effettuare periodicamente.
La terza è, né più né meno, l’adozione di un think tank interno che possa reggere l’urto di migliaia di informazioni, per quanto filtrate da intelligenze artificiali e che sia in grado, anche in poco tempo, di intervenire in caso di rilevazioni di minacce che richiedono un intervento umano.
Il quarto, neanche a dirlo, è il più interessante.
Si legge: “In pratica, i cambiamenti nei parametri quantitativi come i tassi di crescita del pubblico, l’esposizione o il coinvolgimento sono guidati da un’interazione tra moderazione dei contenuti ed il sistema di raccomandazione algoritmica”.
“Probabilmente, i sistemi della piattaforma sono ottimizzati principalmente per catturare l’attenzione e i livelli massimi di coinvolgimento, con conseguente prevalenza sulla moderazione dei contenuti strettamente mirati”.
Lo studio lamenta che “tuttavia, le condizioni per lo studio dei sistemi di raccomandazione sono sfavorevoli per la ricerca indipendente. Senza accesso ai metodi di classificazione algoritmica interni di ciascuna piattaforma, è difficile misurare l’impatto delle modifiche ai sistemi di raccomandazione”.
Va detto qui che Meta, Google, TikTok (non X) hanno promesso, con la compliance al DSA, nei giorni scorsi un accesso più ampio dei ricercatori ai propria dati.
Lo studio nota comunque che per ora la misurazione d’impatto “deve essere effettuata tramite valutazione di variabili proxy. Al fine di isolare l’effetto dei sistemi di raccomandazione sui contenuti distribuzione più accurata, abbiamo sviluppato il non-follower engagement (NFE) metrico”.
La metrica NFE
Così la descrizione della metrica NFE. “La nostra metrica NFE rileva il numero di utenti che hanno interagito con il materiale come risultato delle raccomandazioni sui contenuti, per ordinamento algoritmico o per abbonamenti (cioè la scelta dell’utente di seguire un particolare account)”.
“Ciò consente un’approssimazione della misura in cui i non abbonati interagiscono con il contenuto sulla base di segnali algoritmici. NFE è un’operazione computazionale metrica intensiva che richiede la creazione di tabelle incrociate di un elenco di soggetti coinvolti con un elenco di iscritti. Questa è una sfida per i ricercatori esterni, poiché attualmente nessuna piattaforma suddivide le metriche di coinvolgimento in abbonati e non abbonati”.
“Per analizzare gli effetti e le carenze delle misure di retrocessione delle piattaforme, abbiamo esaminato attentamente la deamplificazione delle piattaforme sugli account del governo russo e dei media statali, che sono sottoinsiemi del nostro elenco di fonti sostenute dal Cremlino (pag. 59)”.
In termini pratici, dato che gli algoritmi delle piattaforme sono soggetti a segreto industriale e non c’è modo di penetrare le dinamiche che li regolano – anche per i fortissimi interessi economici sottostanti, che difficilmente consentono alle Istituzioni di inserirsi così in profondità nel tessuto industriale di riferimento – è necessario impostare un tool che misuri i contatti di ogni account, per capire quali sono i numeri reali.
Una volta compreso questo, la possibilità di intervento aumenta, perché monitorare gli account con maggior numero di contatti limita – di fatto – la maggior parte dei rischi sistemici individuati.
Conclusioni
La montagna ha partorito il topolino: lo studio dispiega, in tutte le sue 74 pagine, un livello di analisi e conseguente capacità di intervento e di che possiamo definire…divulgativo.
Che la democrazia europea tema che la propria opinione pubblica venga sviata dalla televisione di Stato russa dà la misura del livello dell’Istituzione.
Che l’informazione e la propaganda vengano, poi, sovrapposte, è un altro problema: come si classifica il giornalista sedicente indipendente che invia notizie – magari spesso molto attendibili – dal fronte russo-ucraino, per mostrare i bombardamenti delle truppe di Kiev sul centro abitato di Donetsk? Come propaganda? Come disinformazione? Reset come lo ha classificato?
Il DSA è uno strumento normativo avanzato sia per le tematiche che affronta e regola, sia per la tecnica legislativa impiegata per la sua redazione.
La sfida piuttosto sarà sulla implementazione del DSA, alla luce della necessità di potenziare l’apparato di indagine e monitoraggio dei funzionari europei, anche eventualmente coadiuvati da autorità nazionali – in Italia Garante Privacy e Agcom.
Diciamo che possiamo avere aspettative più alte – e sono più che lecite – sul diritto all’informazione nei servizi digitali in Europa nel 2023.