Dopo la spunta blu a pagamento, Elon Musk se n’è inventata un’altra per incrementare le entrate di Twitter, stavolta andando in direzione decisamente contraria rispetto alla spinta verso la trasparenza dei social media che viene reclamata in tutto il mondo, un punto focale della normativa messa in campo dalla UE anche per l’utilizzo dell’Intelligenza artificiale.
L’accesso a pagamento all’interfaccia di programmazione dell’applicazione
L’accesso all’interfaccia di programmazione dell’applicazione (application programming interface, API) era illimitato e gratuito da ben 17 anni, il che ha consentito ai ricercatori di estrarre e analizzare dati, ad esempio, per verificare l’impatto dei contenuti delle piattaforme su campagne elettorali, per contrastare la disinformazione, per raccogliere informazioni, anche in forma foto e video, sui crimini di guerra commessi in varie zone del pianeta, non ultimo in Ucraina. Ebbene, da aprile tutto questo non è più possibile. Più esattamente è possibile, ma sborsando migliaia di dollari, da 40.000 a 210.000 mensili, per abbonarsi, per cui ONG, ricercatori indipendenti, analisti politici e semplici studenti non se lo possono più permettere. Già la spunta blu a pagamento non ha dato i risultati paventati da Musk, secondo il quale era improbabile che i truffatori pagassero ingenti somme per la possibilità di inviare spam agli utenti usando bot e troll. La verità è che non si è verificato alcun calo percepibile nel traffico di bot su Twitter da quando è in mano sua, secondo quanto accertato dalla società di sicurezza informatica Cheq e riferito al Washington Post. Allo stesso giornale, un investigatore nel campo dei diritti umani ha espresso grande preoccupazione per la scelta di far pagare cifre esorbitanti per accedere all’API, giacché molte organizzazioni non hanno budget tali da poter stanziare cifre così alte.
Facebook e altre piattaforme hanno concesso ai ricercatori libero accesso alle loro API in passato, ma Twitter ha fatto certamente meglio. Gli investigatori open source hanno avuto accesso a enormi set di dati pubblici, creando così strumenti per mettere insieme le prove di potenziali crimini di guerra da utilizzare anche nelle aule dei tribunali.
A rischio il lavoro delle ONG a tutela dei diritti umani
Twitter è stato fondamentale per il lavoro degli investigatori sui diritti umani in Siria e Ucraina per individuare gruppi di disinformazione organizzati dalla Russia allo scopo di attribuire ad altri la responsabilità di vari atti di guerra e di stragi di civili, inclusi attacchi con armi chimiche del governo siriano e attacchi russi alle scuole ucraine. Le prove raccolte da Twitter sui crimini di guerra russi in Ucraina sono state presentate alla Corte penale internazionale.
In Siria un’organizzazione, Hala Systems, ha utilizzato l’API di Twitter come input predittivo per un sistema di allerta che ha aiutato i soccorritori a prepararsi ad attacchi aerei. Uno dei fondatori di Hala Systems ha rilevato che individuare attività sospette potenzialmente rilevanti richiederebbe un esercito di persone, mentre è possibile farlo con alcuni programmi per computer relativamente intelligenti. Con la modifica alla politica sull’API ciò non sarà più fattibile. Altro problema è il limite di 3000 al mese al numero di tweet che un account può pubblicare senza accesso al livello aziendale, per cui non si potrà utilizzare Twitter per emettere avvisi in caso di un intenso bombardamento aereo dell’esercito siriano.
Più complicato individuare i responsabili delle campagne di disinformazione
La politica API gratuita di Twitter ha anche facilitato la scoperta di alcune delle campagne di bot più influenti fino ad oggi. L’ingerenza elettorale negli Stati Uniti e in diversi paesi africani, realizzata dalla famigerata Internet Research Agency di San Pietroburgo (la fabbrica dei troll del Cremlino) sarebbe stata molto più difficile da scoprire, così come le sue campagne di disinformazione in Medio Oriente e in Africa. L’API di Twitter ha aiutato i ricercatori a scoprire attività di disinformazione sempre legate all’IRA di San Pietroburgo volte a sostenere determinati candidati alle elezioni o seminare sfiducia nei processi elettorali in diversi paesi africani. In Mozambico, l’attività di disinformazione russa ha sostenuto il presidente e minimizzato le accuse di brogli elettorali dell’opposizione. Nella Repubblica Democratica del Congo, dopo una controversa elezione, ha pubblicato contenuti che attaccavano il presidente e altri importanti personaggi politici. Queste intuizioni sono preziose per determinare la portata e la natura delle campagne di disinformazione, nonché per sviluppare contromisure appropriate ed efficaci. Giornalisti e ricercatori che utilizzano l’API di Twitter hanno anche svelato e individuato i responsabili delle campagne di manipolazione in contesti di conflitto e durante colloqui di pace. Nella battaglia del 2019 per Tripoli, account collegati all’esercito nazionale libico di Haftar e al rivale governo di accordo nazionale di Tripoli hanno condotto campagne aggressive di disinformazione per screditarsi a vicenda e sostenere le narrazioni di parte. Le campagne online durante i successivi colloqui negoziali in Libia hanno contribuito a condurli al fallimento. Allo stesso modo, in Colombia le campagne sui social media hanno svolto un ruolo importante nel minare la legittimità dei colloqui di pace tra il governo e le FARC. La spaccatura del 2017 tra l’Arabia Saudita e gli Emirati Arabi Uniti, da un lato, e il Qatar sostenuto dalla Turchia, dall’altro, è stata ampliata in gran parte online. Sono emerse prove di account sauditi ed emiratini impegnati in attività di disinformazione online, alle quali ha risposto la Turchia. Senza API robuste e accessibili, le minacce emergenti con conseguenze mortali potrebbero essere trascurate. È opinione diffusa che l’algoritmo di Facebook abbia dato la priorità a determinati post che hanno contribuito al genocidio dei Rohingya in Myanmar nel 2017. Tuttavia, è difficile valutare con assoluta precisione il ruolo svolto da Facebook: il rapporto della Missione d’inchiesta delle Nazioni Unite su Myanmar, che ha indagato sull’omicidio di almeno 24.000 persone e la fuga di quasi un milione di Rohingya, afferma che “i dati specifici per paese sulla diffusione dell’incitamento all’odio” sulla piattaforma di Facebook sono “assolutamente necessari per valutare l’adeguatezza della sua risposta”. Era il tipo di informazioni che si sarebbero potute ottenere se Facebook avesse consentito ai ricercatori di utilizzare un’API ad accesso aperto, come fece Twitter all’epoca. Nei primi mesi del conflitto in Sudan, i ricercatori del Digital Forensic Research Lab del Consiglio atlantico hanno utilizzato l’API per rivelare come account Twitter sono stati utilizzati per amplificare artificialmente la narrazione di una delle parti in guerra e per aumentare i post in lingua inglese in grado di agganciare la platea internazionale.
Una riduzione significativa delle informazioni sull’impatto delle campagne di ingerenza elettorale
Il prossimo anno sono previste elezioni nazionali in Ciad, Mali, Ruanda, Somaliland, Sud Sudan, Pakistan, Sri Lanka, Tunisia e Venezuela. In un recente rapporto sui cambiamenti dell’API, i ricercatori dell’International Crisis Group hanno scritto che la scelta di Musk comporterà una riduzione significativa delle informazioni sull’impatto delle campagne di ingerenza elettorale, sulle molestie online degli attivisti e sugli effetti della disinformazione sulla violenza, in particolar modo trattandosi di paesi in cui lo stato di diritto è fragile e media indipendenti non esistono.
Un’eccezione alla regola, ma non è sufficiente
Twitter ha annunciato un’eccezione alla nuova regola. I servizi governativi o di proprietà pubblica verificati, che twittano avvisi meteorologici, aggiornamenti sui trasporti o notifiche di emergenza potranno ancora utilizzare il sistema gratuitamente. Ma tali esenzioni non sarebbero utili in altri casi di catastrofi naturali, come, ad esempio, per i terremoti che hanno colpito la Turchia e la Siria, quando sviluppatori di software indipendenti si sono uniti per creare database e mappe termiche per localizzare le persone intrappolate tra le macerie, mentre gli interventi governativi erano ancora lenti e disorganizzati.
Accesso a pagamento alle APU: Musk smentisce sé stesso
Ad avviso di Alessandro Accorsi, che ha guidato la ricerca del Crisis Group, molte organizzazioni umanitarie non possono permettersi le nuove tariffe API, e in una situazione di emergenza o in un conflitto, specialmente dove ci sono media deboli o gravi interruzioni delle infrastrutture, le sue informazioni sono vitali.
La decisione di Twitter è stata aspramente criticata negli Stati Uniti da ricercatori e legislatori democratici, dopo le promesse del suo proprietario di aumentare la trasparenza sul social network. “La trasparenza crea fiducia”, aveva dichiarato, assicurando di stare apportando modifiche per rendere Twitter meno opaco.
Al contrario, Twitter, sotto la sua guida, non ha ancora reso pubblico il rapporto sulla trasparenza, mentre in precedenza ciò accadeva due volte l’anno per spiegare come la piattaforma applica le regole e rimuove i contenuti. Inoltre, è stato sospeso il lavoro del Moderation Research Consortium.
Elon Musk descrive la sua decisione di limitare l’accesso all’API come parte di uno sforzo per combattere la disinformazione sulla piattaforma. Prima di acquistare Twitter, si era detto preoccupato per il gran numero di bot e account falsi. La politica dell’API, ha affermato, “è stata gravemente abusata da truffatori di bot e manipolatori di opinioni”. Facendo pagare per l’accesso all’API di Twitter, Musk ha cercato di affrontare due delle sue priorità contemporaneamente: ridurre il numero di account automatizzati e aumentare i ricavi dell’azienda . Ha ulteriormente ridotto i costi licenziando i team del personale di Twitter che si occupa di diritti umani, politica, etica, sicurezza e moderazione . Al loro posto, ha intenzione di affidarsi maggiormente ai sistemi di intelligenza artificiale per identificare e rimuovere i contenuti dannosi e al contributo degli utenti per la moderazione. Musk prevede inoltre di accelerare il lancio di Community Notes, un progetto iniziato nel 2021. Le note della community consentono agli utenti di intervenire in modo anonimo su un tweet, contestare le affermazioni fatte dall’autore e fornire più fonti o informazioni aggiuntive. Una nota, se considerata utile da un numero sufficiente di utenti di Twitter, apparirà in primo piano sotto il tweet originale.
Oltre all’accesso all’API, esistono modi tecnicamente avanzati per raccogliere informazioni, ma altri sistemi di estrazione dei dati da qualsiasi piattaforma di social media sono pratici solo per data scientist e ingegneri del software. Analisti politici, scienziati sociali, giornalisti, ricercatori autodidatti, non saranno in grado di condurre ricerche serie senza gli strumenti open source dipendenti dall’API. Anche per chi ha le competenze tecniche richieste, le alternative sono complesse e richiedono molto tempo e possono anche essere illegali, dal momento che potrebbero violare i termini di servizio di Twitter. La pubblicazione della ricerca e dei dati estratti tramite una soluzione tecnica diversa, che viola le regole della piattaforma, potrebbe provocare una causa legale, il che scoraggerebbe quegli stessi soggetti che non possono permettersi le tariffe di accesso all’API. Quando e se sarà reperita una soluzione praticabile, probabilmente sarà stato pagato un prezzo pesante per le parti del mondo più soggette a conflitti, per i paesi dove sono assenti mezzi di informazione indipendenti e organizzazioni della società civile forti per contrastare la disinformazione.
Resta da vedere se ci saranno ulteriori modifiche alla politica API di Twitter. Musk ha fatto marcia indietro su alcuni cambiamenti, anche se sembra aver risposto più agli imperativi economici che alle critiche pubbliche.
D’altra parte, c’è un esercito di ricercatori online pronti a dedicare tempo per aiutare a combattere la disinformazione. Anche se la situazione finanziaria di Twitter richiedesse di tagliare drasticamente i team dedicati alla sicurezza e alla moderazione dei contenuti, Musk potrebbe affidarsi maggiormente alla collaborazione con esperti esterni attraverso l’API.
Una decisione positiva assunta da Musk, quella di rendere pubblico il codice del suo algoritmo di raccomandazione, è stata offuscata dalle restrizioni sull’accesso all’API. L’algoritmo di raccomandazione determina cosa vedono gli utenti quando aprono la piattaforma. Sebbene non sia chiaro quante informazioni si possano raccogliere solo dall’algoritmo, ora si sa, in teoria, quali sono i criteri per definire dannoso un contenuto. Tali misure di trasparenza sono necessarie per combattere la disinformazione, ma se i ricercatori esterni non sono in grado di valutare le affermazioni della piattaforma servono a poco o nulla. La divulgazione dell’algoritmo di raccomandazione, ad esempio, ha rivelato che i contenuti relativi all’Ucraina potrebbero essere stati non raccomandati o addirittura nascosti. Se i ricercatori avessero avuto un facile accesso ai dati tramite l’API, avrebbero potuto recuperare i tweet pertinenti, analizzare i loro tassi di coinvolgimento e verificare se l’algoritmo avesse effettivamente declassato quel contenuto e perché. In assenza di questa analisi, è impossibile determinare se l’algoritmo di Twitter stia sistematicamente rimuovendo i contenuti dannosi o se stia manipolando le informazioni.
Allo stesso modo sarà difficile misurare l’efficacia di un nuovo sistema di intelligenza artificiale per la moderazione dei contenuti. L’intelligenza artificiale offre vantaggi significativi in termini di scalabilità, ma comporta notevoli rischi perché richiede un addestramento efficiente dei sistemi di apprendimento automatico. Un programma di intelligenza artificiale impara a riconoscere contenuti dannosi o non consentiti sulla piattaforma associando parole o frasi a contesti specifici. La qualità della comprensione del linguaggio dell’IA dipende dalla qualità delle sue informazioni sull’addestramento.
Un episodio dimostra il problema di fare affidamento sull’IA per la moderazione dei contenuti e cosa possa comportare l’accesso perso all’API su Twitter. Nel maggio del 2021, Instagram ha rimosse i post contenenti la parola “Al-Aqsa”, che è il nome della moschea di Gerusalemme terzo luogo più sacro dell’Islam. L’IA aveva appreso la parola da un set di addestramento che includeva testi contro l’insurrezione, e l’ha quindi associata, rimuovendola, alle Brigate dei martiri di Al-Aqsa, un gruppo armato palestinese designato come terrorista dall’Unione europea e dagli Stati Uniti. La rimozione è avvenuta in un momento in cui il sito era al centro delle proteste palestinesi e l’errore non è certo servito a calmare le tensioni. L’API di Instagram, per fortuna, era abbastanza aperta da consentire ai ricercatori di decodificare alcuni dei set di dati di addestramento, identificare i loro pregiudizi e difetti e suggerire correzioni.
In sostanza, le nuove politiche di Twitter, progettate per affrontare alcune delle sue carenze, creano nuovi rischi limitando gli strumenti necessari per mitigarli. La società ha recentemente pubblicato un rapporto sulla trasparenza incompleto che non offre informazioni sulla sua conformità ai propri standard o alle richieste del governo per la rimozione dei contenuti.
In conclusione, la decisione di limitare l’accesso alle API di Twitter, facendolo pagare fior di quattrini, mette a repentaglio il lavoro di centinaia di organizzazioni e ricercatori indipendenti che in passato hanno supportato la piattaforma quando non ha potuto o voluto investire adeguatamente in sicurezza e moderazione. In gran parte grazie a questo non ha mai subito il grave danno reputazionale come quello di Facebook, come abbiamo visto, in Myanmar, e ha contribuito anche a salvare vite umane in tante occasioni. Ma la scala di Twitter, evidentemente, mette altro in cima alle priorità. Sarà per caso, anche questa volta, il vil denaro?
Reggio Calabria, 21 giugno 2023
Avv. Antonino Mallamaci