La contraddizione tra tempeste d’odio reali o percepite ed efficacia degli algoritmi di monitoraggio ha spinto il consiglio di AGCOM ad avviare, su mia proposta, una serie di audizioni rivolta alle maggiori piattaforme ed ai responsabili dei social più diffusi, riservandosi sulla base degli esiti di questa prima fase ulteriori eventuali iniziative.
Cosa ci aspettiamo dalle audizioni delle piattaforme?
Dovrebbero servire da un lato ad avere più chiari i contorni di un fenomeno che scoppia ad ondate cicliche con una violenza definita dai media inaudita; dall’altro a capire, se è plausibile, a fronte di una imponente attività di controllo e rimozione, che possano verificarsi tempeste d’odio in rete con la frequenza che è sotto gli occhi di tutti.
Perché le tempeste d’odio online vanno arginate
Ma di cosa parliamo quando parliamo di shitstorm? Questo inglesismo, entrato prepotentemente nella cronaca e nel dibattito pubblico e che in italiano traduciamo con “tempeste di odio” indica vere e proprie gogne contro un soggetto, costituite da molti post o messaggi con espressioni di odio, insulti, minacce.
L’idea che i social possano trasformarsi in tribunali che giudicano a colpi di click e che trovano nella ribalta dei media tradizionali un’eco fino a qualche tempo fa inimmaginabile è ormai tutt’altro che remota.
Al punto che recenti casi di cronaca hanno indotto anche autorevoli personalità, verrebbe da dire più per una spinta emozionale che sulla base di una riflessione razionale, a evocare la creazione di un “garante dei social” con “poteri immediati di intervento” o a chiedere la revisione delle norme penali.
Nello stesso tempo sono sempre più alte le percentuali di contenuti d’odio (così come quelli che sono espressione di bullismo o di molestie sessuali) che, si sostiene nei report periodici delle maggiori piattaforme, vengono rimossi grazie a una costante e capillare attività compiuta dai loro algoritmi sia per il rispetto delle norme nazionali ed europee che delle loro stesse policies.
Il ruolo di media e commentatori nell’amplificazione dei contenuti d’odio
Non si può escludere che i contenuti a cui si fa riferimento siano in realtà semplicemente critici o di dissenso senza superare i confini del lecito, ma allora in questo caso occorre che media e commentatori non alimentino nel dibattito pubblico l’idea della esistenza di queste incontenibili tempeste di odio facendosi parte integrante, fors’anche inconsapevolmente, di un meccanismo perverso di amplificazione di una non notizia.
Oppure può darsi che, a fronte dei report e delle percentuali, l’attività di verifica e rimozione dei sistemi automatizzati non abbia l’estensione e la misura così spesso decantate e, in questo caso, anche a fronte dell’imminente entrata in vigore completa del Regolamento europeo DSA, occorre intensificare l’azione degli algoritmi che pure in altri impieghi, come quelli della profilazione anche ai fini pubblicitari, sembrano avere capacità molto più sviluppate.
I limiti degli algoritmi: il caso dell’Accademia della Crusca
Oppure infine può darsi vi siano limiti di approssimazione nella definizione dei criteri su cui gli algoritmi agiscono per cui riescono agevolmente a superare il vaglio del filtro dei post di disinvolti propalatori di odio mentre sono state impropriamente individuate e bloccate, su diverse piattaforme, nel marzo 2023 la Fondazione Einaudi e sotto Natale scorso per tre settimane l’Accademia della Crusca “oscurata” senza una spiegazione ufficiale.
L’illusione di una rete strumento di una democrazia perfetta è durata a lungo, anche se ormai da tempo si è preso coscienza del fatto che solo una efficace e rigorosa regolazione può evitare il rischio di un crinale scivoloso in cui, ad esempio, piattaforme e governi facciano diventare la versione ufficiale delle autorità il paradigma della verità o, comunque, di quello che è consentito dire.
La necessità di una regolazione dei contenuti online: le azioni Ue
Il Covid è stato un campanello d’allarme per un’accelerazione normativa e istituzionale tanto che il 2020 ha segnato uno spartiacque decisivo tra la funzione quasi oracolare della rete e la comprensione che le policy delle piattaforme rischiavano di sostituirsi agli ordinamenti statali. Mentre negli Stati Uniti – che pure non hanno nel loro Dna la regolazione ex ante – si è iniziato a sviluppare un dibattito sulla necessità di modificare la famosa Sezione 230 del Communications Act, che sancisce l’irresponsabilità delle piattaforme per i contenuti pubblicati dagli utenti, e in questi giorni si moltiplicano le iniziative di stati come la Florida e singole città come New York per vietare l’uso dei social a chi ha meno dei 16 anni, l’Europa nel giro di un paio d’anni ha messo in campo un corpo normativo notevole assumendo un ruolo di supremazia regolamentare,
I regolamenti europei – a cominciare da quelli già approvati come il Dsa e il Dma, ma anche i prossimi dall’Emfa all’AIA – hanno consentito di dare alle norme comunitarie una veste unitaria visto che, a differenza delle direttive, entrano immediatamente in vigore in tutti i paesi europei. Per la prima volta abbiamo un embrione di una posizione istituzionale, giuridica e unitaria dell’Unione europea a fronte di anni in cui non si riusciva ad avere una sintesi comunitaria su internet, sulle piattaforme, sulla regolazione del mercato. C’è poi un altro punto significativo e riguarda il fatto che per la prima volta il regolamento sposta il potere degli stati nazionali alla Commissione europea. Grazie al regolamento si stabilisce una sorta di asse tra la commissione europea e i singoli regolatori di ogni paese.
E’ sufficiente? Non direi. La direzione intrapresa è senza dubbio significativa ma i limiti certo non mancano. Ad esempio, il regolamento sui servizi digitali nello stabilire il principio che ciò che è illegale offline è illegale anche online non può che rimandare al diritto di ogni singolo stato membro quando si tratta di definire ciò che è illegale. E così mostriamo uno dei limiti ancora esistenti in Europa rispetto al processo di unificazione normativa.
Conclusioni
Ora, detto tutto questo, a me rimane difficile comprendere come un social che, nell’estate del 2021, si è mobilitato tanto da comunicare orgogliosamente di aver eliminato più di 7 milioni di post sulla pandemia da Covid e averne segnalati altri 98 milioni perché ritenuti “fuorvianti” in quanto non corrispondenti al dettato delle autorità sanitarie mondiali, possa bloccare per errore per tre settimane l’account dell’Accademia della Crusca. E nello stesso tempo non riuscire a intercettare il fiume di messaggi d’odio che si scatena in determinate circostanze.
Per questo credo vi sia materia per un approfondimento che aiuti a leggere le cose con spirito di verità e che fornisca gli elementi per comprendere quali effettivamente siano le risposte necessarie.