Alla potenza di fuoco delle piattaforme online, intermediari pervasivi per la diffusione di notizie e contenuti falsi e fuorvianti su vasta scala, non corrisponde ancora un contesto sufficientemente regolamentato sotto il profilo delle responsabilità.
A tutti gli effetti, questi, da attori economici hanno infatti assunto il ruolo di veri e propri poteri privati, Signori della sovranità digitale.
La disinformazione corre sui social e le contromisure non bastano: che fare?
Il presidente Usa Joe Biden ha lanciato un appello alle società di social media affinché si assumano maggiori responsabilità rispetto alle “camere dell’eco polarizzanti” e alla dilagante disinformazione a cui sono costantemente esposti gli utenti, in particolare minori e adolescenti.
È, infatti, dimostrato come l’uso eccessivo dei social media sia fortemente legato a problemi di salute mentale tra gli individui. Gli adolescenti, connessi abitualmente dalle cinque o più ore al giorno sui social media, hanno il doppio delle probabilità di sviluppare forme più o meno gravi di ansia e depressione.
Ha, pertanto, esortato Democratici e Repubblicani ad unirsi per favorire l’approvazione di una forte legislazione bipartisan volta a delimitare la zona grigia di irresponsabilità in cui prosperano le grandi aziende tecnologiche quanto ai contenuti, ai discorsi diffamatori e messaggi manipolatori o estremisti pubblicati e condivisi sulle rispettive piattaforme.
“Milioni di giovani stanno lottando contro il bullismo, la violenza, i traumi e la salute mentale. Dobbiamo ritenere le società di social media responsabili dell’esperimento che stanno conducendo sui nostri figli a scopo di lucro” ribadisce Biden.
Il Governo Usa vuole arginare lo strapotere delle Big Tech: ecco il piano
I disegni di legge che mirano a limitare le protezioni della Sezione 230
Il riferimento del Presidente si riporta ai disegni di legge che mirano alla rimodulazione dell’immunità da responsabilità della Sezione 230, tra cui il Journalism Competition and Preservation Act del 2021 (JCPA), presentato alla Camera dal deputato Dem. David Cicilline e Rep. Ken Buck, e al Senato dal senatore Dem. Amy Klobuchar e dal senatore Rep. John Kennedy , il Protecting Americans from Dangerous Algorithms Act, il Platform Accountability and Transparency Act (introdotto dai senatori Amy Klobuchar, un democratico del Minnesota e Chuck Grassley, un repubblicano dell’Iowa), oltre ad ulteriori proposte di legge intese a rafforzare la privacy e a proteggere i diritti dei minori online, come il Children’s Online Privacy Protection Act, promosso dal senatore democratico Ed Markey.
Oltre a questi, altri progetti normativi al vaglio dei legislatori statunitensi vorrebbero che, tanto il procuratore generale dello stato, quanto i procuratori distrettuali locali e i procuratori delle quattro città più grandi della California avessero la possibilità di citare in giudizio le società di social media qualora i contenuti diffusi online si rivelassero idonei a danneggiare i minori alimentando forme di ansia e/o dipendenza.
Non è una novità: in diverse occasioni il presidente degli Stati Uniti ha affermato come la sua amministrazione sosterrà la posizione secondo cui le protezioni della Sezione 230 non debbano estendersi agli algoritmi di raccomandazione.
“Abbiamo bisogno che le aziende Big Tech si assumano la responsabilità dei contenuti che diffondono e degli algoritmi che utilizzano”. “Ecco perché ho detto a lungo che dobbiamo riformare radicalmente la Sezione 230 del Communications Decency Act, che protegge le aziende tecnologiche dalla responsabilità legale per i contenuti pubblicati sui loro siti”, ha dichiarato al Wall Street Journal.
Nuove regole big tech negli Usa: perché sarà una dura partita
Il ruolo centrale della Suprema Corte USA
In tal senso, il caso, Gonzalez v. Google LLC (frutto della citazione in giudizio di Google da parte di Reynaldo Gonzalez, la cui figlia è stata uccisa nel corso di un attacco terroristico a Parigi del 2015 che porta la firma di ISIS, finito davanti all’Alta Corte americana) rappresenta un’opportunità importante per il Supremo Tribunale che sembrerebbe aver maturato l’intenzione di poter riconsiderare la porta della Sez 230 del Communications Decency Act del 1996. Ovvero di quelle regole che, fino ad oggi, hanno consentito alle varie autorità giudiziarie americane di esprimersi con pronunce favorevoli ai social e alle pratiche di “deplatforming” o moderazione autonoma di contenuti dagli stessi praticate.
La casistica giurisprudenziale esaminabile in tal senso è ampia: Mezey v. Twitter, Cox v. Twitter , Kimbrell v.Twitter, oltre alla decisione del 27 maggio 2020 sulla controversia che vede contrapporsi Freedom Watch e Laura Loomer da una parte e Google dall’altra.
“Freedom Watch’s First Amendment claim fails because it does not adequately allege that the Platforms can violate the First Amendment. In general, the First Amendment “prohibits only governmental abridgment of speech.” aveva dichiarato la Corte.
Oggi, invece, la Corte Suprema darebbe proprio l’impressione di essere pronta ad un cambio di rotta, dichiarandosi pronta a discutere diversi casi, tra cui, oltre a Gonzalez v. Google LLC, anche quello che vede schierati Twitter v. Taamneh, con conseguenze potenzialmente enormi che potrebbero alterare il modo in cui Internet è stato regolamentato fino ad ora ed echi che, di sicuro, si rifletteranno ben oltre i confini americani.
Ad ogni modo, tra le tante posizioni, l’ostacolo che più di tutti avrà modo di limitare i piani del Presidente Biden è sicuramente costituito dal Primo Emendamento della Costituzione americana (solo il potere statale e non i poteri privati è obbligato a rispettare i vincoli dettati dalla natura quasi sacrale del Primo Emendamento) e dal convinto richiamo che ad esso faranno i difensori delle libertà fondamentali e le stesse Big tech schierati al lato opposto.
La posizione delle big tech
Google non lesina dichiarazioni nelle quali preannuncia scenari distopici con conseguenze terribili: “un esito a favore della famiglia Gonzalez trasformerebbe Internet in una distopia in cui i provider dovrebbero affrontare pressioni legali per censurare qualsiasi contenuto discutibile. Alcuni potrebbero adeguarsi, altri potrebbero cercare di eludere la responsabilità chiudendo gli occhi e lasciando tutto, anche se discutibile”.
Dello stesso tenore le esternazioni rese manifeste, da Meta, Twitter e Microsoft, oltre a Yelp, Reddit e alla Electronic Frontier Foundation in veste di “Amici Curiae”, in supporto a Google nel contesto del noto caso giudiziario .
Altrettanto ne è convinta la rete IFEX composta da oltre 100 organizzazioni impegnate a promuovere e difendere la libertà di espressione e l’accesso alle informazioni.
“Piuttosto che proteggere la libertà di parola, minare la Sezione 230, limiterà un maggior numero di discorsi online. Faciliterà il governo stesso a esercitare le leve della censura, minando fondamentalmente i diritti del Primo Emendamento negli Stati Uniti.” così Quinn McKew, direttore esecutivo della nota associazione Articolo19.
Concordi con questa visione anche David Greene e Aaron Mackey di EFF: “restringere l’ambito delle protezioni della Sezione 230 aumenterebbe la censura e minaccerebbe l’Internet libero e aperto”.
“L’aumento della responsabilità delle piattaforme online per l’hosting del discorso dei loro utenti porterebbe a una severa censura che potrebbe minare l’architettura stessa di Internet libero e aperto”, ha sostenuto la Electronic Frontier Foundation (EFF) alla Corte Suprema degli Stati Uniti nella memoria depositata nella causa Gonzalez v. Google[1]. “Restringere la Sezione 230 eroderà drasticamente i vantaggi significativi che il Congresso ha previsto nell’emanare la legge del 1996” sostiene EFF.
Insomma, dibattiti e sfide che negli USA si giocano nell’alveo della Sez. 230 del Communications Defency Act: “Nessun fornitore e nessun utilizzatore di servizi Internet può essere considerato responsabile, come editore o autore, di una qualsiasi informazione fornita da terzi”.
Tanto dispone le Sezione 230 del Communications Decency Act, la legge approvata dal Congresso nel 1996.
Facebook, Twitter, YouTube, Vimeo, Google, Amazon, Yelp e tanti altri, dai normali provider di servizi Internet (ISP) ai fornitori di servizi informatici interattivi: nessuna di queste entità può essere considerata alla stregua di società editrici o di telecomunicazioni, bensì meri fornitori di un servizio informatico interattivo e infrastrutture in cui avviene scambio di dati. Hosting.
E in tutto ciò, in mancanza di strumenti normativi adeguati, ciascuna piattaforma si pone quale interprete “a suo modo” della migliore tutela nei confronti del processo democratico.
Da qui ha modo di svilupparsi negli USA l’attuale dibattito legato alla vexata quaestio tra rispetto del diritto alla libertà di manifestazione del pensiero, dei suoi confini e la tutela della libertà di informare, intesa quale aspetto attivo della prima ed entrambi precondizioni di sovranità popolare.
Disinformazione, ma cos’è esattamente? Strumenti, strategie, obiettivi
L’economia dell’attenzione detta legge
L’ecosistema informativo digitale tanto vasto e a basso costo quanto disintermediato, consente ai gatekeepers dell’informazione – Google e Facebook, Twitter, YouTube, Instagram – di assurgere al ruolo di custodi delle porte di accesso alle informazioni di ogni specie, abilitando il collegamento tra creatori e fruitori dei relativi contenuti.
L’economia dell’attenzione detta legge e mostra il fianco alle speculazioni algoritmiche dei big del web.
In tal senso, padroneggiare il meccanismo dell’eccitazione emotiva nella progettazione della divulgazione dei contenuti digitali diviene essenziale.
La sorveglianza intrusiva degli intermediari digitali, che alimenta gli algoritmi basati sul “coinvolgimento”, stabilisce per gli inserzionisti come per gli spammer politici il livello di appetibilità del contenuto trasmesso e diviene moneta di scambio a garanzia della migliore attenzione dell’esercito di utenti dall’appetito apparentemente infinito per certi contenuti.
E’ questo un panorama sicuramente allettante per i tanti volti della disinformazione orientata alla diffusione di hate speech, false notizie, propaganda e contenuti mistificatori.
Ed è anche il regno della pubblicità digitale dove marketer e attori politicamente ispirati combattono per l’attenzione e dove monetizzazione e condivisione diventano indissolubilmente legati.
Mentre micro-targeting, profilazione psicografica e personalizzazione favoriscono le campagne degli inserzionisti o la propaganda elettorale di certe fazioni, diventando la causa principale della polarizzazione sociale, la pratica di regolamentare o censurare i post generati dagli utenti, la moderazione dei contenuti, promossa dalle società social media, al centro della scena nei dibattiti sulla libertà di espressione, mostra tutta la sua fragilità così come gli evidenti limiti, spesso causa dei più grandi scandali delle piattaforme stesse.
E certo, artefici esperti della disinformazione, attori malintenzionati mossi da fini commerciali o politici, non si fanno cogliere impreparati nei confronti delle vantaggiose opportunità “a portata di click” offerte dalle inefficienze operative delle politiche di controllo dei contenuti e, del tutto indisturbati, si adattano al nuovo ambiente prodigandosi, peraltro con notevole riscontro di pubblico, nella pratica degli insegnamenti tratti dall’economia dell’attenzione.
Forti dei privilegi concessi dalla sorveglianza intrusiva che Facebook e Google utilizzano per addestrare algoritmi basati sul “coinvolgimento”, beneficiano della garanzia che un vasto pubblico di utenti continui a prestare attenzione ai contenuti curati.
A tutti gli effetti, i contenuti mistificatori e disinformativi (con largo vantaggio di questi ultimi) proficuamente diffusi dai social network, imperversano.
Divengono virali e si espandono attraverso il fenomeno delle “cascate di condivisioni”.
Si uniscono alle informazioni autentiche o alla satira più sottile generando un’inestricabile ambiguità di cui si nutrono tanto i pregiudizi cognitivi che condizionano la debole coscienza critica degli utenti, quanto la polarizzazione sociale.
Gli individui, per lo più “gracili” e “cedevoli”, tanto destinatari delle notizie quanto potenziali distributori e creatori delle stesse, non manifestano particolari difficoltà a adattarsi ad un tale ecosistema digitale informativo e tuttavia ciò non è senza conseguenze.
Ad esempio, per lo stile di vita di ciascuno, per i consumi culturali, per la capacità di apprendimento propria di ognuno, fortemente condizionata dai confini imposti dalle ormai famose bolle, o echo-chambers magistralmente descritte nel 2011 da Eli Pariser.
Un pubblico, dunque vasto ma distratto, e spesso poco valore aggiunto. L’illustre economista e professore alla Carnegie-Mellon University di Pittsburg in Pennsylvania, Herbert A. Simon, nel 1971, avvertiva “L’informazione consuma attenzione. Quindi l’abbondanza di informazione genera una povertà di attenzione e induce il bisogno di allocare la stessa, efficientemente, tra le molte fonti di informazione che la possono consumare”.
Proprio nella delicata relazione tra information overload e povertà di attenzione, sapientemente intuita da Herbert A. Simon, la disinformazione trova terreno fertile.
Il declino dell’affidabilità delle informazioni e l’indebolimento delle istituzioni democratiche
Sullo sfondo emerge netto il declino dell’affidabilità delle informazioni e l’indebolimento delle istituzioni democratiche che si muovono in un percorso molto complesso in Usa come in ogni Stato di diritto.
E la risposta ancora tarda.
Soft law, Codici e standard etici dell’industria tecnologica digitale, svincolati da controlli e imposizioni normative – visti quali freni inibitori dell’innovazione e della creatività – condizionano la società e orientano il futuro, contribuendo al disallineamento tra diritti, libertà fondamentali e principi etici. La disinformazione ubiquitaria continua ad alimentare i mercati “redditizi” della verità, favorisce lo sviluppo dell’ecosistema clickbait e le varie forme di sudditanza e colonialismo tecnologico di cui sono vittime, per eccellenza, ma non solo, gli stati del mondo più fragili; dai cosiddetti “effetti di rete” e asimmetrie informative, all’annientamento degli stessi presupposti giuridici alla base delle attuali logiche del capitalismo e delle regole della libera concorrenza.
Le stesse Big Tech vengono favorite o osteggiate dai rispettivi stati di appartenenza, a seconda delle convenienze in ballo, competono tra loro per l’egemonia su settori strategici quando addirittura non sottoscrivono patti di non belligeranza: dal cloud computing alla propaganda computazionale e programmatic advertising; dal social business alle applicazioni di intelligenza artificiale specie di sorveglianza biometrica alimentate dai copiosi database in ambito sia pubblico che privato.
Si sottomettono e a loro volta assoggettano il potere politico.
Tra self regulation statunitense e hard law europea, l’analisi delle strategie seguite dai principali “narratori” del web si rivela ancora vincente. Alle politiche di contrasto alla disinformazione piuttosto blande, rispondono modelli di business in ottima salute, perfettamente adattabili ai nuovi contesti tecnologici globalizzati, seppur “disinformati”.
Il costituzionalismo digitale si rivela il grande assente di un’agorà digitale che è ormai fonte di privilegi per pochi attori tecnologici e in cui avvizzisce quel mercato delle idee fondato sull’autodeterminazione e sulla libertà fondamentali delle democrazie liberali.
Con facilità la moderazione della libertà di espressione cade vittima di overload informativi e della selezione algoritmica basata sul coinvolgimento emozionale.
La risposta in UE: il Regolamento Ue 2022/2065 sui servizi digitali (Digital Services Act)
In Europa, a partire dal 16 novembre 2022, con l’entrata in vigore del Digital Service Act, applicabile per la maggior parte delle sue norme dal 17 febbraio 2024, la scelta è stata quella di confermare la parziale esenzione di responsabilità sancita nella normativa del 2000 con la Direttiva sul commercio elettronico 2000/31/CE, aggiungendo al contempo specifici obblighi di carattere procedurale oltre ad alcuni aggiustamenti volti a incrementare il livello di trasparenza e accountability degli intermediari. Obblighi che non si estendono indistintamente a tutte le piattaforme, ma che si rivolgono in modo particolare a quelle che saranno ritenute “very large online platforms”. Ovvero con un numero di utenti mensili medi pari o superiore al 10% del totale dei consumatori dell’UE (per il momento 45 milioni di persone).
L’approccio è sempre quello basato sul rischio fondato essenzialmente sull’istituzione di un quadro normativo con la previsione di obblighi e doveri graduati in quattro regimi giuridici differenti e declinati in base allo specifico contesto e alle attività attuate dalle parti.
Digital Services Act: i nuovi effetti e le responsabilità per le aziende italiane
Obiettivo del Digital Service Act è infatti quello di aumentare attraverso l’imposizione di precisi obblighi procedurali a cui sono sottoposte le piattaforme, la trasparenza algoritmica, la comprensione e la consapevolezza degli utenti; di impedire la proliferazione di tattiche di manipolazione dell’autodeterminazione e “modelli oscuri”, i cosiddetti “dark patterns”; di limitare le pratiche di microtargeting pubblicitario, specie rivolte verso i minori o incidenti su particolari categorie di dati ritenuti “sensibili”, oltre a quello di arginare forme di incitamento all’odio e attacchi razzisti online e altri contenuti illegali o semplicemente nocivi. Non ultimo garantire il corretto svolgimento del gioco della libera concorrenza e regolamentare l’economia digitale in mano ai “gatekeeper”, ossia le aziende “dominanti” del web, il secondo.
In modo particolare quello che il Digital Services Act si propone è agire a livello procedurale prevedendo obblighi che spaziano dalle valutazioni di impatto e di rischio preventive, agli adempimenti in termini di informazione e motivazione, al sistema di gestione dei reclami proporzionati alle dimensioni del fornitore di servizi, piuttosto che optare per la via (peraltro non perseguibile a livello costituzionale) del controllo ex ante dei contenuti in rete, pericolosamente al confine con deprecabili operazioni di autocensura non accettabili in un un contesto di diritto come quello europeo.
E dunque, dai meccanismi di monitoraggio noti come “notice and take down” ( dopo avere ricevuto una segnalazione da parte del titolare dei diritti, l’autorità intima alla piattaforma di eliminare il contenuto illecito), verso approcci “notice and action”, “avviso e azione” per la rimozione di prodotti, servizi o contenuti illegali online: i fornitori di servizi di hosting dovrebbero agire al ricevimento di un avviso “senza indebito ritardo, tenendo conto del tipo di contenuto illegale che viene notificato e dell’urgenza di agire”.
Premesse senza dubbio importanti che fanno leva tanto sulla costruzione della fiducia quanto sull’investimento nell’innovazione digitale ma che non elimina le tante perplessità sull’efficacia di un simile approccio e sulla sua validità in termini di tutela dei minori.
È un confine sottile eppure ben preciso quello tra il diritto di informare e il diritto ad essere informati correttamente e a non essere ingannati.
Le fake news non hanno niente a che vedere con le opinioni. Sono fatti menzogneri.
Il linguaggio inneggiante all’odio non ha niente a che fare con la libertà di espressione. È piuttosto un abuso del medesimo diritto.
Per il momento,però, a dettare legge è ancora la logica dell’economia dell’attenzione.
Le battaglie più importanti per la tutela dei diritti sono a portata di click
La sensazione è che di fronte alla complessità crescente della società del XXI secolo le regole poste a tutela del pluralismo e della difesa dei diritti fondamentali entrino pesantemente in crisi fino a mostrarsi piuttosto inconferenti; che non esista la possibilità di un business etico e che l’immaginazione in mano alle élite sia già abbondantemente al potere.
È questo il preambolo di futuro, almeno per ora, piuttosto inquietante di cui la verità è già la prima vittima, in cui la capacità di autodeterminazione degli individui è gravemente compromessa e i nostri valori fondamentali profondamente in pericolo.
Il successo che certe scelte, di natura giudiziaria o anche regolamentare, saranno in grado di determinare rispetto alle evoluzioni sociali in corso e alla responsabilizzazione della dimensione orizzontale dei poteri privati forti, dipenderà in primis dalle persone che le hanno determinate.
Ogni ordinamento democratico, che sia esso espressione della visione “americana” piuttosto che “europea”, più restrittiva, rassicura sul fatto che la basilare funzione di salvaguardia dell’attendibilità dei fatti si svolga nel solco di un dibattito pubblico dove, proprio dal confronto tra le molteplici idee, avrebbe modo di emergere la realtà dei fatti.
Eppure, a dispetto di tanti buoni intenti palesati, la situazione ci è “sfuggita di mano”.
Tanto da apparire irrecuperabile?
Note
- La questione al vaglio dei Giudici consiste nello stabilire se Google possa essere citato in giudizio per aver raccomandato contenuti pro-ISIS agli utenti attraverso il suo algoritmo di YouTube. La società ha sostenuto che la sezione 230 precluderebbe tale contenzioso. I querelanti dal canto loro, i familiari di una persona uccisa in un attacco dell’ISIS a Parigi nel 2015, hanno invece sostenuto che l’algoritmo di raccomandazione di YouTube otesse essere ritenuto responsabile ai sensi di una legge antiterrorismo statunitense. ↑