Dinanzi al Congresso USA, è al vaglio una serie di disegni di legge che hanno come obiettivo quello di creare una legislazione che renda i social media maggiormente responsabili nel caso in cui contribuiscano alla pubblicazione e diffusione di contenuti lesivi per gli utenti.
La disinformazione è un business: è ora di vegliare sulle piattaforme social
Lo scopo è quello di ridimensionare le protezioni di natura legale che, generalmente, consentono alle piattaforme di social media, come Twitter o Facebook, di pubblicare i contenuti degli utenti senza rispondere delle conseguenze derivanti dal tipo di contenuto pubblicato.
Nel dettaglio, i disegni di legge andrebbero a emendare l’attuale Sezione 230 del Communications Decency Act del 1996, una legge che consente ai siti web di disciplinare quali contenuti possono o non possono essere pubblicati, e che esenta le piattaforme da responsabilità legali per la maggior parte dei contenuti.
La Sezione 230 del Communications Decency Act del 1996
La Sezione 230 ha svolto, sinora, un ruolo fondamentale nella crescita di Internet, consentendo lo sviluppo di forme di comunicazione sempre maggiori. Tuttavia, secondo il Presidente della Commissione per l’energia e il commercio della Camera Frank Pallone, hanno anche incoraggiato le aziende a promuovere contenuti divisivi e dannosi, al fine di attirare un numero sempre maggiore di utenti: “Per anni, queste piattaforme hanno agito al di sopra della legge e al di fuori della portata dei regolatori e del pubblico, ed è tempo che questo cambi”, ha affermato, “Il momento di agire è adesso”.
Repubblicani e democratici, pertanto, hanno iniziato a domandarsi se la legge, per come attualmente formulata, dia alle società digitali troppo potere o troppa poca responsabilità per ciò che accade sulle loro piattaforme.
I repubblicani, in particolare, temono che la Sezione 230 dia alle Società troppo potere anche in relazione alle censure che è possibile attuare sui contenuti pubblicati online. I democratici, invece, credono che la Sezione 230 costituisca una sorta di “lasciapassare” nel caso in cui non riescano a porre in essere misure efficaci per fermare eventi come le vendite illegali di droga o l’organizzazione di fenomeni violenti da parte degli estremisti.
Ad oggi, infatti, la legge vigente consente alle aziende di far uso di uno scudo legale che permette di respingere le cause portate avanti per la maggior parte dei contenuti pubblicati dai loro utenti. I legislatori, tuttavia, sono convinti che non possa escludersi la complicità dei social media ed il loro peso della diffusione e nell’amplificazione degli effetti dei posti dannosi o violenti.
Social media, gli obiettivi delle proposte
Le proposte di legge perseguono, in sintesi, due obiettivi fondamentali:
- inasprire i requisiti per poter usufruire delle protezioni legali di cui alla Sezione 230;
- creare una serie di eccezioni all’applicazione delle tutele previste dalla Sezione, per specifiche casistiche, come la violazione di diritti civili, comportamenti molesti (come lo stalking) o l’abuso sessuale nei confronti dei minori.
I cambiamenti proposti andrebbero, in particolare, a responsabilizzare le piattaforme nel caso in cui gli algoritmi utilizzati propongano agli utenti dei contenuti che danneggiano alcune categorie di utenti: secondo quanto affermato da Pallone, le persone lese gravemente dagli algoritmi dei social media potranno ottenere un risarcimento in Tribunale da parte delle piattaforme.
I legislatori, infatti, hanno trascorso anni a indagare come i fenomeni di incitamento all’odio, della disinformazione e del bullismo digitale possano portare a pesanti conseguenze nel mondo reale e a danni profondi per gli utenti.
La “colpa” di tali fenomeni viene attribuita sempre più spesso agli algoritmi che governano le piattaforme e decidono quali contenuti far vedere agli utenti e quando vederli, anche con riferimento ai gusti personali espressi dagli stessi.
“Ogni giorno, le grandi aziende tecnologiche aumentano il numero di persone nel nostro paese che credono che la violenza razziale ed etnica sia una soluzione, non un problema, e ogni giorno aumentano il numero di aziende nel nostro paese che praticano la discriminazione e sfruttano sistematicamente i consumatori”, ha dichiarato Rashad Robinson, presidente di Color of Change, un’organizzazione senza scopo di lucro a difesa dei diritti civili.
Le proposte di legge discusse si occupano, dunque, di regolare, seppur in termini generali, le conseguenze derivanti dalla diffusione esponenziale dei contenuti potenzialmente dannosi.
Il disegno di legge sponsorizzato dalla senatrice Amy Klobuchar, democratica del Minnesota, esporrebbe una piattaforma a cause legali se “promuove” la portata della disinformazione sulla salute pubblica, salvando invece quelle piattaforme che fanno uso di algoritmi che promuovono i contenuti in modo “neutrale”. Ciò potrebbe significare, ad esempio, che una piattaforma che classifica i post in ordine cronologico sarebbe ancora oggetto di tutela ai sensi della Sezione 230.
“La pandemia di coronavirus ci ha mostrato quanto possa essere letale la disinformazione ed è nostra responsabilità agire”, ha affermato la Klobuchar nell’annunciare la proposta, che è stata co-scritta dal senatore Ben Ray Luján, democratico del New Mexico.
La maggior parte dei disegni di legge attualmente in esame dinanzi al Congresso riguardano tipi specifici di contenuti.
Un disegno di legge promosso dai rappresentanti Anna G. Eshoo della California e Tom Malinowski del New Jersey, entrambi democratici, definisce l’”amplificazione algoritmica pericolosa” come qualsiasi azione per “classificare, ordinare, promuovere, raccomandare, amplificare o alterare allo stesso modo la consegna o la visualizzazione di informazioni”. La proposta, tuttavia, si applica solo all’amplificazione svolta nei confronti di post che violano le leggi sui diritti civili e sul terrorismo internazionale.
Un altro disegno di legge avanzato dai democratici, prevede che le piattaforme possano essere citati in giudizio solo quando l’amplificazione algoritmica è stata guidata dai dati personali di un utente. “Queste piattaforme non sono spettatori passivi – stanno consapevolmente scegliendo i profitti rispetto alle persone, e il nostro paese sta pagando il prezzo“, ha affermato al riguardo il rappresentante Frank Pallone Jr., presidente del Comitato per l’energia e il commercio, quando ha annunciato la proposta.
Cambiare la Sezione 230: pro e contro
Il disegno di legge del Presidente della Commissione per l’energia e il commercio della Camera Frank Pallone si applica a qualsiasi post che “abbia materialmente contribuito a una lesione fisica o emotiva grave per qualsiasi persona” e include un’esenzione per qualsiasi azienda la cui piattaforma abbia meno di cinque milioni di utenti mensili, oltre ad un’ulteriore esenzione per i post che vengono visualizzati nel momento in cui l’utente svolge una specifica ricerca, anche nel caso in cui siano classificati da un algoritmo.
La proposta di Pallone pone standard molto elevati per poter ritenere la piattaforma responsabile: il disagio emotivo dovrebbe essere accompagnato, infatti, da sintomi fisici, tutelando, ad esempio, un’adolescente che sviluppa disturbi alimentari o comportamenti autolesionistici a causa dei post che visualizza, che diminuiscono la sua autostima.
Si tratta, tuttavia, di una proposta che appare forse eccessivamente generica, e che potrebbe portare, secondo alcuni repubblicani, le piattaforme a rimuovere i contenuti che, invece, potrebbero restare sulle stesse. La rappresentante Cathy McMorris Rodgers di Washington ha affermato, a tal riguardo, che si tratta di un “tentativo sottilmente velato di fare pressione sulle aziende per censurare più discorsi”.
Alle proposte avanzate sono state avanzate numerose critiche anche da parte dei gruppi tecnologici: “Cambiare la Sezione 230 è una cattiva soluzione a un problema che i siti di social media stanno già lavorando duramente per risolvere”;, ha affermato Chris Marchese, consulente di NetChoice, un’associazione di categoria tecnologica, autrice di un rapporto che mostra come i social media, nella sola seconda metà del 2020, abbiano provveduto a rimuovere miliardi di post per poter mantenere le loro piattaforme sicure.
I contenuti dannosi sui social media
Come anticipato, i legislatori hanno cercato anche di identificare con maggior precisione il tipo di contenuto che possa qualificarsi come “dannoso”. Sulla scorta di quanto annunciato, si includono nella categoria:
- le teorie del complotto che possono portare all’insorgenza di fenomeni violenti da parte di alcuni aderenti alle stesse;
- i post di gruppi terroristici, che potrebbero spingere qualcuno a commettere un attacco violento;
- gli annunci mirati che portano a fenomeni discriminatori.
In merito al contenuto disinformativo sanitario, la proposta di Klobuchar lascia, invece, al Dipartimento della Salute e dei Servizi Umani il parere di determinare cosa significhi esattamente.
L’audizione di Frances Haugen
Tra i soggetti che hanno preso parte all’audizione, vi è anche Frances Haugen, un’ex dipendente di Facebook che ha provveduto a rilasciare documenti interni che hanno mostrato come l’azienda abbia causato dei danni ai propri utenti, dai problemi di salute mentale degli adolescenti all’alterazione del dibattito politico, alle cospirazioni sul vaccino Covid-19.
“Facebook potrebbe non causare tutti questi problemi”, ha detto. “Ma l’azienda li ha decisamente peggiorati. Facebook sa cosa sta succedendo sulla piattaforma e fa troppo poco al riguardo; infatti, ha incentivi per farlo in questo modo. Questo è ciò che deve cambiare”.
Haugen ha dichiarato di essere a favore della modifica della Sezione 230, e della decisione di escludere alcune decisioni prese dagli algoritmi dalle tutele previste nella legge medesima. Tuttavia, ha anche avvertito il Comitato delle possibili conseguenze negative indesiderate che potrebbero derivare dall’apposizione di nuove limitazioni, che occorre egualmente considerare nel processo di valutazione delle proposte.
“Mentre considerate le riforme della Sezione 230, vi incoraggio ad andare avanti con gli occhi aperti alle conseguenze della riforma”, ha affermato la Haugen, “Vi incoraggio a parlare con i difensori dei diritti umani che possono aiutare a fornire un contesto su come l’ultima riforma del 230 ha avuto un impatto drammatico sulla sicurezza di alcune delle persone più vulnerabili della nostra società, ma è stata raramente utilizzata per il suo scopo originale”.