l'analisi

Social e politica, nel silenzio delle leggi il caos sta vincendo

La moderazione dei contenuti e il deplatforming sono al momento determinate da interessi economici, valori costituzionali e contesti territoriali e sono di fatto delegate dalle istituzioni pubbliche alle piattaforme private. Il problema però è sociopolitico e di garanzie costituzionali. Come evitare il cortocircuito?

Pubblicato il 02 Feb 2021

Barbara Calderini

Legal Specialist - Data Protection Officer

social society digital

Il recente deplatforming del Presidente uscente degli Stati uniti, Donald Trump e il dibattito sulla moderazione dei contenuti che ne è scaturito, ha reso urgente il confronto sui rischi di inazione, arbitrarietà e disparità di trattamento insiti nella governance delle piattaforme e sulle sfide ambiziose del costituzionalismo, alle prese con i nuovi poteri privati in ambito digitale.

Facebook, Twitter, Snapchat, ma anche Shopify, Stripe, Reddit, la piattaforma di messaggistica Discord, TikTok, Twitch, hanno adottato misure restrittive senza precedenti nei confronti di Trump dopo che i suoi sostenitori hanno assaltato il palazzo del Congresso a Washington nella notte tra il 6 e il 7 gennaio 2021.

Una decisione sofferta da parte loro – come affermato almeno dai capi di Twitter e Facebook. Ma anche contraddittoria, dato che altrove nel mondo non sono intervenuti con la stessa forza verso politici e governanti che hanno usato i social per discriminare minoranze, umiliare le proteste.

Il caos è insomma enorme sotto il cielo. I social hanno sempre tutelato i post dei governanti sostenendo il diritto delle persone a conoscere cosa questi pensano; anche se i loro post hanno di contro una maggiore capacità di fare danni. Adesso hanno stabilito, arbitrariamente, che questo secondo fattore pesa più del primo. Ma solo negli Stati Uniti. Non altrove. Dove pure i danni ci sono, eccome, e anche più gravi in termini di vite umane.

Le proteste delle organizzazioni per i diritti umani per l’inerzia dei social nelle aree calde del mondo

Diversi attivisti, giornalisti e organizzazioni per i diritti umani sollecitano infatti una maggiore solerzia e un’uniforme applicazione delle policy di sicurezza nei territori che vedono costantemente minacciate minoranze etniche ed il libero esercizio dei diritti umani: Facebook, in modo particolare, stante la sua influenza a livello globale.

Tra questi anche Electronic Frontier Foundation, che pur auspicando un’estesa applicazione dei Principi di Santa Clara sulla trasparenza e responsabilità nella moderazione dei contenuti (principi convenzionali elaborati nel 2018 a margine di un evento sulla moderazione dei contenuti presso la Santa Clara University da diverse organizzazioni ed esperti accademici) sostiene come proprio la pletora di pratiche di moderazione, messe in atto dalle singole piattaforme, se ben utilizzate possano contribuire a mantenere l’ecosistema online funzionante e fruibile per tutti.

“The misconception that platforms can somehow lose Section 230 protections for moderating users’ posts has gotten a lot of airtime. This is false. Section 230 allows sites to moderate content how they see fit. And that’s what we want: a variety of sites with a plethora of moderation practices keeps the online ecosystem workable for everyone. The Internet is a better place when multiple moderation philosophies can coexist, some more restrictive and some more permissive”.

E così in un’intervista al New York Times, anche Javier Pallero, direttore delle politiche di Access Now: “Quando ho visto cosa hanno fatto le piattaforme con Trump, ho pensato: avresti dovuto farlo prima, e dovresti farlo in modo coerente in altri paesi in tutto il mondo” e conclude, “In tutto il mondo, siamo in balia di quando decidono di agire. A volte agiscono molto tardi e a volte non agiscono per niente”.

Il riferimento è ovviamente legato alle pesanti condizioni di violenza e repressione inammissibili, in cui continuano a trovarsi le popolazioni e le minoranze etniche in alcune zone calde del mondo, dove, il panico per una minaccia percepita dai contenuti immediatamente virali condivisi nel social, con estrema facilità, può portare alcuni a prendere in mano la situazione – al linciaggio o peggio.

Parliamo ad esempio di:

  • Sri Lanka, dove buddhisti e musulmani vengono spinti gli uni contro gli altri in un’ondata di violenza social di fatto non ostacolata dalle piattaforme di Zuckerberg.
  • Myanmar, dove Facebook, viene costantemente sfruttato per favorire la moderna pulizia etnica rivolta verso i musulmani Rohingya e “fomentare la divisione e incitare alla violenza offline”: tanto emerge anche dal report condotto dall’organizzazione no profit Business for Social Responsibility, commissionato dalla stessa piattaforma.
  • Bolivia e Slovacchia, dove il programma del social Explore Feed, testato in 6 paesi – tutti con governi instabili e dibattiti pubblici sbilanciati verso i media governativi – Slovacchia, Serbia, Guatemala, Bolivia, Cambogia e Sri Lanka, sembrerebbe in realtà amplificare l’impatto di notizie polarizzanti se non inventate e sensazionali (nel 2019, in Slovacchia, Facebook non avrebbe oscurato i post di un parlamentare condannato e rimosso dal suo incarico nel governo per istigazione e commenti razzisti). Il New York Times ne riporta un’analisi interessante che vale la pena leggere.
  • India, Filippine, Cambogia, Brasile e Messico, dove Facebook promette una ferrea verifica dei contenuti violenti e fuorvianti, senza però estendere di fatto tali controlli alla propria piattaforma di messagistica WhatsApp, spesso canale preferenziale per la distribuzione di informazioni false e incitamenti discutibili. Nelle Filippine, il presidente Rodrigo Duterte si servirebbe di Facebook per attaccare giornalisti e critici. E in Cambogia, Human Rights Watch, avrebbe già evidenziato come alcuni funzionari governativi si siano spesi con post diffamatori rivolti verso un importante monaco buddista che difende i diritti umani.
  • Etiopia, dove l’inattività delle piattaforme social per molti presterebbe il fianco alle esasperazioni sociali intrise di violenza di un regime politico facilmente infiammabile.

A fronte di tale iniquità e inoperosità David Kaye, professore di diritto ed ex osservatore delle Nazioni Unite per la libertà di espressione, si domanda se il precedente storico stabilito dalle piattaforme digitali a seguito del ban di Trump dai social, e da Twitter in particolare, possa aver aperto la strada verso una politica di oscuramento e controllo delle informazioni on line in tutto il mondo, più severa ed aggressiva, e, se un tale standard possa essere adeguatamente e correttamente coperto da congrue risorse materiali e regolamentari o piuttosto costituire, come sostenuto anche da Jack Dorsey, una premessa piuttosto pericolosa. A tal fine, lo stesso Kaye, durante la sua ultima visita in Etiopia, sollecita le piattaforme dei social media affinché si impegnino “regolarmente con le autorità e la società civile per stabilire meccanismi regolari e di reazione rapida per consentire alla società civile di segnalare i tipi di contenuti più preoccupanti sulle loro piattaforme”.

La lettera aperta delle organizzazioni e degli attivisti per i diritti umani a Facebook

E’ indirizzata proprio a Facebook anche la lettera aperta redatta da diverse organizzazioni, tra cui Access Now, ADC, African Declaration on Internet Rights and Freedoms Coalition, African Freedom of Expression Exchange (AFEX), Africtivistes, ARTICOLO 19 Eastern Africa, e da singoli individui impegnati nella difesa dei diritti umani, con la quale, dopo i gravi episodi seguiti all’omicidio di Haacaaluu Hundeessa ad Addis Abeba, si è inteso sollecitare la ferma presa di posizione del social affinché i propri servizi non fossero utilizzati per incitare alla violenza, propagare l’odio e promuovere la discriminazione in Etiopia.

“We understand that incitement to violence is a complex issue where government action – or lack thereof – plays a key role in its materialization. Companies, including those that provide and curate a platform for communication, have a responsibility under human rights law “to prevent or mitigate adverse human rights impacts that are directly linked to their […] services” and have the obligation to “[remedy] any adverse human rights impacts they cause or to which they contribute.” So far, Facebook has failed to prevent the escalation of incitement to violence on its services, and particularly in Ethiopia.”

Le richieste, partendo dal richiamo al diritto internazionale dei diritti umani – secondo cui contenuti che rientrano nella soglia di istigazione alla violenza, ostilità e discriminazione, non appartengono all’ambito protettivo del diritto alla libertà di espressione – giungono alla definizione di una serie di raccomandazioni, alcune da implementare con solerzia e altre a lungo termine che, auspicano, Facebook possa prendere molto seriamente.

Nel frattempo, quest’ultimo, tramite Miranda Sissons, Director, Human Rights Policy & Engagement, risponde invitando la rappresentanza dei firmatari ad un celere incontro di confronto.

E in un’intervista a Reuters anche Sheryl Sandberg, direttore delle operazioni per il social Facebook, alla domanda sul motivo per cui Facebook non avesse intrapreso azioni simili a quelle verso Trump, contro altri leader come il presidente brasiliano Jair Bolsonaro e il presidente Rodrigo Duterte nelle Filippine (ugualmente accusati di incitamento alla violenza online), conferma che le politiche dell’azienda si applicheranno a livello globale.

Non a caso non tarda neppure a rendere noto il proprio deplatforming in Uganda relativo ad una serie di account di funzionari del governo ugandese prima delle elezioni, ritenuti responsabili di manipolazione del dibattito pubblico.

Lo stesso ruolo rivestito dall’Oversight Board di Facebook, il comitato indipendente composto da cinque persone, nato lo scorso anno e destinato a esaminare ed eventualmente revocare in modo inappellabile (persino per il Ceo Mark Zuckerberg) le decisioni relative alla moderazione dei contenuti prese dalla compagnia sulle situazioni e personalità pubbliche più controverse, assume in tale contesto una funzione da alcuni ritenuta cruciale. Non solo dovrà infatti pronunciarsi sulla decisione da parte del social di sospendere per un tempo indefinito gli account Facebook e Instagram dell’ormai ex presidente Usa Trump, bensì potrebbe assumere, sulla base di questo precedente, una valenza operativa ben più incisiva, occupandosi regolarmente della moderazione in ottica globale ed estesa di tutti i contenuti condivisi – almeno – dalle autorità e dagli influencer di alto profilo in contesti spinosi: Myanmar e minoranza Rohingya, India, Israele e lo ayatollah iraniano Ali Khamenei, Filippine e il presidente Rodrigo Duterte per citarne alcuni.

Ma, come ovvio, tanto non costituirà una panacea e una soluzione per la moderazione di tutti i contenuti presenti nel social condivisi dagli innumerevoli utenti sottoposti nel bene come nel male al più ampio libero arbitrio della piattaforma e delle sue policy: oscuramento e rimozione o piuttosto indifferenza ed inerzia.

Quanto a Twitter, Jack Dorsey, rompendo il silenzio sulla mossa controversa, difende la propria politica di moderazione, pur affermando di non essere orgoglioso dell’azione intrapresa che, anzi, costituisce il fallimento del suo progetto volto alla promozione di un modo sano e libero di fare conversazione. Una decisione che ritiene quindi non solo corretta ma al momento anche necessaria.

E infatti, da lì a poco, sempre Twitter non solo aggiorna i propri termini di servizio ma blocca circa 70mila profili legati a esponenti dell’estrema destra Usa e anche l’account dell’ambasciata cinese degli Stati Uniti per un post a favore delle politiche di Pechino nello Xinjiang, in violazione delle sue politiche contro la “disumanizzazione”.

Tuttavia, malgrado le rassicurazioni dei social, come riporta The Atlantic “il portavoce ufficiale dei talebani ha ancora un account Twitter. Idem, il primo ministro indiano Narendra Modi, anche se il suo governo reprime il dissenso e sovrintende alla violenza nazionalistica. L’account Facebook del presidente delle Filippine Rodrigo Duterte è vivo e vegeto, nonostante abbia armato la piattaforma contro i giornalisti e nella sua “guerra alla droga”. L’elenco potrebbe continuare. Facebook afferma di aver preso provvedimenti contro altri leader mondiali prima di Trump, ma non ha fornito dettagli.”

Anche Jonathan Corpus Ong, professore associato di media digitali globali presso l’Università del Massachusetts, intervistato in seguito alle rivolte americane del 6 gennaio, dal Center for International Governance Innovation (CIGI), si è chiesto se il deplatforming americano potesse accadere allo stesso modo anche in altri paesi del mondo o se i social media, dovendo affrontare maggiori pressioni da parte di governi autocratici (che potrebbero utilizzare gli eventi di Capitol Hill per applicare una maggiore regolamentazione sui social media) non rischierebbero di essere strumentalizzate per mettere a tacere i loro oppositori. Prosegue poi a rilevare sia l’urgenza di una governance della piattaforma più solida a livello di paese, sia la necessità di costruire nuovi spazi di collaborazione e progettazione condivisa con ricercatori e attivisti locali, al fine di procedere nel corretto esame della gamma vertiginosa di “incitamento alla discriminazione e alla violenza” presente nei lori siti: “Incidenti che trovano espressione nelle lingue locali e nelle culture dei meme, plasmati seguendo le complesse gerarchie razziali dei singoli paesi e ospitati non solo dalle piattaforme con sede nella Silicon Valley, ma anche da siti di proprietà russa, giapponese e cinese meno investiti nella democrazia liberale statunitense principi e quindi meno propensi a seguire l’esempio dell’altro”.

Stati Uniti ed Europa

Negli Usa ed Europa, invece, la discussione riapre i termini della “supposta neutralità dei social media rispetto ai contenuti pubblicati dagli utenti” e, tra gli esperti, anche della verifica degli impatti globali derivanti dagli approcci, opposti, seguiti da Usa ed Europa, in merito alla libertà di espressione e alle responsabilità delle piattaforme digitali: self e hard regulation.

In altri termini, del confronto circa la validità di criteri fondati sull’assolutizzazione dei diritti e sulla “portata esimente attribuita al Primo Emendamento della Costituzione americana garantita dalle ventisei parole della sezione Sezione 230 del Communications Decency Act” e la strategia di stampo europeo, prossima al Digital Services Act e già caratterizzata dai pronunciamenti dei giudici comunitari sin dal 2014, a partire dalla nota sentenza “Google Spain” C-131/12 sul diritto all’oblio che tentano di erodere l’aurea di irresponsabilità degli intermediari digitali.

Come scrive Michael Karanicolas, Wikimedia Fellow presso la Yale Law School, a capo dell’Iniziativa sugli intermediari e l’informazione: “Ogni minuto, più di 500 ore di video sono caricati su YouTube, 350.000 tweet sono pubblicati, e 510.000 commenti vengono lasciati su Facebook (…) Questo implica non soltanto decidere quando un particolare post meriterebbe di essere eliminato, ma anche prendere provvedimenti più mirati per determinarne la sua viralità. (…) Ma nonostante sia stato versato tanto inchiostro sulle conseguenze che i social media hanno nella democrazia americana, queste decisioni possono avere un impatto ancora più grande in tutto il mondo. Questo è particolarmente vero nei Paesi in cui l’accesso ai tradizionali media è limitato, conferendo alle piattaforme un monopolio virtuale nel modellare il discorso pubblico. Una piattaforma che non riesce a prendere provvedimenti contro l’incitamento all’odio potrebbe rivelarsi utile a far scatenare un pogrom locale, o perfino un genocidio. Una piattaforma che interviene troppo eccessivamente per rimuovere una presunta “propaganda terroristica” potrebbe rivelarsi coinvolta nella distruzione di prove di crimini di guerra.”

Chi sta con Trump, chi con le piattaforme

C’è chi sta con Trump, c’è chi sta con Twitter o con Facebook:

  • C’è chi promuove il principio della massima libertà di espressione (a prescindere dalla veridicità e qualità delle informazioni immesse, come dall’autorevolezza o autorità della fonte), con l’unico limite posto dal rischio imminente di danni specifici;
  • chi si schiera a favore della moderazione a norma dei rispettivi termini contrattuali, fondata sulla ritenuta “certezza algoritmica” (algoritmi che gestiscono i feed delle specifiche piattaforme) e sulle regole di “private ordering” stabilite dalle singole piattaforme social;
  • pochi, evidenziano il fatto per cui il controllo preventivo dei contenuti contrasta con gli incentivi economici alla base del business model degli intermediari digitali. Un aspetto cruciale, invece, come sottolineato opportunamente in un recente articolo – L’effetto cattura dei social e la sindrome di Stoccolma digitale – da Alessandro Parisi, autore ed esperto di tematiche legate alla Security Data Scientist e Intelligenza Artificiale.

Visioni quindi distinte che, però, convergono in un unico postulato, ad oggi elemento cruciale e nodo da sciogliere al di là di ogni polarizzazione: libertà di espressione ma non di responsabilità e responsabilizzazione.

Mentre sullo sfondo del confronto si staglia il ruolo para-pubblicistico attribuito agli intermediari social, “amministratori unici sulla base di una delega in bianco” della risoluzione e ponderazione di conflitti costituzionali tra diritti fondamentali.

Disinformazione industrializzata: il rapporto dell’Università di Oxford

Un fatto intanto è certo: la manipolazione dell’opinione pubblica attraverso i social media rappresenta una minaccia rilevante e crescente per le democrazie di tutto il mondo.

Sul punto è illuminate lo studio dell’Oxford Internet Institute per il 2020, che fornisce un’analisi e una descrizione dettagliata e di sicuro interesse sugli impatti delle diverse forme di manipolazione informativa.

Dalle indagini condotte risulta che le campagne di propaganda computazionale mediate dai social media operano a livello globale in almeno 81 paesi, rispetto ai 70 paesi nel 2019 e spesso sono parte della comunicazione politica sostenuta dai governi, società di pubbliche relazioni e partiti politici, ma anche di vere e proprie truppe informatiche “cyber troops” del settore privato e influencer selezionati.

Fonte immagine

Così il professor Philip Howard direttore dell’Oxford Internet Institute: “Our report shows misinformation has become more professionalised and is now produced on an industrial scale. Now more than ever, the public needs to be able to rely on trustworthy information about government policy and activity. Social media companies need to raise their game by increasing their efforts to flag misinformation and close fake accounts without the need for government intervention, so the public has access to high-quality information”.

Tra i principali risultati dello studio emerge in particolare come gli strumenti e le tecniche della disinformazione computazionale, includano in modo rilevante anche l’uso di account falsi – bot e account hackerati.

Fonte Immagine

Un contesto, quindi, perfettamente rispondente all’obiettivo delle piattaforme e al relativo business model per cui risulta fondamentale riuscire a catturare l’attenzione degli utenti e trattenerli il più a lungo possibile su di esse.

L’economia dell’attenzione è infatti strumentale al ruolo che gli intermediari digitali rivestono in quanto protagonisti ed interpreti del contesto economico noto come two sided market.

E tanto è capace di orientare e condizionare l’inerzia o meno della parallela attività di monitoraggio dei contenuti condivisi: a maggior ragione in contesti territoriali politici ed economici fragili e instabili o in presenza di regimi autoritari, dove l’incentivo economico degli intermediari assume di conseguenza contorni peculiari spesso asserviti alla peggiore propaganda politica e commerciale.

Conclusioni

Se dunque interessi economici, valori costituzionali e contesti territoriali specifici determinano l’attività di “moderazione” dei contenuti, di fatto delegata dalle istituzioni pubbliche alle piattaforme digitali private, allora come sarà possibile evitare il cortocircuito al quale sono costantemente sottoposti, in tutto il mondo, i diritti e le libertà fondamentali degli individui, utenti iperconnessi dello spazio digitale?

Esiste una soluzione “algoritmica” patrocinata dalle piattaforme, in applicazione delle proprie condizioni contrattuali standard, ad un problema evidentemente sociopolitico e di garanzie costituzionali?

Oreste Pollicino, professore ordinario di Diritto costituzionale presso l’Università Bocconi di Milano e membro dell’Executive Board dell’Agenzia dell’Unione europea per i diritti fondamentali, con un bell’articolo sulla Voce.info intitolato “Piattaforme digitali e libertà di espressione: l’ora zero, affronta la questione della libertà di espressione sulle piattaforme digitali e della conseguente ponderazione tra diritti fondamentali, cercando di andare oltre l’impasse generato dall’applicazione di metafore giuridiche non più attuali e approcci normativi contrapposti di self-regulation e hard law.

“Alla luce delle asimmetrie transatlantiche in termini di valori guida e normative di dettaglio, c’è un linguaggio comune che possa essere proposto per affrontare in modo, se non unitario, almeno meno divergente la sfida che pone il ground zero della regolamentazione digitale?”

Una domanda alla quale, lo stesso, fornisce una risposta richiamandosi specificatamente alla prospettiva procedurale del costituzionalismo e a una nuova dimensione dell’efficacia orizzontale dei diritti fondamentali: dalla definizione degli obblighi di trasparenza algoritmica, all’individuazione delle giuste procedure tese al rafforzamento delle tutele degli utenti. Non più, quindi, una cornice normativa e giurisprudenziale frammentata, dove utenti e giudici si sostituiscono alla necessità di un intervento legislativo idoneo, unitario e non più a macchia di leopardo, bensì in un quadro di garanzie costituzionali scandite da precise responsabilità degli intermediari digitali.

Perché al momento è innegabile come all’inerzia o all’abuso delle piattaforme corrisponda con altrettanta evidenza l’inerzia e la mancanza di visioni lungimiranti di alta politica che ispirino cornici normative non più fatalmente obsolete e partecipate.

Nel mentre, come scrive Luciano Floridi[1] nel suo “Il verde e il blu”, ricordando il mito di Bacon: “la fame umana di pettegolezzi superficiali, di bugie spiacevoli e di falsità rassicuranti, è sempre stata pantagruelica. La differenza è che oggi, per la prima volta nella storia umana, l’infosfera la soddisfa con scorte senza fondo di spazzatura semantica, trasformando le caverne di Bacon e Platone in stanze riverberanti, che chiamiamo bolle”.

E tanto non può continuare ad essere ignorato o supinamente tollerato.

___________________________________________________________________________________

  1. Luciano Floridi, Il verde e il blu – Idee ingenue per migliorare la politica – 2020 – Raffaello Cortina Editore

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3