report CCDH

Social più sicuri, ecco le misure da imporre: il progetto Star



Indirizzo copiato

Il rapporto del CCDH aggiorna il progetto STAR, evidenziando la necessità di regolamentare i social media per garantire la sicurezza e il benessere degli utenti. Critica la Sezione 230 del Communications Decency Act e propone un approccio integrato per promuovere trasparenza, affidabilità e responsabilità, ispirandosi a modelli normativi di Ue, Uk e Australia

Pubblicato il 10 ott 2024

Antonino Mallamaci

avvocato, Co.re.com. Calabria



algoritmi trasparenza (1)

Analisi della situazione attuale, con riguardo al comportamento dei social media e all’azione di alcuni organismi governativi, e proposte per il futuro. Questo, in sintesi, il contenuto del rapporto del CCDH (Center for Countering Digital Hate, Centro per il Contrasto all’Odio Digitale) che aggiorna il progetto STAR (Safety by Design, Transparency, Accountability, Responsibility) dal titolo ambizioso: Costruire un web sicuro e responsabile.

La premessa è incontestabile: “I social media hanno rivoluzionato un’enorme gamma di interazioni interpersonali: il modo in cui troviamo e ci connettiamo con altre persone; accedere e diffondere informazioni; costruire relazioni e comunità; e condurre affari. Hanno anche aumentato la diffusione dell’incitamento all’odio, della disinformazione e delle minacce contro i bambini e le popolazioni emarginate. Queste esternalità negative sono amplificate dal fatto che gli interessi commerciali delle piattaforme hanno la precedenza in modo schiacciante responsabilità sociale”.

La Sezione 230 del Communications Decency Act

Alla base di tutto ciò vi è una norma Usa del 1996 – la Sezione 230 del Communications Decency Act – rea di aver inculcato nella Silicon Valley la convinzione di poter fare tutto il suo contrario, contando su una totale immunità. La Sezione 230 immunizza le piattaforme di social media dalla responsabilità per i danni creati, accelerati e trasmessi a miliardi di persone, una immunità, una intoccabilità, che ha creato una cultura tra i dirigenti dei social media che comporta il rifiuto di assumersi la propria responsabilità anche quando diffondendo contenuti sui disturbi alimentari ai bambini in un ciclo ripetuto, o seminando disinformazione che porta violenza e atrocità nel mondo reale.

Il progetto Star e le sue componenti

Il progetto STAR consiste in un approccio integrato alla regolamentazione in cui ogni componente rafforza e consente agli altri di creare un ecosistema online migliore. chiedendo che l’industria dei social media sia regolamentata come ogni altra.

STAR propugna un mondo digitale in cui la sicurezza e il benessere degli utenti sono priorità consolidate, non negoziabili, e la responsabilità aziendale davanti agli utenti è prioritaria rispetto ai profitti; nel quale ogni piattaforma, app e servizio online ha la sicurezza radicata nei suoi cicli di progettazione e sviluppo. Le tattiche di coinvolgimento ai fini dello sfruttamento e i ”dark patterns” devono essere stoppati prima di raggiungere gli utenti.

La trasparenza è la norma, con le piattaforme che rendono visibili e analizzabili i loro algoritmi, le regole di moderazione dei contenuti, la raccolta e l’utilizzo dei dati, i sistemi pubblicitari e altri che influiscono sull’esperienza degli utenti. Le autorità di regolamentazione indipendenti hanno il potere di far sì che le aziende divengano affidabili e siano responsabili della loro condotta.

In tal modo, i bambini sono protetti dai danni online e sviluppano una sana alfabetizzazione digitale e le minoranze di ogni tipo dalle molestie. Gli utenti possono fare scelte informate senza essere esposti a enormi quantità di disinformazione.

Nell’ambito di STAR, le società di social media sono incentivate a creare piattaforme sicure e ad essere trasparenti sui loro progetti di prodotto perché non godono più di irresponsabilità e affrontano finalmente le conseguenze delle loro azioni.

S per Safety by Design

La S di STAR sta per Safety by Design, un approccio alla progettazione di prodotti tecnologici e piattaforme di social media che promuove la salute degli utenti, il benessere, i diritti umani e la Libertà. ma la sicurezza non può essere raggiunta senza la trasparenza dei sistemi algoritmici e degli incentivi economici che guidano le caratteristiche e i comportamenti della piattaforma.

T per Trasparenza

La T per Trasparenza, che si estrinseca nell’obbligo delle società di social media di divulgare informazioni accurate e accessibili su algoritmi, progettazione del prodotto, decisioni e dati economici, in particolare per quanto riguarda la pubblicità. Gli sforzi per la trasparenza devono essere rafforzati con misure di responsabilità come la regolamentazione, le sanzioni per le violazioni e la supervisione indipendente per far rispettare gli obblighi. Solo così le piattaforme possono essere costrette ad assicurare la trasparenza necessaria.

A e R per Affidabilità e Responsabilità

La A e la R per Affidabilità e Responsabilità (Accountability and Responsability): le piattaforme devono assumersi la responsabilità delle loro decisioni ed essere sensibili e collaborative nei confronti degli utenti e delle istituzioni democratiche. In particolare, negli USA affidabilità e responsabilità non possono essere raggiunte negli Stati Uniti senza una riforma della Sezione 230 del Communications Decency Act. Per troppo tempo, la Sezione 230 ha concesso un’immunità quasi completa alle società di social media. Sicurezza, trasparenza, affidabilità e responsabilità a un livello adeguato sono semplicemente impossibili senza la riforma della Sezione 230.

Sicurezza fin dalla progettazione: la regolamentazione dei social va intensificata

Safety by Design è un approccio di principio alla progettazione di prodotti tecnologici e piattaforme di social media che reca con sé l’obiettivo primario di promuovere la salute e il benessere degli utenti. Gli incentivi di un’azienda determinano il modo in cui i suoi prodotti vengono progettati e distribuiti. Le società di social media sono incentivate da variabili quali l’aumento degli utenti attivi giornalieri, il prolungamento del tempo sullo schermo e la generazione di più clic per pubblicare il maggior numero possibile di annunci pubblicitari. Questo ha creato una corsa al ribasso, in cui le aziende competono per l’attenzione degli utenti e utilizzano algoritmi per mantenere le persone sugli schermi più a lungo. I social media sono progettati per provocare il maggior coinvolgimento possibile, anche se esso comporta seri rischi per la salute mentale e la sicurezza degli utenti. I governi sono intervenuti in passato per creare regole per le aziende in vari settori produttivi e sostenere la sicurezza e i diritti dei consumatori, che si trattasse di sicurezza alimentare, automobilistica o altro. Oggi, i governi devono intensificare la regolamentazione dei social media come qualsiasi altro settore.

La sicurezza (insufficiente) implementata dai social media e l’illusione della moderazione AI

Nel momento attuale, c’è un chiaro sostegno pubblico per la sicurezza a partire dalla progettazione (safety by design). A seguito di scandali, critiche pubbliche e controlli da parte dei governi, le società di social media hanno iniziato a implementare alcune funzionalità di sicurezza nei loro servizi. Le società di social media hanno tentato di affrontare i rischi, ma con strumenti non sufficienti per mitigare i danni online. Nelle dichiarazioni pubbliche, esse spesso presentano queste misure come sufficienti o almeno come un contributo per affrontare i danni online, ma i registri interni delle diverse aziende dipingono un quadro diverso.

Le piattaforme esagerano l’efficacia della moderazione dell’intelligenza artificiale.

Ad esempio, nel 2021 un ricercatore senior di Meta ha stimato che gli strumenti di intelligenza artificiale dell’azienda avevano rilevato contenuti che erano responsabili solo del 2% di tutti i post con incitamento all’odio sulla piattaforma e un team separato ha sostenuto che i sistemi automatizzati dell’azienda avevano rimosso solo dal 3% al 5% di tali contenuti. Nel frattempo, il management affermava pubblicamente che i suoi strumenti di intelligenza artificiale avevano rilevato il 98% di tutti i contenuti vietati.

Le attuali misure di sicurezza non sono sufficienti

  • Il processo di progettazione delle caratteristiche di sicurezza è altamente reattivo e amplifica la validità delle soluzioni interne alle stesse aziende ai danni on line; le aziende tendono a implementare funzionalità di sicurezza in risposta alle proteste pubbliche o alle pressioni esterne quali, ad esempio, quelle scaturenti da procedimenti giudiziari.
  • Le misure di sicurezza sono spesso opzionali e fanno ricadere sugli utenti l’onere di proteggersi dai rischi di danni on line.

Dopo l’implementazione delle misure di sicurezza, esse potrebbero essere poco adottate perché non sono state attivate per errore, o non sono state promosse attivamente agli utenti, o sono difficili da attivare. Ad esempio, nel 2019 Instagram ha messo in campo “Project Daisy”, una versione dell’app in cui i “Mi piace” erano disattivati in partenza, by default. In alcune cause davanti a procuratori degli Stati USA è venuto fuori che l’eliminazione dei “Mi piace” ha portato a benefici significativi per la salute mentale e il benessere degli utenti e che si era previsto che avrebbe portato a una diminuzione dell’1% dei ricavi pubblicitari. quindi, la funzione di disattivazione dei “Mi piace” è stata cambiata da Meta in modo da essere attivabile solo dagli utenti (non più by default) e accessibile solo dopo la navigazione.

Le misure di sicurezza sono scarsamente mantenute e implementate

Le società di social media hanno considerato le misure di sicurezza come progetti una tantum invece di iniziative dinamiche e continue che vedono investimenti e miglioramenti sostanziali nel tempo. Di conseguenza, una volta che un progetto è stato completato, riceve meno attenzione e non viene ricalibrato quando necessario, diversamente da quanto accade per altri progetti che stanno più a cuore dal punto di vista dei guadagni. Ciò significa che le misure di sicurezza possono essere soggette a bug ed errori.

Ad esempio, in un periodo di 6 mesi, nel 2020 e ‘21, Meta non è riuscita a “vedere” milioni di immagini di abusi su minori a causa di due errori tecnici nel sistema che utilizza per rilevare i contenuti pedopornografici.

Soluzioni politiche

La safety by design dovrebbe essere adottata da tutte le piattaforme di social media. Sono necessarie normative per incentivarle a progettare i loro prodotti avendo come focus la salute degli utenti, il benessere e i diritti umani e civili, rivedendoli continuamente per i rischi per la sicurezza. Inoltre, gli utenti dovrebbero avere un maggiore controllo sui loro consigli personali e sui contenuti. I responsabili politici hanno il potere di imporre la sicurezza by design per i seguenti fini: riorientare il processo di progettazione del prodotto; responsabilizzare gli utenti; creare sistemi solidi per affrontare i danni online; proteggere i minori online.

Vediamo una per una queste quattro categorie.

Riorientamento del processo di progettazione del prodotto

  • Sancire i doveri di diligenza per affrontare i rischi e i danni online. Un “dovere di diligenza” obbligherebbe le aziende tecnologiche a esercitare una ragionevole cura nella progettazione dei loro servizi per evitare danni prevedibili agli utenti, in particolare ai bambini.
  • Stabilire gli standard per una progettazione sicura dei prodotti. Gli standard del settore dovrebbero richiedere ai servizi di abilitare le impostazioni di privacy più forti e i filtri dei contenuti per errore.
  • Obbligo di valutazioni dei rischi e piani di mitigazione. I piani di mitigazione del rischio dovrebbero elencare chiaramente le misure per affrontare quelli identificati.
  • Audit indipendenti da parte di terze parti e autorità di regolamentazione. Gli audit dei rischi consentono un livello di controllo più elevato sulla progettazione di un servizio digitale. Affinché gli audit siano efficaci, I suoi autori devono disporre di informazioni sufficienti per comprendere il funzionamento interno di un prodotto.

Responsabilizzazione degli utenti

  • Limitare l’uso di funzioni di progettazione manipolative, tra cui modelli di coinvolgimento ingannevoli, (“dark pattern”). I dark pattern privano gli utenti di potere e manipolano la loro esperienza online. Ad esempio, inducendo gli utenti a rimanere online più a lungo attraverso la riproduzione automatica; sovraccaricandoli con più richieste; costringendoli a navigare attraverso più pagine per accedere a o informazioni o altro.
  • Incentivare le funzionalità che incoraggiano forme più sane di coinvolgimento. Le piattaforme di social media possono spingere gli utenti a prendersi delle pause e a riconsiderare i post offensivi. Queste funzionalità dovrebbero diventare parte integrante dell’esperienza dell’utente.
  • Gli utenti dovrebbero avere la possibilità di eliminare definitivamente i propri account e i dati. Quando gli utenti si sentono insicuri o malsani online, dovrebbero essere in grado di disattivarli selezionando gli account e i dati.

Creazione di sistemi solidi per affrontare i danni online

  • Investire risorse significative nell’affidabilità e nella sicurezza. Le aziende tecnologiche devono contribuire con finanziamenti e personale sufficienti per mitigare i contenuti dannosi e per individuare in modo proattivo quelli dannosi, illegali o che violano le regole.
  • Stabilire percorsi di segnalazione dedicati per i danni più eclatanti. Le aziende dovrebbero costruire processi specializzati per affrontare i danni peggiori, ad esempio un percorso per segnalare avances sessuali indesiderate o segnalare lo sfruttamento sessuale dei minori.
  • Creare protocolli e sistemi per interagire con le forze dell’ordine. Le forze dell’ordine dovrebbero essere in grado di notificare alle aziende tecnologiche i contenuti illegali attraverso un sistema accessibile, con la possibilità di esaminare gli avvisi e chiarire le azioni intraprese.

Protezione dei minori online

  • Esaminare e studiare i rischi per la sicurezza dei minori. Dovrebbero essere imposti obblighi di diligenza, valutazione del rischio del prodotto e raccomandazioni algoritmiche che prestino particolare attenzione ai minori quando vi è la certezza che sono permeabili a rischi diversi da quelli che interessano gli adulti.
  • Creare salvaguardie e solidi controlli parentali. I genitori dovrebbero essere dotati di strumenti per garantire la sicurezza dei loro figli online.
  • Istituire un meccanismo di segnalazione dedicato per i minori. Quando i minori segnalano danni online, dovrebbero ricevere una risposta immediata, con precedenza su tutte le altre, magari creando per loro percorsi di segnalazione specializzati.
  • Proteggere i dati dei bambini e limitare gli annunci mirati. Quando i minori utilizzano le piattaforme dei social media, i loro dati personali dovrebbero ricevere protezioni più forti ed essere totalmente esclusi dagli annunci mirati.

Punti critici dell’assetto attuale

Vediamo adesso alcuni particolari punti critici dell’assetto attuale.

Le attuali misure di trasparenza sono fuorvianti

Per quanto concerne la trasparenza, le piattaforme la assicurano (in misura minima) attraverso: linee guida con le regole per gli utenti, dove descrivono i processi per la revisione dei contenuti e le procedure di valutazione degli stessi. Al momento dell’iscrizione, agli utenti viene mostrato un documento con le regole d’uso e alcune informazioni, come ad esempio il modo in cui vengono elaborati i dati personali; indicazioni sulla frequenza degli annunci pubblicitari vietati sulla piattaforma e chiare e distinguibili divulgazioni degli stessi.

Sebbene queste pratiche di condivisione delle informazioni possano sembrare complete, in pratica spesso non sono altro che un esercizio di pubbliche relazioni per le società di social media, in sostanza sono progettate per proteggere gli interessi delle aziende.

Negli ultimi anni, gli informatori si sono fatti avanti e hanno divulgato rivelazioni scioccanti sulla condotta delle società di social media. Nel 2023 un ex responsabile della sicurezza di Meta ha testimoniato davanti al Congresso USA sui risultati di una ricerca interna condotta nel 2021 su un sondaggio tra gli utenti in merito alle loro esperienze su Instagram. I risultati sono stati netti: il 30,3% degli utenti ha dichiarato di essersi imbattuto in disinformazione; Il 25,3% ha assistito a episodi di hate speech; l’11,9% ha ricevuto avances sessuali indesiderate; il 6,7% è stato esposto a contenuti autolesionistici.

La leadership di Meta ha scelto di nascondere tutto, intimando al proprio ex dipendente di scrivere dei rischi per la sicurezza come se fossero “ipotetici”. Allo stesso tempo, Meta affermava pubblicamente che la percentuale dell’incitamento all’odio era dello “0,05%” e che essa era diminuita per tre trimestri di seguito. Questa discrepanza tra la ricerca interna e le rappresentazioni di Meta di contenuti dannosi è esattamente il motivo per cui la trasparenza è fondamentale per la regolamentazione delle piattaforme di servizi digitali.

Le attuali misure per la trasparenza non sono sufficienti

Le attuali misure per la trasparenza non sono sufficienti per diversi motivi.

  • Il mito della “prevalenza”. Le società di social media condividono selettivamente le informazioni senza un contesto completo per apparire trasparenti. Ad esempio, alcune riportano statistiche sulla rimozione e la diffusione di contenuti dannosi utilizzando un criterio detto “prevalenza”. La prevalenza viene calcolata stimando quante visualizzazioni sono state ricevute da contenuti che violano le regole della community rapportandolo poi col numero totale di visualizzazioni sulla piattaforma. Anche se superficialmente ragionevole, la prevalenza è progettata per consentir loro di negare il problema e ritardare l’azione: maschera alti tassi di contenuti dannosi dietro un enorme denominatore (le visualizzazioni totali su un servizio) e non include contenuti non esplicitamente esclusi dalle regole di community, che possono essere definite in modo restrittivo. Inoltre, comunica poco su tipi specifici di contenuti dannosi e sulle comunità che ne sono colpite.
  • Gli strumenti di accesso ai dati sono stati chiusi, limitati a gruppi selezionati e progettati per includere ostacoli che ne inibiscono l’uso. Nel 2023, Twitter (ora X) ha interrotto la capacità dei ricercatori di accedere ai dati tramite la sua API. Il prezzo per il servizio, precedentemente gratuito, è stato fissato in circa 40.000 dollari al mese, rendendo impossibili da realizzare centinaia di ricerche indipendenti. X ha persino citato in giudizio diversi ricercatori indipendenti, tra cui il CCDH. Nel 2021 anche Meta ha impedito il lavoro dei ricercatori terzi.
  • Gli sforzi per la trasparenza sono incoerenti, soggetti a modifiche e opachi. I social media e Internet sono arrivati a definire il modo in cui comunichiamo nel mondo moderno, diventando la “moderna piazza pubblica”, nella quale però le regole vengono stabilite senza alcun contributo democratico e applicate arbitrariamente. La trasparenza è preziosa quando è duratura e standardizzata, giacché così è possibile una ricerca completa. Molte piattaforme pubblicano regole di community e procedure standard per la revisione dei contenuti, ma non sono completamente trasparenti su come le applicano. In assenza di standard settoriali, le piattaforme scelgono un proprio approccio, il che si traduce in una varietà di rapporti volontari sulla trasparenza che forniscono diversi livelli di informazioni utili. Snapchat solo nel maggio 2023 ha reso pubbliche le sue linee guida sui contenuti, mentre Meta e YouTube, al contrario, hanno divulgato le loro regole della community per anni.
  • Il pubblico ha pochi percorsi per verificare l’accuratezza delle notizie divulgate o delle informazioni aggiuntive. Le pratiche volontarie di condivisione delle informazioni sono prive di significato per il pubblico perché le società di social media hanno pochi incentivi a essere trasparenti sul funzionamento interno dei loro prodotti. Un esempio emblematico di ciò è la pratica di gestione della moderazione dei contenuti. Negli ultimi anni, esse hanno rivelato che ci sono decine di migliaia di moderatori di contenuti e specialisti della fiducia e della sicurezza.Tuttavia, il numero di moderatori di contenuti è avvolto nel mistero.

Una trasparenza effettiva ed efficace richiederebbe la creazione di “politiche di utilizzo accettabili”. Queste politiche dovrebbero indicare chiaramente le caratteristiche dei contenuti vietati, le modalità di segnalazione e revisione degli stessi e di utilizzo dei dati degli utenti.

I rapporti sulla trasparenza dovrebbero contenere statistiche, analisi e riepiloghi sulla quantità di contenuti segnalati e ricorsi presentati dagli utenti e sulle azioni intraprese, sugli investimenti per la fiducia e la sicurezza. Gli ex dipendenti delle società di social media che divulgano informazioni utili su comportamenti aziendali dannosi dovrebbero essere tenuti immuni da procedimenti disciplinari o giudiziali.

Le società di social media: dovrebbero essere tenute a condividere con le autorità di regolamentazione e con il pubblico la documentazione dei loro sforzi per promuovere la salute, il benessere, i diritti umani e civili degli utenti; divulgare informazioni sulla loro progettazione algoritmica e del prodotto.

Sul tema dell’affidabilità e della sicurezza, il rapporto affronta anche, e in maniera critica, il c.d. “mito dell’autoregolamentazione”.

Le società di social media hanno occasionalmente creato meccanismi per apparire affidabili e responsabili.

Nel 2020, Meta ha istituito l’”Oversight Board” – una specie di “Corte Suprema per Facebook” – composto da esperti e rappresentanti della società civile – acon la funzione di rivedere e formulare raccomandazioni per migliorare la moderazione dei contenuti. Meta si è impegnata a rispettare le decisioni del Consiglio e a garantirne l’indipendenza. Il tempo ha dimostrato l’inadeguatezza dello strumento. L’autorità del Consiglio è debole e limitata. Può rivedere solo la moderazione dei singoli post e le sue raccomandazioni non sono vincolanti. Meta e il Consiglio impiegano mesi per prendere decisioni anche importanti: un video nel quale l’ex primo ministro della Cambogia incita alla violenza contro i suoi oppositori politici è stato rimosso dopo 6 mesi! Il Consiglio ha emesso un numero irrisorio di decisioni e ha evitato di adottarle quando avrebbero potuto contraddire la posizione dell’azienda. Alla fine, il Consiglio mantiene una patina di legittimità come organo di supervisione, e Meta sembra conformarsi a una autorità esterna.

La situazione normativa attuale in Usa, Uk e Ue

Il Rapporto CCDH dedica l’ultima parte a una disamina della situazione attuale, a livello normativo, negli USA nel egno Unito, nella Ue e in Australia (la nostra Unione ne esce indubbiamente molto bene)

Stati Uniti

Negli USA, bisogna assolutamente e per prima cosa riformare la Sezione 230.

La studiosa di diritto Mary Anne Franks ha suggerito che l’immunità ai sensi della Sezione 230 dovrebbe essere concessa solo a tre condizioni: il contenuto in discussione è uno scritto (o un parlato) e non una condotta; è interamente realizzato da una terza parte, senza essere sollecitato o incoraggiato dalla piattaforma; quando questa non ha mostrato deliberatamente indifferenza per il danno causato dal contenuto “incriminato”.

Fin dalle origini, la politica federale USA si è astenuta dal promuovere la sicurezza dalla progettazione, anche se l’interesse tra i legislatori federali e quelli dei singoli Stati è aumentato negli ultimi anni. L’obiettivo della sicurezza dalla progettazione è comunque sempre stato animato dalla volontà di proteggere i bambini, non gli utenti in generale.

Nel 1998 è stato adottato il Children’s Online Privacy Protection Act (COPPA) l’unico atto di regolamentazione federale che promuove la sicurezza by design negli ultimi 30 anni. In assenza di forti regolamenti federali, le legislature statali hanno affrontato il problema della sicurezza by design.

Trasparenza

A differenza di altre giurisdizioni, gli Stati Uniti non hanno approvato una legge settoriale che richiede alle società di social media di essere più trasparenti, anche se le autorità di regolamentazione hanno incaricato le autorità esistenti di esaminare i social media. Recentemente, i legislatori hanno introdotto una legislazione bipartisan volta a rafforzare i requisiti di trasparenza per le società di social media. Negli Stati Uniti, la legge sulla protezione dei consumatori impedisce alle aziende di impegnarsi in pratiche commerciali “sleali” o “ingannevoli” e autorizza la Federal Trade Commission (FTC), a indagare e avviare azioni esecutive anche nei confronti dei social media e di altre compagnie tecnologiche. Nel 2019, la FTC ha multato per 5 miliardi di dollari Meta per aver ingannato i consumatori, ciò sulla scia dello scandalo Cambridge Analytica.

Affidabilità e responsabilità

Il Congresso ha organizzato audizioni pubbliche per accertare la responsabilità degli amministratori delegati delle società di social media in assenza di una vera regolamentazione. La sezione 230 incarna questo approccio. La legge aveva lo scopo di consentire alle aziende ben intenzionate di rimuovere contenuti discutibili senza timore di ripercussioni legali da parte dei loro creatori o delle vittime. Questa protezione del “buon samaritano” presupponeva che le aziende fossero attori affidabili che si sarebbero assunti la responsabilità dei danni online. I responsabili politici hanno anche incaricato un’autorità di regolamentazione esistente – la FTC – ai sensi della legge sulla protezione dei consumatori, per obbligare le società di social media a rispettare gli impegni pubblici assunti. Quando un’azienda non li rispetta, la FTC può imporre multe e diffide.

Regno Unito

L’Online Safety Act (OSA) del Regno Unito è del 2023. L’OSA impone alle aziende di social media la responsabilità legale di affrontare i contenuti illegali, come il terrorismo e il revenge porn, e di impedire ai bambini di vedere materiale dannoso come l’autolesionismo, la promozione dei disturbi alimentari e la pornografia. Durante l’intero processo legislativo, testimoni e parlamentari hanno fatto riferimento alla sicurezza fin dalla progettazione quale obiettivo principale della legge. L’insistenza sulla sicurezza by design ha indotto il parlamento a concentrare la legge sull’affrontare i sistemi e i processi piuttosto che sull’identificazione e la rimozione dei contenuti vietati. La regolamentazione dei sistemi e dei processi è più efficace rispetto ad esse, perché affronta le cause alla radice, la progettazione della piattaforma piuttosto che i singoli contenuti. L’ OSA è in fase di attuazione da parte dell’autorità indipendente di regolamentazione della sicurezza online del Regno Unito, l’Ofcom, ed è fondamentale che questa sostenga la linea tracciata dal Parlamento.

Trasparenza

Molti dei doveri legali sulla trasparenza stabiliti dalla legge sono stati collegati ai requisiti di autorizzazione in cui le piattaforme devono includere le informazioni sulla loro adesione a detti obblighi in forma accessibile e valutabile dall’autorità di regolamentazione. Tutti i servizi hanno l’obbligo di conservare per iscritto, in forma facilmente comprensibile, le valutazioni dei rischi che effettuano e le misure che attuano per conformarsi ai doveri e alle raccomandazioni contenuti nel codice di condotta dell’Ofcom, dispone di ampi poteri di raccolta delle informazioni per imporre la trasparenza alle piattaforme di social media e ai servizi di ricerca di sua competenza. Tuttavia, i poteri di trasparenza e di accesso ai dati per i ricercatori e gli altri supervisori indipendenti sono carenti rispetto al DSA dell’Unione europea. Nel luglio 2023, un emendamento al disegno di legge ha introdotto il compito, in capo all’Ofcom, di avviare una revisione delle modalità di accesso della ricerca alle piattaforme entro 18 mesi dalla sua entrata in vigore.

Affidabilità e responsabilità

Attraverso l’OSA, il Regno Unito ha adottato misure importanti per garantire che le piattaforme abbiano una maggiore responsabilità legale per la sicurezza dei loro utenti e una responsabilità nei confronti dell’Ofcom. L’OSA impone alle piattaforme un obbligo di diligenza che richiede loro di proteggere tutti gli utenti dai contenuti illegali e gli utenti minorenni da ulteriori categorie di contenuti dannosi per loro. L’Ofcom ha il potere di supervisionare e di far rispettare questi obblighi, valutando se le misure adottate dalle piattaforme siano adeguate ed efficaci. Nel caso in cui essa ritenga che una piattaforma non rispetti le prescrizioni, la legge concede all’Autorità ampi poteri d’indagine, anche mediante ispezioni.Nel caso in cui queste azioni non riescano a produrre un adeguamento alle norme, o vengano scoperte carenze ancora maggiori, l’Ofcom può imporre una multa del maggiore importo tra 18 milioni di sterline e il 10% dei ricavi annuali mondiali. La legge ha anche creato nuovi reati, tra cui la responsabilità dei dirigenti delle piattaforme regolamentate in caso di mancato rispetto della normativa.

Unione europea

Il DSA (Digital services act) Impone obblighi a tutti gli intermediari che forniscono i loro servizi agli utenti nell’UE, con requisiti aggiuntivi per le piattaforme di grandi dimensioni (oltre 45 milioni di utenti mensili attivi nell’UE).

Il DSA promuove la sicurezza dalla progettazione, ponendo l’accento sul divieto di pratiche dannose e richiedendo la dovuta diligenza. Incoraggia crea controlli e contrappesi nel processo di progettazione del prodotto. Le grandi piattaforme sono chiamate a individuare e mitigare i rischi sistemici derivanti dal design o dalla funzionalità del servizio, bloccando pratiche quali i dark patterns ed elementi di design che possono creare dipendenza. Per dare più potere agli utenti, il DSA prevede che essi possano scegliere come organizzare la visione dei contenuti e della pubblicità raccomandata dalla piattaforma. Inoltre, gli utenti hanno diritto a un indennizzo per danni per violazioni del DSA. I rischi sistemici sono un punto focale e comprendono contenuti illegali, diritti fondamentali, effetti sui processi democratici e questioni derivanti dalla progettazione o dall’uso di una piattaforma. Le piattaforme sono tenute a condurre valutazioni del rischio per identificare potenziali danni in queste aree e garantire che siano in atto adeguate misure di mitigazione, che vanno da azioni generali – scelte progettuali e adattamenti degli algoritmi – a interventi più mirati per prevenire la disinformazione ai loro danni, come la verifica dell’età e le esclusioni di responsabilità per immagini fuorvianti generate dall’IA. Il DSA richiede che le grandi piattaforme pubblichino relazioni pubbliche sulle statistiche degli utenti, le pratiche pubblicitarie, la moderazione umana dei contenuti, le valutazioni dei rischi e le relative misure di mitigazione. Esse sono altresì tenute a sottoporsi a verifiche annuali indipendenti.

La Commissione europea e le Autorità nazionali hanno diritto di accedere agli algoritmi e a tutti i dati necessari per la valutazione dei rischi e dei danni causati. Infine, è stato istituito il “Centro europeo per la trasparenza algoritmica”. Oltre al suo controllo, ai ricercatori deve essere concesso l’accesso a specifiche banche dati su richiesta e quando viene concesso lo status di «ricerca controllata».

Le piattaforme che agiscono semplicemente come intermediari, (conduit, caching o hosting) sono esenti da responsabilità per i contenuti degli utenti, a condizione che soddisfino determinate condizioni: ad esempio, agire rapidamente per rimuovere o disabilitare l’accesso ai contenuti illegali non appena ne vengono a conoscenza. Il mancato rispetto della legge sui servizi digitali può comportare multe fino al 6% del fatturato globale. La Commissione europea ha già avviato procedimenti formali contro X, Meta e TikTok per ipotizzate mancate rimozioni di contenuti illegali, pratiche di progettazione dannose e mancato accesso ai dati per i ricercatori.

Australia

L’Online Safety Act 2021 (OSA) ha conferito a un’agenzia indipendente esistente, l’eSafety Commissioner, l’autorità di regolamentare le società di social media. L’OSA ha creato linee guida concernenti l’abuso informatico commesso da adulti, il cyberbullismo infantile, l’abuso basato su immagini e altri tipi di contenuti illegali o dannosi.

ESafety può emettere avvisi che impongono ai fornitori di servizi online di riferire in merito alla loro conformità ai regolamenti della Commissione. La commissione ha può applicare sanzioni civili e ingiunzioni contro le società di social media che non rispettano le normative o non riescono a gestire i reclami in linea con le politiche della community della piattaforma.

Conclusioni

La mancanza di una governance responsabile dei social media negli Stati Uniti ha avuto un impatto sul loro comportamento globale. Ciò ha creato una cultura dell’impunità, rafforzando ulteriormente gli interessi aziendali.

L’UE, il Regno Unito e l’Australia hanno superato gli Stati Uniti nell’approvazione di una legislazione in linea con le raccomandazioni e i principi di STAR.

Ora, il passaggio a un mondo online che dia priorità alle persone rispetto alle aziende dipende dall’effettiva applicazione di queste normative e dal fatto che altri governi seguano l’esempio. Il quadro STAR stabilisce un percorso per i responsabili politici per richiedere alle società di social media lo stesso livello di responsabilità che ci aspettiamo da altri settori.

La sua attuazione rappresenterebbe una rivoluzione che porrebbe fine a uno status quo che pone rischi esistenziali per i diritti umani, la coesione sociale e la stessa democrazia.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4