guerra israelo-palestinese

Medio-oriente, denudati i problemi dei social: ora speriamo nel Digital Services Act



Indirizzo copiato

Il Digital Services Act, non può sottrarsi a quella che oggi è la sua prima grande sfida operativa: riuscirà il regolamento Ue a imporsi come un valido modello per la lotta alla disinformazione? Lo scopriremo presto

Pubblicato il 26 ott 2023

Barbara Calderini

Legal Specialist – Data Protection Officer



Fallimento dell'intelligence e del digitale in Israele: tutti gli errori del sabato nero

I social – Meta, X, TikTok – in queste ora stanno mostrando gli orrori della guerra, video e foto orripilanti, mischiandoli con disinformazione. Al tempo stesso, si può dire che questa guerra, a sua volta, stia mostrando gli orrori dei social. I loro problemi antichi e mai risolti. Ossia l’incapacità della moderazione – umana e con intelligenza artificiale – di bloccare in tempo contenuti orribili e la disinformazione; il ruolo degli algoritmi social di amplificare l’odio, facendo il gioco della peggiore propaganda.

La domanda che ora noi europei dobbiamo porci però è soprattutto questa: iIl Digital Service Act servirà ad arginare il fenomeno della disinformazione e dell’hate speech nel contesto del gravissimo scenario bellico in corso in Medioriente? È questa la domanda fondamentale a cui occorre dare risposta.

Can social media shape the course of the Israel-Hamas conflict? | DW News

Il confine tra censura e appoggio al terrorismo

In Medio Oriente, rancori antichi e conflitti irrisolti. Gli effetti di questo sisma geopolitico si propagano dall’epicentro della striscia di Gaza fino al resto del mondo, coinvolgendo inevitabilmente la società civile.

Tra le profonde spaccature si insinuano attori con interessi diversi e difficilmente conciliabili, come testimoniato anche dai drammatici fatti recenti.

La società democratica entra in crisi e palesa i propri limiti.

Tra le altre, la tensione tra il diritto fondamentale alla libertà di espressione e la responsabilità di proteggere l’interesse pubblico è palpabile e diventa sempre più rilevante nel campo della comunicazione digitale e della moderazione dei contenuti.

La spettacolarizzazione della violenza messa in atto in questi giorni dai vari movimenti politici, militari, estremisti, così come gli effetti mediatici dei comportamenti efferati attuati da formazioni para-militari che si proclamano islamiche, riportano in primo piano l’attenzione sul confine tra censura e appoggio al terrorismo, sulla corretta dimensione che dovrebbe assumere il bilanciamentotra diritti fondamentali e la tutela della sicurezza pubblica. Linee di frontiera stabilite sulla base di elementi giuridici, ma anche di reazioni emotive, quando non a fini politicamente ed economicamente interessati.

L’incertezza è dilagante e le conseguenze che questa si porta dietro sono critiche, gravi, complesse: in Europa alcuni Paesi vietano o hanno tentato di vietare sistematicamente le manifestazioni pro-Palestina[1], l’Italia e altri 8 paesi hanno sospeso il trattato di Schengen e sulle piazze digitali lo scontro si fa brutale.

Se l’UE, con il Digital Services Act (DSA) e i vari strumenti di soft law[2], sceglie di regolamentare attivamente la moderazione dei contenuti, ponendosi, per diversi profili, in continuità con la pregressa disciplina contenuta nella direttiva 2000/31/CE sul commercio elettronico, sull’altra sponda dell’Atlantico, l’approccio statunitense mantiene ancora una linea di self regulation, in gran parte basata sul Primo Emendamento della Costituzione. Le politiche di moderazione dei contenuti si fermano alla Sezione 230 del Communications Decency Act; tutt’al più orientate da pronunce giurisprudenziali che valutano particolari circostanze come quelle in cui la Corte Suprema, nella storica decisione Brandenburg v. Ohio[3], emessa nel 1969, ritenne che un discorso diretto, anche solo in modo probabile (suscettibile), ad incitare o a produrre un’imminente azione illegale fosse illecito e non potesse essere protetto dal Primo Emendamento.

La crisi di autenticità dei social network e l’insoddisfazione della Commissione UE

La crisi di autenticità che colpisce i social network, ben lontani dal potersi definire uno spazio di socializzazione, dibattito e libera condivisione di informazioni, si è talmente inasprita che persino l’uso degli algoritmi di moderazione, piuttosto che contribuire alla ricerca della verità, sta peggiorando la situazione.

Lo scenario di guerra tra Israele e Hamas diviene il palcoscenico macabro e virale per la rappresentazione scenica di un’era dell’ignoranza in cui disinformazione e contenuti fuorvianti, molto spesso intenzionali, erodono la fiducia nelle fonti di informazione tradizionali. La finzione oscura ciò che realmente sta accadendo nel mondo.

L’analisi sulla trasformazione dei social media nel contesto delle guerre recenti, e in modo particolare durante il conflitto tra Israele e Hamas, rende manifesto come i social media non siano più considerati fonti affidabili per le notizie in tempo reale, ma piuttosto un campo di battaglia per l’orientamento e la polarizzazione dell’opinione pubblica. Politiche e algoritmi di moderazione cambiano e influenzano la diffusione dei contenuti. Gli utenti non possono più fare affidamento sui loro feed per ottenere informazioni accurate e obiettive. Le tecniche di moderazione delle piattaforme tendono a promuovere contenuti basati sull’interazione passata dell’utente, creando bolle informative che riflettono le opinioni e i punti di vista dell’utente stesso.

Twitter-X e Facebook, hanno apportato modifiche significative alle loro politiche.

X ha ridotto lo staff di moderazione dei contenuti, ha abbandonato il Codice di condotta volontario dell’Ue contro la disinformazione e permesso a chiunque di ottenere la verifica con la spunta blu. Facebook ha diminuito sensibilmente la visibilità delle notizie nei feed degli utenti dopo essere stato criticato per la diffusione di disinformazione.

Per molte testate giornalistiche i cambiamenti apportati da Elon Musk su X alle anteprime degli articoli condivisi sulla piattaforma (che mostrano solo l’immagine cliccabile, con una piccola indicazione del nome del sito web e il testo del tweet), più che migliorare l’estetica delle timeline, come sembrerebbe essere stato nelle intenzioni del social, hanno penalizzato non poco l’individuazione delle fonti attendibili. La stessa decisione di rimuovere le spunte di verifica per i media della stampa e la possibilità estesa a chiunque di pagare per ottenere il segno blu, che un tempo trasmetteva agli utenti un certo ​​senso di attendibilità dell’account, sta rendendo oltremodo complicato poter discernere l’origine delle notizie condivise.

Una recente dichiarazione fatta da un portavoce delle Brigate Ezzedine al-Qassam, l’ala militare di Hamas, ha anticipato la trasmissione e diffusione, via social, dei video delle esecuzioni degli ostaggi detenuti: uno ad uno, ogni volta che un attacco israeliano dovesse colpire un obiettivo non militare a Gaza. La minaccia è certamente concreta stante che Hamas ha già utilizzato la piattaforma di messaggistica Telegram, che è in gran parte non filtrata, per condividere video di rapimenti e omicidi montati in modo sofisticato, con animazioni e colonne sonore cinematografiche. Le preoccupazioni sulla possibilità che questi video possano essere condivisi su altri social network, come X, o addirittura trasmessi in diretta, in modo simile a quanto già avvenuto con l’attacco di Christchurch in Nuova Zelanda nel 2019, sono reali.

Al momento le normative e gli accordi internazionali contro la condivisione di contenuti estremisti e fuorvianti non sembrano in alcun modo poterne impedire la diffusione.

Motivo per cui nei giorni scorsi il commissario Thierry Breton, a nome della Commissione, ha chiesto ai Paesi dell’UE di accelerare l’attuazione del Digital Services Act[4] ed in particolar modo di non temporeggiare sulla creazione dell’autorità responsabile dell’applicazione del Regolamento.

“La situazione attuale ha dimostrato la necessità di un approccio coordinato tra gli Stati membri e la Commissione. Non vediamo l’ora che arrivi il 17 febbraio 2024, data in cui verrà istituito il Comitato europeo per i servizi digitali, per parlarci e lavorare insieme.

Ecco perché, su mia iniziativa, la Commissione ha adottato oggi una raccomandazione agli Stati membri affinché anticipino l’attuazione del futuro sistema di governance dei DSA e siano più efficaci insieme. Proporremo inoltre un protocollo di cooperazione, come il Christchurch Call, per coordinare le risposte agli incidenti e trasmettere prove e informazioni alla Commissione. Ciò consentirà di intraprendere tutte le azioni necessarie in modo rapido e coordinato”, asserisce Breton

Le esortazioni di Breton non hanno risparmiato neppure le Very Large Online Platforms[5]; prima fra tutte proprio X di Elon Musk. A seguito delle indicazioni ricevute dai servizi della Commissione relative alla presunta diffusione sul social network X di tematiche illegali e di disinformazione, di contenuti terroristici, violenti e d’incitamento all’odio[6] riconducibili agli eventi in Medio Oriente, il Commissario europeo ha inoltrato a Musk formale richiesta di informazioni sul modo in cui la sua piattaforma stesse affrontando il problema della rimozione dei temi dannosi. Ventiquattro ore è il limite di tempo concesso a X e al suo amministratore delegato per rispondere ai rilievi mossi.

Il botta e risposta che ne è seguito, tra il commissario europeo Breton ed Elon Musk[7] è di dominio pubblico su X e tutto lascia intendere che, tra i due, sia in atto una vera e propria sfida tra poteri:

“Vi esorto a riferire urgentemente al mio team le misure di crisi adottate e a mettervi in contatto con le autorità di polizia competenti e con Europol e a rispondere prontamente alle loro richieste” entro 24 ore. Includeremo la vostra risposta nel nostro dossier di valutazione della vostra conformità al Dsa, prima di aprire una potenziale indagine e di comminare sanzioni in caso di non conformità”. Ammonisce il Commissario.

“La nostra politica è che tutto sia open source e trasparente, un approccio che so l’Ue sostiene. Vi preghiamo di elencare le violazioni su X, cui si allude, in modo che il pubblico possa vederle”, scrive Musk.

“Siete ben consapevoli delle segnalazioni dei vostri utenti e delle autorità sui contenuti falsi e sull’esaltazione della violenza. Sta a voi dimostrare che mantenete le parola. Il mio team rimane a disposizione per garantire la conformità al Dsa, che l’Ue continuerà a far rispettare rigorosamente”. Risponde Breton.

L’invito ad agire con urgenza e diligenza è stato rivolto anche a Mark Zuckerberg per Facebook e Instagram, e ad Alphabet, la società madre di Google e YouTube; inoltre una specifica richiesta di informazioni è stata inviata a TikTok.

La Commissione si aspetta risposte “proattive, tempestive, accurate e complete” anche perché in difetto, ai sensi dell’articolo 74, comma 2, del DSA, le piattaforme potrebbero vedersi imporre sanzioni piuttosto pesanti, oltre che il possibile fermo operativo.

In caso di mancata risposta la Commissione potrebbe addirittura decidere di richiedere le informazioni mediante decisione e, in tal caso, la mancata risposta entro il termine potrebbe comportare l’irrogazione di penalità di mora.

A tal proposito Meta ha risposto il 13 ottobre con un comunicato stampa in cui ha illustrato le misure prese per limitare la disinformazione e per ridurre la quantità di contenuti “dannosi”; ha anche tenuto a specificare di averne già rimossi o segnalati quasi 800mila.

Anche Tik Tok ha optato per una risposta pubblica direttamente dalle pagine del suo blog: 40.000 professionisti della sicurezza, sistemi di rilevamento automatizzato proattivo in tempo reale, incremento delle risorse con aggiunta di più moderatori che parlano arabo ed ebraico, aggiunta di schermate di attivazione su contenuti che potrebbero essere scioccanti; sono queste alcune delle misure tecniche ed organizzative incluse nell’elenco destinato alla Commissione.

Ivy Choi, per YouTube, ha replicato alla Commissione sottolineando come a seguito delle sortite devastanti in Israele e al persistente scontro tra Israele e Gaza, la piattaforma abbia prontamente eliminato decine di migliaia di video dannosi e disattivato centinaia di canali ed ha altresì confermato il fatto per cui il team della moderazione è preparato per agire rapidamente quando necessario su tutti i tipi di contenuti, inclusi Shorts e livestreams.

L’incidenza dei social media nel mondo: lo studio Digital 2023

La strumentalizzazione dei social media da parte dei gruppi estremisti, dei paesi con regimi autoritari o accusati di politiche illiberali, è emersa in maniera piuttosto evidente da diverso tempo.

Attori sia statali che non statali continuano a sfruttare le opportunità create dal digitale per plasmare le narrazioni online, censurare i discorsi critici e costruire nuovi sistemi tecnologici di controllo sociale.

Sri Lanka, e altri territori quali Myanmar, Bolivia, Slovacchia, India, Filippine, Cambogia, Brasile e Messico, Etiopia, sono tutti territori pesantemente esposti a condizioni di violenza e repressione, dove il panico per una minaccia percepita dai social, con estrema facilità, può portare al linciaggio o peggio.

Cina, Russia, Ungheria, Polonia, ciascuna di queste nazioni ha già rivelato aspetti di censura e soppressione del dissenso significativi tanto quanto invasivi.

Oggi, il conflitto israeliano-palestinese e la conseguente infodemia che ne è derivata hanno esaltato i riflessi politici e sociali del dibattito sul ruolo del potere inteso come controllo e, dunque, dei rapporti di forza tra poteri pubblici e poteri privati, entrambi ormai sede – più o meno legittima – del bilanciamento e della ponderazione dei diritti e delle libertà fondamentali.

Il report Digital 2023 a cura di We Are Social riporta un numero pari 5,16 miliardi di utenti in rete; praticamente il 64,4% della popolazione mondiale è online. Il totale degli utenti globali è aumentato del 1,9% negli ultimi 12 mesi, e la crescita effettiva potrebbe essere addirittura superiore a quanto suggerito da questa cifra.

4,76 miliardi sono gli utenti dei social media in tutto il mondo, pari a poco meno del 60% della popolazione mondiale: la crescita annua è del 3%.

Stando alla base di utenti attivi mensili (forse la base di confronto più coerente), gli ultimi dati “ufficiali” suggeriscono che Facebook (Meta) si manitiene al primo posto a livello mondiale.

Anche in Italia Meta domina la classifica delle piattaforme social più utilizzate; segue WhatsApp che guarda tutti dall’alto del suo 89% di persone tra i 16 e i 64, quindi Facebook e Instagram, con il 78% e il 73% rispettivamente; ai piedi del podio l’altra app di messaggistica, Messenger, usata da oltre una persona su 2. Telegram è invece la piattaforma più usata fuori dall’ecosistema Meta, seguita da TikTok che il 38% delle persone tra i 16 e i 64 anni dichiara di usare.

Il DSA affronta la sua prima sfida sulla moderazione dei contenuti

E veniamo allora alla domanda fondamentale con cui abbiamo aperto: il Digital Service Act servirà ad arginare il fenomeno della disinformazione e dell’hate speech nel contesto del gravissimo scenario bellico in corso?

Una cosa intanto è certa, il Digital Services Act, non può sottrarsi a quella che oggi è la sua prima grande sfida operativa. Il confronto si presenta arduo e tutto in salita, specie dopo l’insoddisfazione percepita a seguito delle moderazioni intervenute durante le elezioni nazionali slovacche del 30 settembre scorso, quando, nell’immediato vigore della legge sui servizi digitali, la disinformazione politica sulle piattaforme online è proseguita indisturbata.

Da sempre la libertà di manifestazione del pensiero ha mostrato la molteplicità dei suoi volti; ma in un contesto fortemente oligopolistico, in cui Gatekeepers, ovvero società di diritto privato, svolgono funzioni pubblicistiche, prima fra tutte la moderazione dei contenuti, la natura di questi volti (di rilevanza costituzionale) appare, sempre di più, pericolosamente esposta al rischio di violazioni e a compressioni il cui bilanciamento con altri diritti, nelle società democratiche, dovrebbe invece essere appannaggio degli organi dello Stato.

Il pubblico, complice la semplificazione e manipolazione mediatica, non riesce a distinguere tra le diverse manifestazioni della violenza e della propaganda terroristica: la capacità di autodeterminazione si perde nel vasto ecosistema della disinformazione. Il disturbo dell’informazione sugli eventi del conflitto israeliano-palestinese dilaga e la dimensione religiosa viene asservita a quello scambio simbolico attraverso cui le ambizioni di potere dei vari gruppi estremisti e sovversivi entrano in contatto con il loro pubblico, mediante il quale reclamano la propria superiore autorità e l’imperativo di dover usare violenza.

Non è una novità: la rete riveste un ruolo sempre più importante nei processi di radicalizzazione e la radicalizzazione ora avviene principalmente online.

Non va bene.

Sebbene Hamas l’organizzazione palestinese considerata da molti paesi, tra cui gli Stati Uniti e l’Unione Europea, un’organizzazione terroristica, sia da tempo oggetto di diversi tentativi di moderazione e interdizione da parte delle piattaforme, tuttavia la propaganda terroristica e l’incitamento alla violenza degli utenti che ne sostengono le ragioni stanno ancora riscuotendo un significativo successo tra gli utenti.

Secondo una recensione del New York Times, diversi account solidali con Hamas hanno guadagnato e continuano a guadagnare centinaia di migliaia di follower sulle piattaforme social da quando è iniziata la guerra tra Israele e Hamas il 7 ottobre scorso.

Stando alle analisi di Dina Sadek e Layla Mashkoor, autrici della ricerca “Nel conflitto Israele-Hamas, i social media diventano strumenti di propaganda e disinformazione”[8], l’uso di Telegram è salito alle stelle tra i canali pro-Hamas, mentre Israele ha potuto consolidare la sua presenza su X.

Il canale mediatico Gaza Now, allineato ad Hamas, ha raddoppiato il numero di iscritti nelle prime 24 ore dal conflitto, superando più di 1,1 milioni di abbonati al 12 ottobre. Allo stesso modo, il numero medio di visualizzazioni per singolo post di Gaza Now è decuplicato da circa 42.000 visualizzazioni a oltre 432.000 visualizzazioni per post. Stessa tendenza per il canale ufficiale di Hezbollah e il canale Telegram dell’ala militare di Hamas, le Brigate Al-Qassam. Per quanto riguarda Israele, anche gli account affiliati al governo e all’esercito israeliano hanno registrato una crescita dopo l’attacco di Hamas del 7 ottobre, anche se non nella scala vista da parte di Hamas su Telegram. Gli account X filo-Israeliani, che pubblicano in lingua inglese, sono cresciuti a un ritmo molto più significativo rispetto alle loro controparti ebraiche, attirando un pubblico globale molto più ampio di persone rispetto a coloro che comprendono solo contenuti esposti in lingua ebraica.

Insomma, da una parte come dall’altra, informazioni false o non verificate, hate speech, vecchi filmati che circolano fuori contesto, prigionieri erroneamente identificati e account falsi continuano a circolare in rete; la quantità di informazioni, sia buone che cattive, e la velocità con cui circolano, superano di gran lunga le capacità del fact checking e l’efficacia dei presidi normativi.

Appare sempre più chiaro come i sistemi di moderazione gestiti dalle piattaforme, in cui le decisioni vengono prese sulla base dei termini di servizio della piattaforma stessa, siano clamorosamente difettosi. A maggior ragione laddove non riescono a garantire la trasparente condivisione di quei contenuti autentici e di interesse pubblico, espressione di gruppi minoritari ed emarginati o gruppi di attivisti animati dalle migliori intenzioni. È sin troppo nota, al riguardo, la pratica di limitazione della visibilità dei contenuti conosciuta come shadow banning[9] e anche il cosiddetto “chilling effect[10]”.

Sperare che le piattaforme “possano incorporare direttamente i principi della legge sui diritti fondamentali nei loro termini e condizioni”, rappresenta, dunque, almeno per il momento, una sorta di chimera.

I limiti del DSA

Il DSA rappresentando un apparato di regole (che peraltro replica nel contesto dei servizi digitali l’approccio risk based adottato in altri settori) tenute insieme da una sorta di dualismo pubblico-privato, lascia ampio margine al ruolo attivo concepito per i destinatari della disciplina: gli intermediari digitali. La serie di obblighi procedurali introdotti con il DSA e ad essi destinati, si sviluppano in forma stratificata dal basso verso l’alto in base alle caratteristiche proprie del singolo provider e, via via, si fanno più complessi, in modo tale che player di dimensioni molto grandi siano tenuti ad adempiere a specifici doveri esclusivi e aggiuntivi: tra questi effettuare la mappatura, la valutazione e la gestione dei rischi sistemici, ovvero uno degli elementi chiave del regolamento, in più, il superamento di audit indipendenti, includere, tra i propri sistemi di raccomandazione, almeno un’opzione che non sia basata sulla profilazione del destinatario del servizio, su richiesta, fornire l’accesso ai dati necessari per monitorare il rispetto delle prescrizioni della DSA, oltre alla predisposizione di una specifica funzione di compliance dedicata alla moderazione dei contenuti e alla lotta alla disinformazione online.

Tutte previsioni che, inserite in una complessa cornice di governance pubblica decentrata e condivisa[11], si pongono come obiettivo quello di contemperare esigenze diverse, tra le quali la necessità di una risposta ai rischi causati da contenuti generati dagli utenti, la tutela dei diritti fondamentali, con particolare riguardo alla libertà di espressione, oltre che la ricerca di soluzioni ai limiti pratici delle attuali applicazioni impiegate nella rimozione dei contenuti.

Ebbene, il rilievo costituzionale insito nell’ambizioso proposito dell’UE è di immediata comprensione e ne costituisce per questo anche il suo limite più grande. In modo particolare poiché la portata dell’obbligo di rimozione imposto dal DSA riveste uno spazio che si estende dalla rimozione di contenuti illegittimi, cioè contrari alla legge, a quell’area indeterminata, e sempre più vasta, dei contenuti nocivi ma non necessariamente in contrasto con la legge: incitazione all’odio e disinformazione.

Proprio la mancata previsione di una specifica base giuridica destinata alla moderazione dei contenuti diciamo “inappropriati”, sottoposta per lo più alle previsioni di tipo privatistico contenute nelle condizioni di servizio o nei codici di condotta delle singole piattaforme, costituisce il limite più insidioso e il pericolo più rilevante che minaccia l’effettività delle norme e soprattutto la corretta esplicazione del principio generale della certezza del diritto. Sarebbe un po’ come se una sfuggente classificazione di moralità potesse alla lunga prevalere sulla legge. E, certamente, tanto si mostra confacente con i modelli di business dei colossi tecnologici, traducendosi in un complesso scacchiere di reciproche dipendenze e autoritarismi digitali da cui non sono immuni neppure le testate giornalistiche tradizionali.

Per questo, tutto ciò, almeno per ora, sembrerebbe avere poco a che fare con l’esigenza di un’efficace tutela dei diritti fondamentali rincorsa dai nuovi quadri regolatori, e ancora molto, invece, con l’inarrestabile ascesa della disinformazione, con la perdurante mancanza di chiarezza e la perenne sensazione di caos nell’ambiente online.

Un giornalista ha ben definito l’informazione che circola in rete una “nebbia di guerra che influisce sulla documentazione storica di questo conflitto” e certo la “nebbia di guerra guidata dagli algoritmi”, ha reso, per chiunque, molto difficile discernere la verità.

Normale che questo sollevi serie preoccupazioni sulla concreta efficacia delle recenti norme europee e sulla responsabilità delle piattaforme nel combattere la disinformazione e nell’assicurare la qualità delle informazioni.

Non ultimo, è di tutta evidenza il fatto per cui l’approccio regolatorio dell’UE, possa risentire significativamente, in termini di effettività e deterrenza, della frammentazione normativa tra gli Stati membri e del conseguente rischio di politiche di moderazione incoerenti e contraddittorie. Ed è questo l’ulteriore limite, non trascurabile, che rischia di compromettere significativamente la validità del Regolamento DSA.

A tale riguardo, emerge come l’operato della Commissione UE, concorrente rispetto a quello dei coordinatori nazionali (che compongono il Comitato per i servizi digitali) in merito alle possibili violazioni del DSA commesse dai player di grandi dimensioni[12] e, particolarmente, come il meccanismo esclusivo[13] di risposta previsto per il mancato assolvimento degli obblighi specifici contenuti nella sezione 5 del Capo III, ad essa attribuito, potrebbero rivestire un ruolo decisivo in termini di efficacia ed enforcement pubblico. La Commissione, infatti, laddove sospetti che la condotta di una delle grandi corporation sia idonea a costituire una violazione, avrà la capacità di avviare un procedimento per l’adozione di una possibile decisione di non conformità (art. 73 DSA) e l’irrogazione delle previste sanzioni pecuniarie (art. 74 DSA). Dovrà darne notifica all’interessato e altresì al Comitato e a tutti i coordinatori dei servizi digitali (art. 66, par. 1, DSA), essendo questi ultimi tenuti a trasmettere, senza indebito ritardo, ogni rilevante informazione di cui siano in possesso. All’apertura di un procedimento da parte della Commissione conseguirà, inoltre, l’esonero, per qualsiasi autorità competente, dall’esercizio dei propri poteri di vigilanza ed esecuzione stabiliti nel DSA, ferma restando la possibilità che la stessa Commissione richieda il sostegno, singolo o congiunto, dei coordinatori interessati dalla presunta violazione, i quali dovranno cooperare “lealmente e tempestivamente” (art. 66, par. 3, DSA).

Oltre a ciò, un’altra questione chiave dell’intera attività di implementazione e concretezza del DSA dipenderà da come gli Stati membri sapranno declinare le specifiche esigenze richieste dal sistema di cooperazione reticolare e multilivello previsto dal Regolamento; sinergie come quella tra i coordinatori nazionali digitali e le altre autorità nazionali in materia di protezione dei dati, libera concorrenza e telecomunicazioni; oltre ovviamente a quella con la Commissione UE, titolare di aree di competenza sia concorrente che esclusiva.

Conclusioni

Come nel gioco del gatto e del topo, le visioni democratiche inseguono quelle tecnologiche, ma perdono inesorabilmente terreno di fronte alle pressioni dei poteri autarchici ed economici da una parte, e alla rigorosa complessità delle decisioni imposte dai progressi del digitale e dei sistemi di business ad essi connessi, dall’altro.

Ed è su questo terreno che gli “artefatti tecnologici” manifestano al meglio la loro veste politica.

Il dilemma tra la necessità del progresso e le libertà fondamentali, già sapientemente descritto già nel 1980, nell’importante articolo di Langdon Winner: Do Artifacts Have Politics? si insedia nelle maglie della società modellandone il diritto di partecipazione, la direzione, la forma, il potere, i diritti e i privilegi.

Le tecniche di moderazione, patrocinate dai colossi tecnologici, orientano le scelte, determinano le politiche pubbliche, prestano il fianco alle istanze dei regimi e dei gruppi estremisti. I grandi intermediari del digitale, troppo spesso erroneamente percepiti come arbitri neutrali di un fumoso processo di decisione e di scelta, polarizzano e danno forma alla capacità di autodeterminazione degli individui.

Resta ancora urgentemente da capire come tecnologia e politica potranno mai intrecciarsi e convergere nel dar forma a un tessuto sociale che sia insieme corretto e stimolante.

E tanto si rivela una priorità assoluta.

Se il DSA costituirà un valido modello per la lotta alla disinformazione, specie sull’altra sponda dell’Atlantico, lo scopriremo presto.

Note


[1]In Francia, il 12 ottobre, Gérald Darmanin, ha inviato un telegramma ai prefetti ordinando loro di vietare tutte le manifestazioni filo-palestinesi, per il rischio di disturbo dell’ordine pubblico.

Presentato ricorso al Consiglio di Stato dall’associazione “Palestine Action Committee”, è stata emessa la decisione per cui il divieto sistematico delle manifestazioni a favore della causa palestinese è stato ritenuto illegittimo. In sostanza, il Consiglio di Stato ha stabilito che non è legittimo vietare sistematicamente tutte le manifestazioni. Questa possibilità spetta ai prefetti e solo a loro e devono necessariamente giustificare un rischio di disturbo dell’ordine pubblico che non è per sua natura un sostegno alla causa palestinese.

[2] Compreso il codice di condotta rafforzato sulla disinformazione firmato e presentato il 16 giugno 2022 da 34 firmatari che hanno aderito al processo di revisione del codice 2018. Il nuovo codice mira a conseguire gli obiettivi degli orientamenti della Commissione presentati nel maggio 2021, stabilendo una gamma più ampia di impegni e misure per contrastare la disinformazione online. Si veda https://digital-strategy.ec.europa.eu/it/policies/code-practice-disinformation

[3] Nel caso Brandenburg v. Ohio, Clarence Brandenburg, un membro del Ku Klux Klan, era stato condannato per aver tenuto un discorso durante una riunione del gruppo in cui aveva fatto affermazioni incendiarie e minacce nei confronti dei gruppi di razza nera e di alcune autorità politiche. Brandenburg aveva sostenuto l’utilizzo della violenza per proteggere “la supremazia bianca” e aveva criticato alcune figure politiche. La Corte Suprema degli Stati Uniti, in una decisione unanime, ribaltò la condanna di Brandenburg. La Corte stabilì che il discorso può essere vietato se: Il discorso è “diretto” alla produzione immediata di azioni illegali e violente. Il discorso è anche “probabilmente” in grado di causare azioni illegali e violente.

[4] Dal 25 agosto 2023 gli obblighi previsti dalla legge sui servizi digitali (“DSA”) per le piattaforme online e i motori di ricerca di grandi dimensioni sono diventati direttamente applicabili in tutta l’Unione Europea.

[5] La DSA classifica le piattaforme o i motori di ricerca che hanno più di 45 milioni di utenti al mese nell’UE come piattaforme online molto grandi (VLOP) o motori di ricerca online molto grandi (VLOSE). La Commissione ha iniziato a designare come VLOP o VLOSE in base ai numeri di utenti forniti dalla piattaforma o dai motori di ricerca, che, indipendentemente dalle dimensioni, dovevano pubblicare entro il 17 febbraio 2023. Le piattaforme e i motori di ricerca dovranno aggiornare almeno queste cifre ogni 6 mesi come spiegato in DSA: Guida all’obbligo di pubblicare i numeri degli utenti.

Una volta che la Commissione designa una piattaforma come VLOP o un motore di ricerca come VLOSE, ha quattro mesi per conformarsi alla DSA. La designazione dà luogo a norme specifiche che affrontano i rischi particolari che tali servizi di grandi dimensioni comportano per gli europei e la società quando si tratta di contenuti illegali e il loro impatto sui diritti fondamentali, sulla sicurezza pubblica e sul benessere.

La Commissione revocherà la sua decisione se la piattaforma o il motore di ricerca non raggiungerà più la soglia dei 45 milioni di utenti mensili durante un anno intero.

[6] Il riferimento è a vecchie immagini di conflitti armati che niente hanno a che vedere con quello in corso, filmati militari ottenuti montando fermo immagini estrapolati da videogiochi e più in generale informazioni non verificate, senza fonte o palesemente false che rischiano di dare una rappresentazione fuorviante dei fatti

[7] Fin dalla acquisizione di Twitter da parte di Musk e la sua successiva decisione di sciogliere il Consiglio di Trust e Safety, un organismo nato nel 2016, era divenuto chiaro che X si sarebbe mosso in modo autonomo. Una direzione confermata anche dalla successiva decisione di ritirarsi dal sistema europeo volontario di gestione delle fake news.

[8] Crf. “Nel conflitto Israele-Hamas, i social media diventano strumenti di propaganda e disinformazione”, Digital Forensic Research Lab (DFRLab), 12 ottobre 2023

https://dfrlab.org/2023/10/12/in-israele-conflitto-di-Hamas-i-social-media-diventano-strumenti-di-propaganda-e-disinformazione

[9] Lo shadow banning è una pratica in cui un utente su una piattaforma online, come un sito web o un social media, viene silenziosamente ridotto o limitato nella visibilità dei propri contenuti senza che ne sia a conoscenza. In altre parole, gli utenti che sono “shadow banned” possono continuare a pubblicare contenuti, ma i loro messaggi o profili diventano meno visibili agli altri utenti. Le piattaforme online possono utilizzare il shadow banning per vari motivi, tra cui la moderazione del contenuto, la riduzione dello spam, la gestione dell’incitamento all’odio o il controllo delle violazioni delle regole della comunità. Tuttavia, quando il shadow banning è applicato in modo non trasparente o discriminatorio, può sollevare preoccupazioni sulla censura o sulla limitazione della libertà di espressione.

[10] Il “chilling effect” (effetto raffreddante o intimidatorio) si riferisce a una situazione in cui l’esercizio della libertà di espressione o di altri diritti legali e costituzionali viene limitato o auto-censurato da individui a causa della paura delle ripercussioni legali o sociali. In pratica, le persone potrebbero evitare di esprimere opinioni, partecipare a discussioni o intraprendere determinate azioni perché temono che potrebbero subire conseguenze negative.

Il termine è spesso associato a situazioni in cui il governo o altre autorità esercitano una pressione o mettono in atto politiche che scoraggiano la libertà di espressione. Ad esempio, leggi restrittive sulla diffamazione o la censura dei media possono avere un “chilling effect” sugli individui, poiché questi possono avere paura di esprimere opinioni critiche o pubblicare notizie investigative per timore di essere perseguitati legalmente o soggetti a altre forme di rappresaglia.

[11] Le diverse autorità coinvolte in ambito nazionale, la Commissione europea e il Comitato europeo per i servizi digitali, dovranno operare in collaborazione. Gli Stati membri manterranno un ruolo di primo piano, pur nel contesto di un framework normativo che si spera sia quanto più possibile armonizzato.

[12] Il 25 aprile 2023 la Commissione ha designato 19 piattaforme online molto grandi (VLOP) e motori di ricerca online molto grandi (VLOSE) in base al fatto che il loro numero di utenti supera i 45 milioni, ovvero il 10% della popolazione dell’UE. Questi servizi devono rispettare l’intera serie di disposizioni introdotte dalla DSA a partire dalla fine di agosto 2023.

[13] Alla Commissione spetta in via esclusiva la supervisione sul rispetto degli obblighi più stringenti di cui Capo III, sezione 5, artt. 33-43 DSA imposti ai fornitori di piattaforme online di dimensioni molto grandi (c.d. Very Large Online Platforms – VLOPs) e ai motori di ricerca online di dimensioni molto grandi (c.d. Very Large Online Search Engines – VLOSEs)

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3