REGOLAMENTAZIONE

Social e politica, l’approccio soft di Agcom: tutte le zone grigie

Nonostante l’allineamento alla self regulation indicata dall’Europa, la strategia attuata dall’authority nei confronti delle piattaforme digitali lascia più di un interrogativo aperto. Vediamo il quadro complessivo e come interventi più incisivi potrebbero chiarire lo scenario

Pubblicato il 09 Set 2020

Maria Romana Allegri

Professoressa aggregata di Diritto pubblico, dell’informazione e della comunicazione, Sapienza Università di Roma, Dip. di Comunicazione e Ricerca Sociale

AGCOM_Sede_di_Roma_Via_Isonzo

Fa perno sull’autoregolamentazione il modello adottato da Agcom nel mondo della comunicazione politica online. Una linea strategica che apre però a una serie di interpretazioni e incertezze regolamentari. Facciamo il punto.

Comunicazione politica, il ruolo di Agcom

Le competenze dell’Agcom in materia di propaganda, pubblicità e informazione politica risalgono alla legge n. 249/1997, istitutiva dell’Autorità stessa. Mentre nella successiva legge n. 28/2000 il ruolo dell’Agcom in relazione alla comunicazione politico-elettorale è stato declinato con esclusivo riferimento al mezzo radiotelevisivo, l’art. 1, lett. b, par. 9 della legge n. 249/1997 non lo collegava ad alcuno specifico mezzo di comunicazione.

Peraltro, in base al Testo unico dei servizi di media audiovisivi e radiofonici (d. lgs. n. 177/2005), fra i principi fondamentali applicabili al sistema dei media (di tutti i media) figurano l’obiettività, la completezza, la lealtà e l’imparzialità dell’informazione (art. 3). L’informazione è qualificata come servizio di interesse generale (art. 7 par. 1) e proprio per questo deve garantire la presentazione veritiera dei fatti e degli avvenimenti, in modo tale da favorire la libera formazione delle opinioni (art. 7 par. 1 lett. a).

Alla luce di questo quadro normativo, l’Agcom ha ritenuto che la sua funzione istituzionale postulasse, «anche in assenza di esplicita previsione, l’esercizio di un ruolo di impulso e di coordinamento tra i diversi attori operanti nel settore dell’informazione online per favorire l’autoregolamentazione su base volontaria ai fini di contrasto dei fenomeni di disinformazione online in generale e, nello specifico, della lesione della correttezza, dell’imparzialità e del pluralismo dell’informazione» (delibera 423/17/Cons, p. 3).

Il ruolo che l’Agcom si è attribuita, espresso nella delibera n. 423/17/Cons, si iscrive perfettamente nella strategia che la Commissione europea ha iniziato ad elaborare fin dal 2017 in vista delle elezioni europee del 2019, basata in larga misura sulla promozione della cooperazione fra le piattaforme digitali e le autorità nazionali competenti, al fine di contrastare la diffusione via Internet di contenuti illeciti.

Campagne elettorali e pluralismo

Dunque, nel novembre 2017, con la delibera n. 423/17/Cons, in considerazione del crescente utilizzo dei social network nelle campagne elettorali e referendarie e della diffusione di strategie di disinformazione mediante le piattaforme digitali, con gravi ripercussioni rispetto al principio del pluralismo informativo, l’Agcom ha deciso di istituire un Tavolo tecnico per la garanzia del pluralismo e della correttezza dell’informazione sulle piattaforme digitali (allegato alla delibera) per favorire il confronto fra gli attori economici interessati (le piattaforme digitali, gli editori e le imprese che offrono servizi e contenuti audiovisivi online) ed esperti (università, centri di ricerca e associazioni di settore), in modo da individuare soluzioni condivise per contrastare la disinformazione e sostenere le iniziative di autoregolamentazione della comunicazione politica attraverso Internet.

Il Tavolo tecnico ha prodotto delle Linee guida per la parità di accesso alle piattaforme online durante la campagna elettorale per le elezioni politiche 2018, pubblicate il 1° febbraio 2018, basate sul principio per cui l’accesso agli strumenti di informazione e comunicazione politica tramite le piattaforme digitali (Google e Facebook in particolare) deve avvenire nel rispetto dei medesimi criteri previsti dalla legge n. 28/2000, cioè imparzialità ed equità nelle condizioni di accesso ai mezzi di comunicazione per tutti i soggetti politici.

Le linee guida non sono ovviamente vincolanti, ma l’Agcom ha sollecitato i gestori delle piattaforme digitali, nonché i soggetti politici che prescelgono queste ultime per la comunicazione e la propaganda politica, a conformarvisi volontariamente. In tal modo, l’Agcom mostra di aderire all’approccio delineato dalla Commissione europea nel Codice di buone pratiche sulla disinformazione approvato ad ottobre 2018.

In particolare, l’Agcom richiede ai gestori delle piattaforme di: informare i soggetti politici «degli strumenti che possono mettere a loro disposizione per coadiuvare la comunicazione politica online»; rendere chiaramente identificabile la natura di “messaggio elettorale” delle inserzioni nonché il soggetto politico committente; ottemperare tempestivamente alle richieste dell’Agcom di oscurare taluni contenuti (per esempio quelli illeciti o lesivi dell’onore e della reputazione altrui o quelli che diffondono i risultati dei sondaggi pre-elettorali nei quindici giorni antecedenti il voto); implementare le iniziative di fact-checking per contrastare la diffusione di informazioni false o distorte.

Il principio di autoregolamentazione

Ai soggetti politici che utilizzano le piattaforme digitali in campagna elettorale, invece, si richiede in particolar modo di astenersi dal diffondere, nei quindici giorni precedenti alla data delle elezioni, i risultati dei sondaggi pre-elettorali, come previsto dall’art. 8 della legge n. 28/2000, come pure di rispettare il divieto di ogni forma di propaganda elettorale nel giorno del voto e in quello precedente. Agli enti pubblici, infine, si richiede di rispettare il divieto di comunicazione istituzionale nel periodo della campagna elettorale, previsto dall’art. 9 della legge n. 28/2000, anche con riferimento ai nuovi media.

Le linee guida sono state espressamente richiamate, per la prima volta, nella delibera che l’Agcom ha emanato in vista delle elezioni europee di maggio 2019 (n. 94/19/Cons del 29 marzo 2019). Il riferimento non è, per la verità, particolarmente illuminante: l’art. 28 della delibera, intitolato Tutela del pluralismo sulle piattaforme di condivisione di video, sollecita l’adozione di procedure di autoregolamentazione da parte delle piattaforme online, nonché il rispetto dei divieti di diffusione dei sondaggi e di comunicazione istituzionale delle pubbliche amministrazioni, senza prevedere però alcuna forma né di controllo né di sanzione in caso di inottemperanza.

Da ultimo, l’Agcom si è occupata della comunicazione attraverso Internet, e in particolare attraverso i social media, nel recente Regolamento recante disposizioni in materia di rispetto della dignità umana e del principio di non discriminazione e di contrasto allo hate speech, che figura come allegato b alla delibera n. 157/19/Cons del 15 maggio 2019. La comunicazione politica infatti – soprattutto quella liberamente diffusa dagli utenti dei social mediaè spesso caratterizzata da espressioni di odio o contenuti offensivi o discriminatori.

Il nodo dell’hate speech

Le competenze dell’Agcom in materia di hate speech si fondano in particolare, sull’art. 35 comma 5 del Testo unico dei servizi di media audiovisivi e radiofonici, secondo il quale «i servizi di media audiovisivi prestati dai fornitori di servizi di media soggetti alla giurisdizione italiana rispettano la dignità umana e non contengono alcun incitamento all’odio basato su razza, sesso, religione o nazionalità», nonché sull’art. 10 comma 1 del medesimo Testo unico, per cui l’Agcom «assicura il rispetto dei diritti fondamentali della persona nel settore delle comunicazioni, anche mediante servizi di media audiovisivi o radiofonici». Peraltro, la normativa italiana recepisce la disposizione contenuta nell’art. 3 ter della direttiva europea n. 2007/65/Ce, secondo cui «gli Stati membri assicurano, con misure adeguate, che servizi di media audiovisivi erogati da fornitori soggetti alla loro giurisdizione non contengano alcun incitamento all’odio basato su razza, sesso, religione o nazionalità».

Il regolamento dell’Agcom è stato emanato mentre nell’Unione europea era in corso la procedura legislativa che ha condotto, a novembre 2018, all’approvazione della direttiva n. 2018/1808/Ue, recante modifiche alla precedente direttiva sui servizi di media audiovisivi n. 2010/13/Ue. Fra i vari aspetti considerati dalla direttiva, rileva in questa sede soprattutto il riferimento, contenuto nell’art. 1 par. 6, al ricorso alla coregolamentazione e alla promozione dell’autoregolamentazione da parte degli Stati membri; ciò può avvenire tramite codici di condotta adottati a livello nazionale nei settori coordinati dalla direttiva, nella misura consentita dagli ordinamenti giuridici nazionali, nonché – per quanto riguarda la sola autoregolamentazione – mediante codici di condotta dell’Unione elaborati da fornitori di servizi di media, da fornitori di servizi di piattaforma per la condivisione di video o da organizzazioni che li rappresentano, eventualmente in cooperazione con altri settori interessati quali industria, commercio, associazioni o organizzazioni professionali e di consumatori.

Inoltre, rileva in questa sede l’art. 1 par. 9, secondo il quale gli Stati membri assicurano che i servizi di media audiovisivi erogati da fornitori soggetti alla loro giurisdizione non contengano istigazione alla violenza o all’odio nei confronti di un gruppo di persone o un membro di un gruppo sulla base di uno dei motivi di cui all’articolo 21 della Carta dei diritti fondamentali dell’Unione europea.

Italia allineata alle direttive Ue

Analogamente, l’art. 1 par. 23 della direttiva impone agli Stati membri di fare in modo che i fornitori di piattaforme per la condivisione di video soggetti alla loro giurisdizione adottino misure adeguate a tutelare il grande pubblico da programmi o video generati dagli utenti e comunicazioni commerciali audiovisive che istighino alla violenza o all’odio. Il regolamento dell’Agcom, quindi, rappresenta la risposta italiana alle indicazioni contenute nella direttiva.

Nel corso degli ultimi anni l’Agcom – come si legge nella relazione introduttiva (allegato a alla delibera n. 57/19/Cons) – ha registrato un crescente e preoccupante acuirsi, nelle trasmissioni televisive di approfondimento informativo e di infotainment delle principali emittenti nazionali, del ricorso ad espressioni di discriminazione nei confronti di categorie o gruppi di persone in ragione del loro particolare status economico-sociale, della loro appartenenza etnica, del loro orientamento sessuale o del loro credo religioso.

Nel corso della campagna elettorale per le elezioni politiche del 2018, l’Agcom è intervenuta, conseguentemente, in varie occasioni, nei confronti di alcune emittenti in ragione di rappresentazioni incomplete, parziali e configurabili come espressioni d’odio, ovvero come discriminazioni nei confronti di singole persone, in ragione della loro appartenenza a categorie o gruppi etnici.

La possibile relazione causale tra espressioni d’odio e crimini d’odio che sfociano in azioni di violenza fisica comporta che si debba prestare particolare attenzione alla raccolta dei dati relativi alle espressioni d’odio, non solo con riferimento ai singoli individui che se ne facciano portatori, ma anche al loro precipitare nel discorso pubblico, anche ad opera di chi detenga, a vario titolo, responsabilità editoriali, politiche o istituzionali e si esprima in pubblico attraverso i diversi mezzi di comunicazione di massa.

Discorso pubblico e user generated content

La crescente diffusione di espressioni discriminatorie e discorsi d’odio, anche attraverso il “discorso pubblico” che trova spazio presso i servizi di media audiovisivi, contribuisce ad alimentare e a rafforzare i pregiudizi, a consolidare gli stereotipi e inasprire l’ostilità di taluni gruppi di persone nei confronti di altri, specie se questi ultimi si trovano in una posizione di minoranza o di oggettiva debolezza.

La diffusione di espressioni di odio si può verificare attraverso l’uso dei media tradizionali, che certamente hanno grandissima influenza nella costruzione del “discorso pubblico”, ma tali espressioni possono circolare con estrema rapidità anche attraverso i video generati dagli utenti. Ne deriva l’esigenza di proteggere gli utenti anche dai contenuti nocivi e dai discorsi di incitamento all’odio messi a disposizione sui servizi di piattaforma per la condivisione di video. Per questo l’Agcom ha ritenuto opportuno ricomprendere nel regolamento i fornitori di piattaforme per la condivisione di video, proprio in considerazione delle nuove sfide rappresentate dalla fruizione di contenuti attraverso tali modalità.

La modalità di regolamentazione prescelta dall’Agcom in relazione alla repressione dello hate speech viaggia su un duplice binario, che tiene conto ovviamente del tipo di competenze che per legge sono attribuite a tale Autorità.

Ai media audiovisivi e radiofonici “tradizionali”, con particolare attenzione per il servizio pubblico radiotelevisivo, sono destinate le norme precettive, corredate da disposizioni sanzionatorie, contenute nei primi otto articoli del regolamento.

Regolamentazione delle piattaforme

L’art. 9 invece si rivolge alle piattaforme di condivisione video (cioè quelle che forniscono al pubblico programmi e/o video user-generated attraverso reti di comunicazione elettronica) e si riferisce alla promozione da parte dell’Agcom, «mediante procedure di coregolamentazione», di «misure volte a contrastare la diffusione in rete, e in particolare sui social media, di contenuti in violazione dei principi sanciti a tutela della dignità umana e per la rimozione dei contenuti d’odio», misure che «devono prevedere anche sistemi efficaci di individuazione e segnalazione degli illeciti e dei loro responsabili».

Il regolamento però non precisa in cosa debbano consistere concretamente tali misure né quale sia il ruolo dei diversi attori coinvolti nelle richiamate procedure di coregolamentazione né eventuali scadenze entro cui provvedere. Ci si aspetta che le piattaforme per la condivisione di video trasmettano trimestralmente all’Agcom un rapporto sul monitoraggio effettuato per l’individuazione dei contenuti d’odio online, con l’indicazione anche delle modalità operative e dei sistemi di verifica utilizzati, ma nulla viene detto circa le conseguenze in caso di inottemperanza.

Piena autonomia ai gestori di piattaforme

Infine, si invitano – quindi in forma non obbligatoria – i fornitori di piattaforme per la condivisione di video a prevedere campagne di sensibilizzazione o altre iniziative aventi ad oggetto l’inclusione e la coesione sociale, la promozione della diversità, i diritti fondamentali della persona, al fine di prevenire e combattere fenomeni di discriminazione online. L’ultimo comma dell’art. 9 fa riferimento a «eventuali codici di condotta o misure autonomamente adottate dai fornitori di servizi di media audiovisivi», alla cui luce l’Agcom si impegna a rivedere in futuro il regolamento.

Sebbene l’Agcom non disponga della competenza ex lege per intervenire coercitivamente nei confronti delle piattaforme di condivisione di contenuti online non rientranti nella definizione di “fornitori di servizi di media audiovisivi e radiofonici”, e sebbene la via della self regulation sia quella tracciata dalla Commissione europea non solo dalla direttiva n. 2018/1808/Ue ma anche dal Code of conduct on countering illegal hate speech online, varato nel maggio 2016 e sottoscritto dalle principali web companies, sarebbe forse auspicabile da parte dell’Agcom un intervento più incisivo, se non altro nella definizione di tempi e modalità delle procedure di coregolamentazione e del ruolo spettante, nel loro ambito, rispettivamente all’Agcom stessa e agli attori privati. Il regolamento Agcom, infatti, lascia tutti questi aspetti nell’assoluta indeterminatezza e, di fatto, concede piena autonomia ai gestori delle piattaforme digitali e ai relativi fornitori di contenuti.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati