Come il 25 maggio 2018, ci siamo trovati “sommersi” da nuove condizioni di utilizzo e adeguamenti di privacy policy, di Meta, Google, TikTok e altri: è l’effetto del DSA (Digital Service Act), la nuova normativa europea sui servizi digitali che impatta, in primo luogo, sulla profilazione degli utenti online.
Ma non solo: anche le attività professionali vedranno novità e godranno si un sistema che, nell’intenzione del legislatore europeo, sarà molto più trasparente e governabile di prima. Vediamo come.
Le principali novità
Trasparenza di algoritmi e pubblicità, lotta alla violenza online e alla disinformazione, protezione dei minori.
Sono questi i punti principali su cui interviene il regolamenti europeo: le piattaforme ed i motori di ricerca di grandi dimensioni hanno dovuto adeguarsi entro il 25 agosto 2023, mentre per tutti gli altri operatori l’obbligo scatterà a febbraio 2024, anche se con limitazioni e con soluzioni semplificate.
Le principali novità riguardano la trasparenza dell’algoritmo che aggiorna i feed e la pubblicità, i contrasto all’odio online, alla disinformazione ed il ban assoluto di profilazione dei minorenni.
La trasparenza
In punto trasparenza, il Digital Service Act impone, di fatto alle piattaforme di rispondere al grande questo: “Perché vedo questa cosa”?
La risposta, fino a non molto tempo fa, sarebbe stata: “perché lo prevede l’algoritmo sulla base della profilazione delle tue ricerche online, di quello che posti e di quello che postano i tuoi contatti, e dell’interazione che hai con questi contatti”.
Ora la “misura” dell’algoritmo deve essere leggibile, se non all’utente medio, almeno ai soggetti qualificati che operano nel settore.
- L’utente potrà anche scegliere, se le condizioni d’uso lo prevedono – Meta fa così, ad esempio – di visualizzare i contenuti pubblicati dai propri contatti in ordine cronologico e senza personalizzazione algoritmica, come già annunciano Meta e Tiktok.
- I professionisti del settore potranno comprendere meglio perché un post pubblicitario ha successo o meno.
La performance di un social media manager sarà più facilmente misurabile perché sono stati resi espliciti i criteri che determinano le visualizzazioni.
Sarà molto più complesso, per le piattaforme, discriminare tra attività che operano nello stesso settore di mercato in termini di richiesta di fondi per le sponsorizzazioni.
Trasparenza dell’algoritmo significa, per gli operatori economici e per i professionisti del settore, maggior libertà di concorrenza e maggior governabilità dei risultati in base alle premesse operative.
Per gli utenti, significa maggior libertà di scelta dei contenuti. La trasparenza (e la collegata accountability) passa inoltre da un migliore accesso dei ricercatori ai dati delle piattaforme: Google, Meta e Tiktok hanno annunciato che lo permetteranno.
Odio online e disinformazione: censura o ecologia della rete?
Punto delicatissimo è la regolamentazione dei contenuti sulla base dell’incitamento all’odio, delle scene di violenza e del contrasto alla disinformazione.
Le scene apertamente violente sono, paradossalmente, quelle più “innocue”: il ban può essere già richiesto ed effettuato dalle autorità competenti e le piattaforme avevano già implementato modelli per limitarne al massimo la diffusione.
Il problema sono l’incitamento all’odio e le fake news, perché sono concetti sfumati, non perfettamente codificati nemmeno dal legislatore europeo e, soprattutto, perché si collocano nell’alveo della libertà di espressione e della manifestazione del pensiero.
Qui i sistemi di controllo sono molteplici: dalla minor reddittività dei contenuti di odio alla cancellazione del contenuto, ai controlli dei fact checker indipendenti.
Il tutto porta direttamente ad un sistema di censura inteso in senso stretto, contemperato da un apparato di ricorsi diretti alla piattaforma e da sistemi di conciliazione ampliati e potenziati.
In altri termini, le piattaforme dovranno disincentivare economicamente, ossia con il taglio dei contributi pubblicitari, i canali che pubblicano contenuti che incitano all’odio o che diffondono notizie false.
Il controllo sulla correttezza o meno delle informazioni deve passare attraverso un sistema interno di verifica, e può essere corroborato da soggetti esterni alla piattaforma, ossia i fact checkers.
Chi vedesse i propri contenuti o i propri canali limitati o vedesse tagliare i profitti pubblicitari per la pubblicazione di un contenuto ritenuto non conforme, potrà fare un ricorso direttamente alla piattaforma e, poi, in caso negativo, adire un soggetto abilitato alla conciliazione o le autorità indipendenti preposte (che verranno, però, designate a febbraio 2024).
Censura? Assolutamente sì, ma finalizzata, nell’intento del legislatore europeo, a prevenire situazioni scabrose in contesti delicati, come avvenuto per gli scandali di Cambridge Analityca o altre ipotesi di manipolazione dell’elettorato mediante diffusione di informazioni non veritiere nel contesto delle campagne elettorali.
Se funzionerà – ossia se l’equilibrio tra limitazione dei contenuti e libertà di manifestazione del pensiero sarà accettabile – lo diranno solo i fatti, ossia l’applicazione pratica.
Altrimenti, benvenuti in 1984.
I minorenni
A tutela dei minori è, a consuntivo, la parte più semplice.
Non potranno essere più effettuati “suggerimenti” sulla base ella profilazione degli utenti minorenni, a parte la localizzazione geografica e l’età.
In altri termini, un utente sedicenne di Milano vedrà pubblicità rivolte ad un sedicenne di Milano e non rivolte ad un tredicenne di Genova, ma senza distinzione di preferenze, come calco o basket o come genere fantasy o thriller. Tutti i social (meno Twitter) hanno già annunciato che si sono adeguati.
Che accoglienza ha avuto il DSA?
Il quotidiano La Verità si è scagliato contro il rischio di censura che, giova ripeterlo, c’è e non è secondario.
Va ricordato che nelle ipotesi di grandi crisi – guerre, epidemie, catastrofi naturali e simili – la Commissione europea, tramite appositi meccanismi ed organismi, può letteralmente avocare a sé il potere di decidere cosa è informazione corretta e cosa no; idem per l’incitamento all’odio.
Non a caso il DSA è stato ideato nel 2020, ossia in piena epoca Covid, pensando alla limitazione delle notizie ritenute false in materia di terapie etc.
Bisognerà verificare sul campo come verrà applicato in contesti di manifestazioni “aggressive”, come ad esempio nel caso di quanto avvenuto in Francia negli ultimi anni.
Altre testate sono state meno scettiche, anche perché non hanno tra i propri lettori soggetti ritenuti “complottisti” ma si rivolgono, piuttosto, a chi ama il “politicamente corretto”.
Anche in questo caso, però, è questione di marketing e di mercato, più che di informazione.
Conclusioni: le piattaforme online verso un sistema misto privato/pubblico
Editore o edicola? Questa la domanda che ci si poneva, anni fa, sula natura dei social network.
Ora è chiaro che si tratta di soggetti privati il cui mercato è regolamentato in modo più stringente e che, nelle ipotesi in cui operano in settori sensibili, ossia la manifestazione del pensiero, le posizioni politiche e l’informazione, sono sostanzialmente equiparati ai media tradizionali.
Operano, di fatto, come un vero e proprio servizio pubblico e sono soggetti alle scelte e alle determinazione dei pubblici poteri nei contesti di crisi.
Il business model cambia moltissimo rispetto alle origini, ma le dimensioni e l’impatto avuto negli anni da questi soggetti stato letteralmente smisurato.
All’alba dell’acquisizione di Twitter da parte di Elon Musk, alcuni osservatori – attenti – del mercato dei social deridevano l’imprenditore visionario per l’imprudenza della scelta, perché affermare pubblicamente che non ci sarebbe più stata moderazione dei contenuti su Twitter equivaleva a rinunciare al business del social stesso, ossia la selezione dei contenuti.
Pr quanto le interferenze del partito democratico statunitense nel contesto di Twitter siano state acclarate da controlli interni post acquisizione, va comunque osservato che quello era, a tutti gli effetti, il business di Twitter.
La scelta di attribuire rilevanza ai fact checker indipendenti, poi, lascia il tempo che trova.
O sono soggetti privati, con ideologia di riferimento e relativi committenti, o sono soggetti pubblici e, come tali, necessariamente di tendenza, almeno in parte.
In conclusione, la ricerca dell’equilibrio è complessa, perché gli estremi tra cui ci si muove sono – e restano, forse, per sempre – il selvaggio West senza regole e l’Unione sovietica (ma anche, più in linea con la contemporaneità, la Cina).