il dibattito

Big Tech, affrontare il nodo della responsabilità senza errori o censure: le sfide

Il business delle piattaforme online, social network in primis, è incentrato sul coinvolgimento dell’utente: ogni strategia ruota attorno alle modalità per catturarne l’attenzione il più a lungo possibile e creare “dipendenza”. Da qui il boom di contenuti virali e di bassa qualità. Come intervenire per arginare il fenomeno?

Pubblicato il 24 Giu 2021

Leonardo Madio

Università di Padova

Andrea Mantovani

Associate Professor in Economics - Toulouse Business School Toulouse

Carlo Reggiani

University of Manchester

videoregistrazione da remoto

Da oltre un anno abbiamo imparato a convivere con le conseguenze portate dall’emergenza sanitaria del Covid 19. Nonostante si registrino ancora ricoveri e decessi, la maggior parte delle attività produttive sta tornando alla normalità. In questo contesto si è riacceso il dibattito sul ruolo delle grandi piattaforme (“Big Tech”), che hanno acquisito ancora più potere in questo periodo di accelerazione digitale, e sulla necessità (o meno) di una regolamentazione più stringente.

Big tech, con gli Stati è una partita a scacchi: un decalogo per decifrare le mosse

La maggior parte delle piattaforme digitali costruiscono il loro successo intorno agli effetti di rete, in base ai quali il valore di un prodotto o servizio aumenta in base al numero degli utenti che lo utilizzano. Una delle loro principali fonti di entrata è costituita da messaggi pubblicitari sempre più mirati a raggiungere quel consumatore che potrebbe essere maggiormente interessato ad uno specifico prodotto. Tutto ciò è possibile se il consumatore/utente rivela informazioni sui propri gusti e sulle proprie preferenze, e questo vale soprattutto nel caso delle piattaforme di social media (o social network) quali Facebook e Twitter. I social sono di conseguenza sempre più incentivati a intercettare un numero crescente di utenti da coinvolgere per il maggior numero di tempo possibile. In questo modo possono aumentare il clickthrough rate, cioè il numero dei click generati da un annuncio in rapporto al numero delle volte che l’annuncio viene visto.

Come le piattaforme competono per catturare l’attenzione dei consumatori

Quali sono le conseguenze in termini di qualità del servizio reso agli utenti? In un recente articolo intitolato “Addictive Platforms”, Shota Ichihashi e Byung-Cheol Kim analizzano come le piattaforme competono per catturare l’attenzione dei consumatori, un’idea già presente nei lavori di Tim Wu (“The Attention Merchants”) e di Andrea Prat con Tommaso Valletti (“Attention Oligopolies”). Partendo dal presupposto che l’attenzione dell’utente sia limitata, la piattaforma tende a privilegiare quelle informazioni che hanno una più elevata probabilità di diventare virali, sacrificando il resto (tra cui anche la qualità dell’informazione stessa). L’analisi di Ichihashi e Kim fornisce la conferma che viene proposto non tanto il contenuto più appropriato quanto quello che riesce maggiormente a catturare l’attenzione dell’utente. I due economisti, inoltre, deducono che un aumento del grado di concorrenzialità potrebbe esacerbare il problema, poiché le piattaforme cercherebbero di coinvolgere i consumatori con contenuti di qualità ancora più bassa ma in grado di creare dipendenza.

L’analisi di Ichihashi e Kim suggerisce che l’imposizione di limiti all’utilizzo della piattaforma potrebbe contribuire a ridurne la dipendenza, aumentando il benessere complessivo degli utenti. Laura Abrardi, Carlo Combini e Steffen Hoerning hanno analizzato il caso di piattaforme che decidono di autoregolamentarsi.[1] Facebook e Instagram, per esempio, hanno una funzione che consente di limitarne l’utilizzo. Allo stesso modo, l’opzione Screen Time presente nell’iPhone permette di impostare un limite temporale per l’utilizzo di alcune applicazioni. Questi esempi sembrano testimoniare l’impegno delle piattaforme ad assumersi maggiori responsabilità nei confronti della comunità di utenti, in un’ottica di autoregolamentazione. Tuttavia, come notano gli autori, questi limiti volontari potrebbero indurre gli utenti stessi ad abbassare il livello di guardia in termini di privacy, fornendo il consenso all’uso dei dati con maggiore disinvoltura.

Dipendenza dalle piattaforme, l’autoregolamentazione non basta

Un altro influente studio è quello di Neils Rosenquist, Fiona Scott Morton e Samuel Weinstein, intitolato “Additive Technology and its Implications for Antitrust Enforcement”. Gli autori ritengono l’autoregolamentazione sostanzialmente insufficiente per risolvere il problema della dipendenza da piattaforma. Per convincerci del loro punto, evidenziano come molti neuroscienziati abbiano dimostrato che i percorsi neurali associati allo sviluppo di dipendenza da sostanze quali il fumo o le droghe sono simili a quelli associati allo sviluppo di dipendenze comportamentali quali la ludopatia e l’utilizzo dei social media. Il riconoscimento della “dipendenza da social media” è particolarmente importante. Le piattaforme social ottimizzano infatti gli stimoli che derivano da un crescente livello di coinvolgimento dell’utente, il cui comportamento nell’utilizzo dei social in cerca di “like” può essere equiparato a quello che contraddistingue altre forme di dipendenza. Secondo gli autori diventa quindi necessario applicare anche ai social media una regolamentazione simile a quella vigente in settori in cui è forte il rischio di dipendenza, quali sigarette e gioco d’azzardo.

Come intervenire

Date queste premesse, una domanda ricorrente è come bisogna intervenire. Un principio importante riguarda la responsabilità delle piattaforme in merito al contenuto di ciò che viene diffuso. Negli Stati Uniti le piattaforme, diversamente dagli editori, sono protette dalla sezione 230 del Communications and Decency Act, che garantisce immunità alle piattaforme che forniscono servizi di intermediazione. Tale immunità, tuttavia, ha molte limitazioni, spesso dibattute negli ultimi anni. Un esempio è il caso Lemmon vs. Snap (quest’ultima è la società madre di Snapchat) che riguarda uno schianto mortale che nel 2017 è costato la vita ad un ventenne e due adolescenti.[2] All’epoca dei fatti i genitori delle vittime avevano fatto causa a Snapchat in quanto responsabile di aver introdotto un filtro velocità che era utilizzato dal conducente al momento dell’incidente. Tale filtro, unito ad un sistema di ricompense se si raggiungono velocità elevate, avrebbe indotto alla guida spericolata. Il caso era stato archiviato ma è stato riaperto di recente in virtù della sentenza di una corte d’appello.

Anche nell’Unione Europea le piattaforme beneficiano di alcune forme di immunità, ma in forma più ridotta rispetto agli Stati Uniti. In base alla direttiva 2000/31/CE sull’eCommerce, le piattaforme non sono ritenute responsabili solo se hanno un ruolo sostanzialmente passivo e se non sono a conoscenza di ciò che viene diffuso sui propri siti web. La recente proposta del Digital Services Act (DSA), che modifica la precedente direttiva, mantiene il principio di non responsabilità del contenuto diffuso da terze parti, ma introduce maggiori obblighi per quelle piattaforme che rivestono un ruolo cruciale nell’intermediazione digitale e nella diffusione di contenuti online. Il DSA ha inoltre lo scopo di incrementare il livello di trasparenza delle regole di moderazione dei contenuti (inclusi quelli pubblicitari) e dei processi algoritmici a cui sono sottoposti i dati.

Digital strategy Ue, diritti dei consumatori in primo piano: le sinergie tra DMA e DSA

Responsabilità delle piattaforme, quali conseguenze

È importante ribadire che la responsabilità riguarda sia il contenuto che viene diffuso online (fake news, video o post discriminatori, ecc.) che il prodotto che viene venduto attraverso la piattaforma (merci contraffatte, prodotti nocivi per la salute, ecc.). Quest’ultimo rappresenta un grande problema per i proprietari di marchi, come riconosciuto anche di recente dall’OCSE.[3] Tuttavia, l’introduzione del principio di responsabilità della piattaforma non è neutrale, dato che potrebbe modificare gli incentivi della piattaforma stessa, aprendo le porte a conseguenze inattese.[4] Le piattaforme potrebbero per esempio reagire ad una maggiore responsabilità legale per la presenza di prodotti contraffatti scaricando sui venditori di terze parti i costi dell’attività di monitoraggio, incrementando di conseguenza le commissioni pagate per i servizi di intermediazione. Altre piattaforme potrebbero invece adottare strategie volte all’acquisizione di un maggiore ruolo nel mercato, per esempio attraverso la vendita diretta di prodotti e servizi, con i conseguenti rischi associati ad essere simultaneamente piattaforma e venditore.[5]

Alcuni paesi dell’Unione europea hanno deciso di adottare ulteriori provvedimenti. La Francia ha anticipato il DSA approvando nel maggio 2020 una legge finalizzata a lottare contro i contenuti di odio su Internet (“Lutte contre la haine sur Internet”).[6] In base a tale legge, i social media che operano in Francia sarebbero stati obbligati a rimuovere entro 24 ore dalla notifica i contenuti ritenuti manifestamente illeciti. Un limite che, tuttavia, è stato identificato come incostituzionale dalla Corte costituzionale francese e che, quindi, ha portato ad un depotenziamento della legge.

In Italia, nel gennaio del 2021 il Garante della protezione dei dati personali ha deciso di bloccare TikTok per quegli utenti per i quali l’app non riesca ad accertare l’età anagrafica. La decisione è arrivata in seguito alla morte di una bambina di dieci anni di Palermo che sembrerebbe legata ad una sfida vista sulla piattaforma che consisteva nel praticare una forma di auto soffocamento.

Conclusioni

In conclusione, sono ormai diversi gli episodi che si possono citare nei quali viene richiesta una maggiore responsabilità riguardo al contenuto che viene diffuso sui social media, sia in forma diretta che indiretta. Le grandi piattaforme social investono continuamente nel miglioramento dei propri contenuti e nel “news feed design” al fine di aumentare i profitti. Ci sono quindi sempre meno giustificazioni alla mancanza di controllo di ciò che viene diffuso sui social o offerto in rete. Limitare i contenuti potrebbe tuttavia risultare molto complicato, portando a errori, effetti indesiderati, e possibili censure in palese violazione della libertà di espressione degli individui.

*L’articolo è, in parte, tratto da un contributo scritto per Economics Observatory.

Bibliografia

Abrardi, L., Cambini, C. and S. Hoernig (2021), I don’t care about cookies! Platform Data Disclosure and Time-Inconsistent Users, Available at SSRN: https://ssrn.com/abstract=3806112.

Ichihashi, S. and B.-C. Kim (2021), Addictive Platforms, Available at https://shota2.github.io/research/addiction.pdf.

Lefouili, Y. and L. Madio (2021), The Economics of Platform Liability. CESifo Working Paper No. 8919, Available at SSRN: https://ssrn.com/abstract=3798940.

Prat, A. and Tommaso Valletti (2021), Attention oligopolies. Available at SSRN: https://ssrn.com/abstract=3197930.

Rosenquist, N. J., Scott Morton, F. M. and S. Weinstein (2021), Additive Technology and its Implications for Antitrust Enforcement. Available at SSRN: https://ssrn.com/abstract=3787822.

Wu, T., (2016), The attention merchants: the epic scramble to get inside our heads, New York: Alfred A. Knopf Publisher.

  1. Il lavoro è intitolato “I don’t care about cookies! Platform Data Disclosure and Time-Inconsistent Users”.
  2. Si veda a proposito il link: https://cdn.ca9.uscourts.gov/datastore/opinions/2021/05/04/20-55295.pdf
  3. https://www.oecd.org/newsroom/trade-in-fake-goods-is-now-33-of-world-trade-and-rising.htm.
  4. In un recente contributo, intitolato “The Economics of Platform Liability”, Yassine Lefouili e Leonardo Madio analizzano l’impatto economico dell’introduzione di un regime di maggiore responsabilità per le piattaforme, prendendo in esame costi e benefici di tali misure.
  5. La Commissione Europea ha di recente aperto un’indagine nei confronti di Amazon per comprendere se l’azienda di Seattle stia abusando del duplice ruolo di fornitore di servizi di marketplace e rivenditore sullo stesso mercato.
  6. https://www.assemblee-nationale.fr/dyn/15/dossiers/lutte_contre_haine_internet.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati