“È una piattaforma privata, può fare quello che vuole”. Con questa argomentazione si prova spesso a liquidare una conversazione su ban e cancellazioni eccellenti dalle piattaforme. È accaduto qualche anno fa con l’espulsione di Donald Trump da Twitter, sta capitando in questi mesi con le aggressive politiche adottate da Elon Musk sul social network.
Il problema è in crescita perché, a distanza di 15 anni dall’esplosione dei social media, i gestori delle piattaforme hanno iniziato ad assumere un atteggiamento più restrittivo nei confronti dei contenuti pubblicati dagli utenti. Il riferimento non è ai casi di palese violazione della normativa (come può essere l’offerta in vendita di un bene contraffatto o l’upload non autorizzato di materiale protetto dal diritto d’autore), per i quali le valutazioni sono in astratto più semplici, ma agli interventi delle piattaforme che si basano su valutazioni discrezionali.
È quindi legittimo chiedersi se un utente possa fare affidamento su una certa stabilità delle proprie attività digitali oppure se le singole piattaforme possano – più o meno liberamente – impedire l’adozione di determinate condotte, vietare la pubblicazione di contenuti, sospendere o eliminare gli account.
I rischi di un ban per influencer e creator
Se per la maggior parte degli utenti – che usano le piattaforme come consumatori per scopi personali – i rischi di eventuali forzature operate dai gestori dei social network possono ripercuotersi sulla sfera privata, per influencer e content creator – operatori commerciali del mondo digitale – i pericoli sono più marcati. La cancellazione di un post può generare l’inadempimento ad un contratto con un brand; la sospensione dell’account può comportare l’impossibilità di eseguire attività pianificate; la cancellazione del profilo implica la distruzione della propria base utenti e quindi del proprio posizionamento sul mercato.
Sebbene i gestori delle piattaforme dispongano di un potere significativo, i limiti esistono e sono già stati applicati nei tribunali italiani. Nei prossimi mesi, con l’entrata in vigore del Digital Services Act, i vincoli a carico delle piattaforme si intensificheranno e – parallelamente – le protezioni a favore degli utenti (commerciali e non) si rafforzeranno. Per poter comprendere i razionali ed il funzionamento di queste nuove tutele forme di tutela, è però necessario inquadrare la natura delle piattaforme e del loro rapporto con gli utenti.
Il ruolo e la natura delle piattaforme
L’attività svolta dalle piattaforme si colloca in una posizione mediana tra l’esercizio di vari diritti fondamentali. La posizione del gestore – così come quella degli utenti commerciali – è riconducibile alla libertà di impresa tutelata dall’art. 41 della Costituzione. Specularmente, quella dell’utente che crea e pubblica contenuti (per scopi personali o imprenditoriali) è riconducibile alla libertà di manifestazione del pensiero protetta dall’art. 21. Ma se i social network sono utilizzati per veicolare messaggi di natura politica, i diritti in gioco coinvolgono anche l’art. 18 (libertà di associazione) e l’art. 49 (pluralismo dei partiti).
Va da sé, quindi, che l’operatività delle piattaforme non potrà essere libera e insindacabile. Il coinvolgimento di diversi interessi costituzionalmente protetti implica la necessità di operare un bilanciamento tra i diritti per individuare il corretto punto di equilibrio tra la legittima aspettativa di un operatore economico di gestire la propria attività secondo la propria volontà imprenditoriale ed il diritto degli utenti a non vedere ristrette le proprie libertà fondamentali.
A livello giuridico, i gestori delle piattaforme assumono quasi sempre il ruolo di “hosting provider passivi”, ossia fornitori di un servizio di memorizzazione delle informazioni fornite dall’utente. Questo inquadramento comporta – da più di 20 anni – che al ricorrere di determinate condizioni la piattaforma possa essere chiamata a rispondere dei contenuti illeciti degli utenti laddove ne sia venuta a conoscenza, abbia potuto constatarne l’illiceità e abbia avuto modo di attivarsi. Ciò significa che il bilanciamento sopra richiamato deve provocare un atteggiamento non troppo lassista da parte delle piattaforme che, in certi casi, non solo possono ma devono intervenire nei confronti degli utenti.
Gli user generated content si collocano quindi in un’area grigia che pone i gestori delle piattaforme in una complessa situazione giuridica in cui ogni valutazione ha necessariamente una componente di discrezionalità. L’eccessiva rigidità, e dunque l’interventismo nei confronti degli utenti, potrebbe provocare la reazione degli utenti che lamentano una compressione della propria libertà di espressione; la scarsa propensione ad agire potrebbe provocare – oltre a danni di natura reputazionale connessi alla circolazione di contenuti poco consoni, se non illeciti – la reazione dei soggetti offesi dai contenuti non rimossi.
Il rapporto tra piattaforme e utenti
La soluzione del problema non è del tutto astratta perché il rapporto tra piattaforme e utenti è disciplinato da un contratto accettato al momento dell’iscrizione che – quasi sempre – contiene informazioni dettagliate sul comportamento che gli utenti devono tenere e sulle circostanze che legittimano gli interventi nei loro confronti. Inoltre, anche laddove l’utente non paghi un corrispettivo per l’uso della piattaforma (come è prassi per la maggior parte dei social network), il contratto assume comunque natura onerosa poiché i dati conferiti dagli utenti sono valorizzabili economicamente e costituiscono normativamente un corrispettivo per l’uso dei servizi digitali.
I contenuti del contratto tra piattaforma e utente non godono di libertà assoluta: “la qualificazione del rapporto in termini contrattuali […] non implica che la sua disciplina sia rimessa senza limiti alla contrattazione fra le parti ed al rapporto di forza fra le stesse né che l’esercizio dei poteri contrattuali sia insindacabile”[1]. I limiti esistono e sono di vario genere: da quelli riconducibili alle clausole generali dell’ordine pubblico, del buon costume, della buona fede e del divieto di abuso del diritto a quelli – di rango superiore – connessi a principi costituzionali. Ma questi vincoli derivano anche da norme speciali: per il contratto con l’utente consumatore si deve considerare il Codice del Consumo[2] che detta una nullità di protezione per le clausole che generino un significativo squilibrio nel rapporto con il professionista (la piattaforma); per il contratto con l’utente professionale (ad esempio, influencer e content creator) il Regolamento “Platform to Business”[3] prevede tutele e strumenti volti a garantire equità di trattamento.
In sintesi, le piattaforme possono – e in alcuni casi devono – intervenire sui contenuti caricati dagli utenti ma devono farlo nei limiti del contratto in essere con l’utente la cui validità sarà valutata nell’ambito di un complesso sistema di libertà costituzionali, principi generali del diritto, disposizioni ordinarie e norme speciali. Una rapida analisi delle interpretazioni di questa struttura fornite dai Tribunali italiani consente di comprendere meglio il reale di margine di manovra delle piattaforme e gli effetti innovativi che potranno sorgere dalle nuove norme europee.
I precedenti italiani: casi di natura politica
Il diritto di utilizzare le piattaforme social per esprimere opinioni di natura politica – e, dunque, lo speculare obbligo a carico delle piattaforme di non impedire l’esercizio di tale diritto – è stato affrontato in più di un’occasione quando la scelta delle piattaforme di oscurare contenuti, profili e pagine è stato contestato dai diretti interessati.
Nel 2019 CasaPound ed un suo dirigente hanno chiesto al Tribunale di Roma di ordinare a Facebook l’immediata riattivazione della pagina dell’associazione e del profilo personale del rappresentante, precedentemente rimosse per violazione degli Standard della Community. In quell’occasione, il Tribunale ha riconosciuto il “rilievo preminente assunto dal servizio di Facebook […] con riferimento all’attuazione di principi cardine essenziali dell’ordinamento come quello del pluralismo dei partiti politici, al punto che il soggetto che non è presente su Facebook è di fatto escluso (o fortemente limitato) dal dibattito politico italiano”[4]. In ragione della sua speciale posizione, nella contrattazione con gli utenti Facebook deve attenersi al rispetto dei principi costituzionali finché non si dimostri la loro violazione da parte dell’utente: ossia, secondo questa lettura, eventuali iniziative nei confronti degli utenti potrebbero essere adottate solo al termine del primo grado di giudizio. Poiché nel caso di specie gli episodi di odio contro le minoranze e violenza richiamate da Facebook a difesa del proprio intervento non erano stati posti in essere sulla pagina di CasaPound, il Tribunale ha ordinato l’immediata riattivazione della pagina ritenendo illecite le misure adottate da Facebook.
La decisione è stata confermata in sede di reclamo[5], nella quale il Tribunale ha espresso alcuni principi rilevanti in merito al rapporto tra piattaforma e utente. I principi di correttezza e buona fede consentono infatti al Giudice “di intervenire anche in senso modificativo o integrativo sul contenuto del contratto, qualora ciò sia necessario per garantire l’equo contemperamento degli interessi delle parti e prevenire o reprimere l’abuso del diritto […]. Si palesa così l’infondatezza di tutte le argomentazioni della reclamante riconducibili in ultima analisi all’affermazione che essendo il servizio Facebook da essa gestito ed organizzato le regole da essa dette sarebbero sottratte a qualsiasi controllo”. In sostanza, sono ammissibili le regole contrattuali che consentono alla piattaforma di intervenire nei confronti di condotte vietate, purché le stesse siano interpretate nel rispetto delle leggi statali e dei principi costituzionali che definiscono la libertà di associazione e di manifestazione del pensiero. Stante l’assenza di prova circa l’illiceità di specifici contenuti, Facebook non avrebbe dovuto eliminare la pagina di CasaPound – associazione politica attiva da anni nella scena italiana – poiché non si possono riconoscere ad un soggetto privato “poteri sostanzialmente incidenti sulla libertà di manifestazione del pensiero tali da eccedere i limiti che lo stesso legislatore si è dato nella norma penale”.
Principi analoghi – con esito opposto – sono stati richiamati nella decisione che ha visto nuovamente coinvolta Facebook[6] a seguito della rimozione dei profili degli amministratori di numerose pagine riconducibili a Forza Nuova, designata dalla piattaforma come “organizzazione che incita all’odio secondo gli standard della comunità”. In questo procedimento, il Tribunale ha valorizzato gli Standard della Community e la prova offerta da Facebook circa l’incompatibilità di Forza Nuova con tali regole: a seguito della multipla rimozione di singoli contenuti, la piattaforma ha provveduto alla cancellazione globale dei profili ritenuti non solo contrari alle condizioni contrattuali, ma anche illeciti in base a tutto il complesso sistema normativo che disciplina la materia. “Facebook non solo poteva risolvere il contratto grazie alle clausole contrattuali accettate al momento della sua conclusione, ma aveva il dovere legale di rimuovere i contenuti, una volta venutone a conoscenza”.
I precedenti italiani: la vita relazionale degli utenti
I casi esaminati dalle Corti italiane non si limitano alle controversie di natura politica.
Nel 2021, il Tribunale di Bologna ha affrontato il caso di un soggetto che a fronte della rimozione – senza motivazioni – del proprio account personale e di due pagine su collezionismo e storia militare, aveva chiesto il risarcimento del danno[7]. Il Tribunale ha prima ricordato che la rimozione di contenuti è prevista solo per le giuste cause indicate nelle condizioni d’uso, con obbligo per il gestore di informare l’utente delle ragioni della rimozione, per poi concludere che gli interventi adottati al di fuori di tale perimetro configurano un inadempimento contrattuale della piattaforma. All’inadempimento ha seguito il risarcimento del danno subito dal ricorrente che aveva descritto il proprio profilo ricco di contatti, interazioni, scambi di comunicazioni e documenti fotografici di particolare rilievo; questa lettura è stata accolta dal Tribunale secondo cui “Facebook non è solo una occasione ludica, di intrattenimento, ma anche un luogo, seppure virtuale, di proiezione della propria identità, di intessitura di rapporti personali, di espressione e comunicazione del proprio pensiero. L’esclusione dal social network, con la distruzione della rete di relazioni frutto di un lavoro di costruzione durato dieci anni è suscettibile di cagionare un danno grave, anche irreparabile, alla vita di relazione” quantificato in 10.000 euro per il profilo personale ed 2.000 euro per ciascuna delle pagine.
Pochi mesi dopo, la Corte d’Appello de L’Aquila ha adottato lo stesso orientamento[8] validando la clausola contrattuale che attribuisce alle piattaforme il potere di rimuovere i post e sospendere gli account in quanto volta a salvaguardare l’equilibrio tra la possibilità per l’utente di condividere contenuti e il pregiudizio che determinati contenuti possano arrecare alla sicurezza, al benessere o all’integrità della community. La valutazione di tale equilibrio – che può sfociare in provvedimenti di rimozione, sospensione o cancellazione – deve però essere condotta con rigidità e con riferimento ad ogni singolo episodio per evitare che sfoci in comportamenti violativi della libertà personale. La Corte ha quindi esaminato caso per caso i singoli contenuti rimossi da Facebook, ritenendo esorbitanti tre degli interventi effettuati dalla piattaforma e quantificandone il relativo danno da lesione delle relazioni interpersonali in 3.000 euro.
Da ultimo, più recentemente il Tribunale di Varese ha ritenuto corretto il comportamento del gestore di una piattaforma che aveva rimosso alcuni contenuti ritenuti palesemente antiscientifici (vaccini qualificati “iniezioni letali”) e pericolosi per la salute (con la proposizione di “fantasiose cure asseritamente miracolose”) nel contesto della pandemia da Covid-19[9]. Secondo il Giudice, l’utente non ha diritto in modo indiscriminato ad esprimere le proprie idee, atteso che tale diritto deve essere bilanciato con altri beni parimenti garantiti dalla Costituzione. Pertanto, la pubblicazione del video di un (pur legittimo) discorso parlamentare nel quale sono contenute affermazioni sui vaccini contrarie agli Standard della Community legittima – e impone – l’intervento della piattaforma a tutela degli utenti.
Le future prospettive con il Digital Services Act
Questa breve panoramica mostra gli sforzi dei Tribunali di individuare il corretto punto di equilibrio tra le esigenze delle piattaforme e quelle degli utenti. L’adozione del DSA (e del Digital Markets Act che ha struttura e razionali differenti) da parte dell’Unione Europea è volta, tra le altre cose, a garantire una maggiore efficacia di intervento e diminuire le disparità applicative. Le norme sono complesse e articolate, ma è possibile sintetizzare i passaggi che impatteranno maggiormente sul mercato dei content creator.
In primo luogo, viene rafforzato l’obbligo delle piattaforme di intervenire per contrastare i contenuti illegali – nonché di fornire informazioni adeguate – laddove un’autorità giudiziaria o amministrative emetta un ordine in tal senso.
Le condizioni generali delle piattaforme devono, poi, includere informazioni sulle restrizioni che possono essere imposte agli utenti, incluse quelle sulle politiche, le procedure, le misure e gli strumenti utilizzati per la moderazione dei contenuti nonché le regole procedurali del sistema interno di gestione dei reclami, con obbligo di pubblicare una relazione annuale sulle attività di moderazione svolte. Gli utenti devono quindi conoscere in anticipo le “regole del gioco” per potersi comportare di conseguenza.
Inoltre, al fine di evitare rimozioni ingiustificate, è previsto l’obbligo di fornire agli utenti una motivazione chiara e specifica per le restrizioni imposte a fronte dell’individuazione di contenuti illegali o incompatibili con le condizioni generali della piattaforma. Tali restrizioni includono la rimozione di contenuti, la retrocessione di contenuti, la sospensione totale o parziale del servizio e la sospensione o la chiusura dell’account dell’utente. A chiusura del sistema, le decisioni adottate dalla piattaforma devono poter essere contestate nell’ambito di un sistema interno di verifica dei reclami che sia gestito in modo gratuito, tempestivo, non discriminatorio, diligente e non arbitrario; viene infine potenziato il sistema di risoluzione extragiudiziale delle controversie per creare organismi specializzati e limitare il ricorso ai Tribunali ordinari.
Laddove le piattaforme individuino utenti che con frequenza forniscono contenuti manifestamente illegali, è previsto il diritto legale di applicare una sospensione per un periodo adeguato. Specularmente, possono essere sospesi gli utenti che presentino con frequenza segnalazioni o reclami manifestamente infondati. Si cerca quindi di mettere un freno alle (illecite) iniziative di segnalazione massiva dei profili, spesso immotivate, che spesso provocano la sospensione ingiustificata di un account.
Le conseguenze per le piattaforme che non adempiano al DSA sono significative. Sono previste sanzioni fino al 6% del fatturato annuo mondiale con possibilità di imporre penalità di mora fino al 5% del fatturato giornaliero mondiale. Inoltre, sebbene non fosse necessario precisarlo, gli utenti possono agire in giudizio per chiedere un risarcimento dei danni subiti.
Il mercato dei content creator dovrebbe quindi poter beneficiare delle regole del DSA che aspira a garantire una maggiore trasparenza, un migliore funzionamento delle piattaforme e un più marcato controllo sui comportamenti effettivamente illeciti degli utenti.
Note
[1] Trib. Roma, sez. spec. Impresa, 29.04.2020.
[2] D.Lgs. 206/2005.
[3] Regolamento (UE) 2019/1150.
[4] Trib. Roma, sez. spec. Impresa, 12.12.2019.
[5] Trib. Roma, sez. spec. Impresa, 29.04.2020.
[6] Trib. Roma, 23.02.2020.
[7] Trib. Bologna, sez. II, 10.03.2021.
[8] App. L’Aquila, 09.11.2021 n. 1659.
[9] Trib. Varese, sez. I, 27.07.2022.