In uno scenario nel quale lo sviluppo tecnologico e la trasformazione digitale basata sui big data generano nuove concentrazioni di potere, intese non solo come potere di mercato, ma più in generale come potere economico tout court, interessando i diritti fondamentali, i profili concorrenziali, il pluralismo e la stessa tenuta dei sistemi democratici, ecco un quadro delle criticità e delle nuove prospettive insite in una economia digitale fondata sulla raccolta e analisi di una mole sempre più ingente di dati.
L’approccio congiunto Antitrust-Agcom-Privacy ai big data
Il 10 febbraio scorso è stato pubblicato, dopo 3 anni di studio, il rapporto finale dell’indagine conoscitiva sui big data, condotta congiuntamente dall’AGCM, AGCOM e dal Garante per la protezione dei dati personali.
Il documento si prefissa lo scopo di comprendere le implicazioni – per la privacy, la regolazione, la tutela della concorrenza e del consumatore – dello sviluppo di un’economia digitale basata sulla raccolta e sull’analisi dei dati.
La decisione di privilegiare un approfondimento interdisciplinare e di svolgere un’indagine conoscitiva congiunta origina dalla consapevolezza che le caratteristiche dell’economia digitale sono tali per cui gli obiettivi propri delle tre Autorità tendono quasi inevitabilmente ad intrecciarsi. Questo approccio sembra suggerire un cambio di rotta necessario nelle strategie di controllo: non più settoriali e compartimentate, ma volte a regolamentare in modo organico e orizzontale i nuovi mercati dell’economia digitale.
“Le trasformazioni determinate dalla tecnologia possono essere comprese, e governate, solo se si è capaci di mettere a punto strumenti prospettici, e se questo avviene ridefinendo i principi fondativi delle libertà individuali e collettive.”[1]
Cosa sono i big data
Il termine big data è stato elaborato per descrivere le operazioni di immagazzinamento, gestione e analisi di grandi quantità di dati.
I dati, al giorno d’oggi, vengono raccolti in quantità impressionanti e provengono da una straordinaria varietà di fonti quali internet, i social media, i cellulari, le applicazioni multimediali, gli archivi commerciali, le statistiche, gli strumenti di geolocalizzazione ed i pagamenti online [2].
Non esiste una definizione rigorosa del fenomeno;’ tuttavia nello studio di Douglas Laney[3], il modello di crescita dei big data è definito come tridimensionale o modello delle “3V” facendo riferimento al volume, alla velocità e alla varietà dei dati. Secondo questa analisi:
- Volume: si riferisce alla quantità di dati, strutturati o non, che sono generati da sorgenti eterogenee;
- Varietà: si riferisce alla differente tipologia di dati che vengono generati, collezionati ed utilizzati;
- Velocità: si riferisce alla celerità con cui i nuovi dati vengono generati.
La teoria originariamente prospettata è tuttora valida, nonostante siano state introdotte ulteriori caratteristiche che hanno esteso il modello di Laney dalle “3V”, alle “4V”, alle “5V”, fino ad arrivare, nel 2017, alle “42V’s” of big data[4]. Le ulteriori due caratteristiche rilevanti consistono nella:
- Veridicità: si riferisce al grado di affidabilità dei dati su cui si basano le analisi, in modo da garantirne precisione e sicurezza;
- Valore: si riferisce alla valutazione e all’analisi dei dati al fine di intraprendere investimenti e collocare le risorse.
In conclusione, le varie dimensioni dei big data confermano che ci si trova di fronte a un fenomeno estremamente complesso e caratterizzato da una dinamica evolutiva molto rapida; ciascuna delle caratteristiche individuate implica precise sfide da affrontare, a cui sono associati rischi e opportunità, per le imprese, i cittadini, e la società nel suo complesso[5].
I modelli di analisi dei big data
Una massa informe di dati in sé non ha un grande valore per imprese e aziende, ma lo assume quando viene canalizzata attraverso algoritmi di tipo predittivo, elaborazioni e interconnessioni, arrivando ad analizzare e prevedere interessi e consumi dei singoli tramite tecniche di profilazione e generando quindi nuovi dati, diversi da quelli forniti inizialmente dall’interessato (inferred data).
Nascono così nuovi modelli utilizzati per l’analisi e la gestione dei dati, che è possibile distinguere quattro tipologie:
- Descriptive Analytics: costituisce il metodo per descrivere i processi aziendali o le aree funzionali, utilizzando i dati in maniera interattiva ed al fine di rappresentare la realtà di determinate situazioni o livelli di performance aziendali;
- Predictive Analytics: costituisce il metodo, basato su tecniche matematiche o modelli predittivi, che permette di effettuare l’analisi dei dati finalizzata allo sviluppo di scenari futuri;
- Prescriptive Analytics: costituisce il metodo attraverso cui si prospettano soluzioni operative e strategiche sulla base dell’analisi dei dati svolta;
- Automated Analytics: costituisce il metodo per applicare in modo automatizzato delle azioni definite da regole derivanti dal processo di analisi dei dati.
In particolare, due fattori connessi allo sviluppo della rete web hanno inciso sull’evoluzione del sistema di analisi dei big data.
Il primo fattore è relativo alla trasformazione della rete libera (Web 1) nella rete sociale (Web 2). La nascita dei social network ha infatti rivoluzionato l’idea della rete, rendendola accessibile su larga scala e opacizzando la linea di demarcazione tra comunicazione e diffusione. Il secondo fattore è invece connesso alla diffusione del cosiddetto Internet delle Cose (IOT) ovvero quel sistema di comunicazione integrata attraverso il quale gli oggetti interagiscono con l’ambiente esterno.
Nell’epoca dei big data e dell’IOT infatti mutano radicalmente anche le relazioni sociali, che per far fronte a situazioni dinamiche e complesse, sono diventate sempre più interconnesse tra loro, mettendo a repentaglio la tutela della privacy dei singoli interessati.
La duplice valenza dei big data
Fra i settori che hanno beneficiato maggiormente dell’utilizzo dei big data rientra sicuramento quello sanitario e quello della prevenzione a livello internazionale della violazione dei diritti umani.
Un progetto innovativo nell’ambito sanitario è stato il Pulse Lab Kampala realizzato in Africa, primo innovation lab che utilizza l’analisi dei dati per combattere i focolai di malattie in Uganda.
Grazie a uno strumento che analizza i dati raccolti centralmente dal Ministero della Salute ugandese si studiano e analizzano i fattori di rischio come le precipitazioni, la densità di popolazione o la mobilità della stessa. Tracciando l’aumento delle infezioni in diverse aree del paese in tempo quasi reale, tale strumento può consentire risposte più rapide e più coordinate per contrastare il pericolo di nuovi focolai.
Nell’ambito dell’azione per contrastare e prevenire la violazione dei diritti umani e la schiavitù invece, il progetto no profit Polaris ha visto una stretta collaborazione con la società Palantir Technologies per sfruttare l’analisi dei dati al fine di identificare e monitorare complesse catene di approvvigionamento globali che risultano essere collegate a tratte di esseri umani.
Caso significativo relativo invece all’applicazione negativa o distorta dell’analisi dei big data è invece rappresentato da Google Flu Trends, un modello di previsione dei sintomi influenzali basato sull’analisi delle domande digitate sul motore di ricerca; attraverso l’algoritmo GFT, è stato possibile realizzare una panoramica delle patologie influenzali e ricavarne la loro diffusione geografica.
L’obiettivo di Google era la previsione di dati in linea con quelli ottenuti dai Centers for Disease Control and Prevention (CDC), ente statunitense deputato al monitoraggio e alla prevenzione delle malattie infettive.
Il risultato ottenuto ha in realtà sovrastimato la diffusione dell’influenza, tanto da registrare in alcuni periodi il doppio dei risultati ottenuti dai CDC.
Gli errori dell’algoritmo hanno messo in luce che dall’uso indiscriminato dei big data può derivare un’elusione dei modelli causali ad esclusivo vantaggio delle esigenze commerciali. In altre parole, i ricercatori sostengono che Google avrebbe indotto un incremento dell’uso di determinate parole chiave per creare fenomeni di allarme e quindi accrescere le vendite delle case farmaceutiche.
Alla luce di queste considerazioni si evince come i big data si fondino su correlazioni e il loro valore e grado di attendibilità è prodotto non tanto dall’ammontare dei dati in sé quanto dalla raffinatezza delle tecniche estrattive e dalle successive analisi ed elaborazioni svolte.
L’indagine conoscitiva sui big data
Proprio lo sfruttamento e l’elaborazione dei big data è al centro dell’indagine conoscitiva svolta dall’AGCM, AGCOM e Garante per la protezione dei dati personali e pubblicata il 10 Febbraio 2020, a seguito di uno studio iniziato nel 2017.
Nel quadro delineato si evidenziano le criticità e le nuove sfide dell’economia digitale: la centralità del dato, anche come bene economico, e l’importanza contestuale della sua tutela come diritto fondamentale della persona; l’impatto della profilazione algoritmica e delle piattaforme online sul grado di concorrenza in vecchi e nuovi mercati; l’effetto del programmatic advertising sulla qualità dell’informazione e sulle modalità di diffusione e acquisizione della stessa; la tutela e la promozione del pluralismo online in un contesto informativo esposto a strategie di disinformazione ed hate speech; la necessità di garantire trasparenza e scelte effettive del consumatore; la protezione del dato personale anche in ambiti non attualmente coperti dal GDPR; la definizione di politiche di educazione in relazione all’uso del dato.
L’impatto dei Big data sulla concorrenza
La disponibilità in capo ai grandi operatori digitali di enormi volumi e varietà di dati e della capacità di analizzarli ed elaborarli ha dato luogo ad inedite forme di sfruttamento economico del dato e alla sua valorizzazione per diverse finalità, in grado di integrare potenziali illeciti antitrust e alterare i profili concorrenziali a discapito dei consumatori finali.
Vengono infatti messi in luce alcuni aspetti critici come l’impiego degli algoritmi di prezzo potenzialmente prodromici all’instaurazione di cartelli o equilibri collusivi: attraverso degli algoritmi di pricing (una procedura automatizzata usata per determinare i prezzi di vendita ottimali di prodotti/servizi sulla base delle condizioni del mercato e adeguarli in “tempo reale” alle variazioni di queste ultime) è infatti possibile acquisire i prezzi applicati dalle imprese concorrenti tramite sistemi di monitoraggio di larga scale e sulla base di questi ricalcolare e aggiornare costantemente i prezzi.
Big data e condotte unilaterali
Un ulteriore aspetto potenzialmente critico è la propensione dei big data a costituire barriere all’entrata, ad esempio nei mercati a due versanti, ove la combinazione tra utilizzo di big data ed effetti di rete può consentire ai primi operatori che entrano sul mercato (cosiddetti first movers) di beneficiare di un significativo vantaggio competitivo rispetto ai potenziali nuovi entranti, che difficilmente riusciranno ad acquisire la quantità e la tipologia di dati necessari per fornire un adeguato servizio ai proprio clienti, creando delle barriere all’entrata. Per valutare se in concreto tale fattispecie possa verificarsi occorre tenere in considerazione:
- la rilevanza dei big data per la fornitura del bene/servizio alla luce di tutte le caratteristiche del mercato in questione;
- la natura, la qualità e la quantità di dati necessari per poter competere efficacemente;
- la numerosità/varietà di fonti (sia online che offline) utilizzabili per generare la conoscenza rilevante per offrire i servizi in questione in maniera competitiva.
Ancora i big data possono scaturire in un rifiuto a contrarre essential facility ai sensi dell’art. 102 TFUE con effetti idonei a ridurre la concorrenza in mercati complementari.
A tal fine almeno tre aspetti specifici appaiono potenzialmente rilevanti:
- la natura personale o meno dei dati oggetto della richiesta di accesso;
- se i dati in questione siano stati:
- volontariamente forniti dal soggetto a cui si riferiscono
- rilevati dall’operatore dominante
- ricavati tramite attività di analisi dei dati svolte dall’operatore in questione (analytics)
- il grado di aggregazione dei dati oggetto della richiesta di accesso potendo distinguere, dunque, tra dati a livello individuale, aggregati o bundled.
In ogni caso, anche in assenza della configurazione di una essential facility ai sensi della disciplina antitrust, eventuali necessità di accedere e condividere determinate categorie di dati possono essere legittime per finalità̀ diverse da quelle concorrenziali, ad esempio per garantire la salute pubblica. Si tratta di ipotesi che dovrebbero essere limitate, però, ai soli casi in cui ciò̀ sia strettamente necessario e proporzionato rispetto a rilevanti interessi pubblici perseguiti.
I big data, inoltre, possono consentire alle imprese di ottenere una conoscenza altamente dettagliata dei singoli consumatori, ossia dei loro bisogni e delle loro preferenze.
Tale conoscenza può essere utilizzata dalle imprese per mettere in atto pratiche di price discrimination, tali da consentire una differenziazione per singolo utente del prezzo di beni e servizi.
Un’attività di profilazione puntuale e così pervasiva dell’utente, portata ai suoi estremi, può agevolare condotte abusive idonee a ridurre la contendibilità degli ecosistemi delle principali piattaforme, rendendo persistente il loro potere di mercato. In particolare, in ragione della natura multisettoriale dell’economia digitale e alla luce di tali considerazioni, la stessa definizione di mercato rilevante ai fini dell’accertamento del potere di mercato potrebbe essere ripensata, tenendo in debita considerazione anche altri elementi: non solo i tradizionali parametri legati a prezzi e quantità, ma anche quelli inerenti alla qualità, al grado di innovazione e all’equità.
Possibili abusi di posizione dominante possono inoltre avere luogo quando un’impresa in posizione dominante utilizza i dati raccolti in un mercato per estendere indebitamente il proprio potere di mercato attraverso condotte anti-competitive, quali, ad esempio, le vendite abbinate.
Si tratta di ipotesi che impongono un’attenta analisi ai fini di distinguere quelle condotte che possono in realtà avere un effetto pro-competitivo da quelle effettivamente idonee ad avere un effetto escludente e pregiudizievole per la concorrenza e i consumatori.
Il pluralismo informativo
L’indagine affronta anche tematiche connesse alla disinformazione online e alle strategie di microtargeting politico: la profilazione dell’utente infatti è solitamente funzionale ad una proposizione selettiva di contenuti collegati alla propria “storia” di attività online. In questo contesto hanno origine fenomeni noti come filter bubble e self-confirmation bias, caratterizzati da un meccanismo di causazione circolare per il quale l’utente con le proprie scelte rivela le informazioni che lo interessano e, a sua volta, la selezione delle informazioni operata dall’algoritmo influenza le scelte dell’utente, ri-proponendo circolarmente contenuti confermativi delle proprie opinioni, credenze o convinzioni. Questo fenomeno viene poi ulteriormente rafforzato se l’utente è immerso in una determinata realtà di selezione di contenuti e della conseguente costruzione di cluster omogenei di ‘amici’ che condividono la stessa visione relativa ad argomenti sociali, politici e di attualità. Ciò dà origine a fenomeni patologici quali il pensiero di gruppo (groupthink) e le “camere d’eco” che agiscono da fattore di polarizzazione, isolando gli ambienti di discussione e predisponendo terreno favorevole per strategie di microtargeting e campagne di disinformazione: quanto più, ad esempio, un messaggio sarà costruito sulla base delle preferenze e degli orientamenti dei destinatari, tanto più, diverrà facile acquisirne il consenso. Si è così sviluppato il cosiddetto marketing politico, ovvero una tecnica di comunicazione che, servendosi abilmente dei social network e delle nuove tecnologie, mira alla costruzione del consenso (o del dissenso verso gli avversari) per orientare i risultati delle campagne elettorali.
L’uso di questi strumenti, garantisce risultati politici maggiormente incisivi, poiché il politico si rivolge ad un’utenza di cui già conosce i gusti, e di cui può direzionare il consenso in linea con il proprio programma politico[6], e permette anche una notevole ottimizzazione in termini di risparmio dei costi, non essendo più necessario investire grandi somme di denaro per le operazioni di pubblicità e propaganda, che si attuano direttamente servendosi della pubblicità sulle piattaforme social.
Tale processo determina implicazioni in riferimento al rispetto dei diritti fondamentali, tra i quali il diritto alla vita privata, alla protezione dei dati e alla loro sicurezza, la libertà di espressione e di non discriminazione.
L’indagine evidenzia quindi l’importanza del pluralismo informativo per combattere l le strategie di microtargeting e la disinformazione online aventi ad oggetto tematiche ad impatto politico, culturale o commerciale con annesse ricadute sugli equilibri democratici dell’intera società.
Iniziative dell’AGCOM
In questo senso va a una lodevole iniziativa come quella dell’istituzione del Tavolo Tecnico per la garanzia del pluralismo e della correttezza dell’informazione sulle piattaforme digitali attraverso cui l’Agcom ha inteso perseguire l’obiettivo di promuovere l’autoregolamentazione delle piattaforme e lo scambio di buone prassi per l’individuazione e il contrasto dei fenomeni di disinformazione online frutto di strategie mirate. In particolare, lo scopo principale del Tavolo è favorire la condivisione di informazioni, il confronto e l’emersione di idonee metodologie di rilevazione, nonché l’individuazione degli strumenti di trasparenza, delle regole e tecniche di intervento più adeguate a garantire, specie nel corso delle campagne elettorali, parità di trattamento per tutti i soggetti politici presenti sulle piattaforme e correttezza e imparzialità dell’informazione per gli utenti.[7]
L’esperienza del Tavolo promosso dall’Autorità rappresenta un unicum nel panorama mondiale, quello italiano è il primo caso di coordinamento degli attori del sistema informativo promosso da un’Autorità indipendente che operi in funzione di facilitare il dialogo tra gli stakeholder.
Big data e disciplina della protezione dei dati personali: un connubio difficile
Le minacce provenienti dall’enorme flusso di dati costantemente in circolazione sono state in parte colte e regolamentate dal GDPR che, se da un lato ha l’indiscusso merito di aver innovato una disciplina, quella della protezione dei dati personali, datata da più di due decadi, dall’altro rischia di essere uno strumento normativo soggetto ad un invecchiamento precoce e del tutto inadeguato a fronteggiare le nuove sfide che i mercati digitali portano con sé.
Risulta evidente come il legislatore europeo, nonostante abbia dettato specifiche disposizioni, non abbia colto appieno i bisogni di una società ormai sempre più caratterizzata dall’analisi di grandi masse di dati, tant’è che risultano assenti gli strumenti per stimare e tenere in considerazione gli effetti etico-sociali dell’utilizzo così massiccio dei big data e dell’attività di profilazione in generale, rimandando piuttosto alla volontà del singolo interessato di rilasciare i propri dati al titolare del trattamento, al fine di delineare un profilo individuale.
Il quadro normativo delineato dal Regolamento UE n. 2016/679 non risulta così essere adeguato a far fronte ai rischi connessi all’utilizzo e allo sfruttamento così pervasivo dei big data e delle nuove tecnologie, poiché gli algoritmi utilizzati per svolgere l’attività di profilazione non sempre sono corretti e neutrali e di conseguenza potrebbero sorgere degli errori, e vi è il pericolo, inoltre, per i diretti interessati di essere oggetto di discriminazione da profilazione, anche su aspetti di rilevanza antitrust come il prezzo o il servizio erogato, in virtù del fatto che essi molte volte sono all’oscuro dell’esistenza del trattamento e delle relative modalità.
In definitiva le attività̀ legate all’utilizzo dei big data evidenziano chiari profili di contrasto con aspetti fondamentali della disciplina sulla protezione dei dati, quali i principi di liceità̀ e correttezza del trattamento, che rinviano ad una effettiva consapevolezza degli interessati circa le operazioni di trattamento dei propri dati personali e la corretta individuazione della base giuridica posta a fondamento di tali operazioni di trattamento, con riguardo al consenso effettivamente prestato dagli interessati.
Anche i principi di minimizzazione, limitazione delle finalità e di conservazione dei dati per il solo tempo indispensabile alla realizzazione del trattamento non si prestano alla raccolta massiva di dati, in particolare nelle ipotesi in cui tali dati siano acquisiti non per esigenze attuali ma in vista di future e ipotetiche necessità, e successivamente riutilizzati per fini ulteriori non sempre compatibili con quelli originari; vi è inoltre il rischio inoltre che sfumi anche la distinzione tra dati particolari (ex sensibili) e non, contravvenendo al regime di differenziazione in vigore.
I big data e le sfide del domani
L’indagine sui big data sembra voler fungere da “passaggio del testimone” alle Autorità in pectore che avranno una pista tracciata, anche grazie all’instaurazione di un coordinamento permanente tra le Autorità, sull’approccio per una corretta e prospettica regolamentazione dei mercati digitali.
Un’interazione congiunta a tutela del consumatore
L’indagine sottolinea infatti come “le sfide poste dallo sviluppo dell’economia digitale e dai big data richiedono uno sfruttamento pieno delle sinergie esistenti tra strumentazione ex ante ed ex post, a tutela della privacy, della concorrenza, del consumatore e del pluralismo.”
Pur restando distinte le attribuzioni e le finalità di ciascuna di esse, una strategia di interazione congiunta tra autorità̀ amministrative indipendenti potrebbe contribuire al superamento dei limiti connaturati e della visione dei mercati tradizionali, aprendosi alla regolamentazione di un’economia digitale in continua espansione ed evoluzione.
Da questo punto di vista, la materia della protezione dei dati personali si pone, per la trasversalità̀ che la caratterizza, come crocevia necessario rispetto a tutti gli ambiti regolatori interessati dal fenomeno big data.
Questo contesto appare come un terreno fertile per lo sviluppo di una prospettiva contestuale di protezione e valorizzazione del dato, mettendo al centro la figura dell’interessato/consumatore non più come spettatore neutrale, ma come primo “controllore” del proprio dato, ristabilendo l’asimmetria informativa con le piattaforme tecnologiche e prevedendo un regime di piena negoziabilità del proprio dato nonché modalità di opt-out chiare e intellegibili.
Il volano di questo cambiamento può configurarsi non solo tramite un quadro normativo e regolatorio che vada in questa direzione, assicurando lo sviluppo equilibrato dell’economia digitale nel rispetto dei diritti e delle libertà fondamentali di ognuno, ma anche, per il singolo individuo, grazie all’esercizio del nuovo diritto introdotto dal GDPR: il diritto alla portabilità dei dati.
Il diritto alla portabilità come strumento pro-concorrenziale
Il principio della portabilità dei dati è stato riconosciuto dal Regolamento generale sulla protezione dei dati: esso è formulato come diritto a ricevere i dati personali in un formato strutturato, di uso comune e leggibile da dispositivo automatico. Tali dati potranno quindi essere trasmessi ad un altro titolare del trattamento senza impedimenti, a condizione che il trattamento si basi su consenso e sia effettuato con mezzi automatizzati.
Agevolare la portabilità e la mobilità di dati tra diverse piattaforme, tramite l’adozione di standard aperti e interoperabili, anche oltre quanto già previsto dal diritto alla portabilità di cui all’art. 20 del GDPR, costituisce infatti un obiettivo con una forte valenza pro-concorrenziale. Così si ridurrebbero i costi di switching dell’utente, favorendo la mobilità degli stessi da una piattaforma all’altra e la circolazione dei dati, evitando che questi possano costituire barriere all’ingresso, con effetti negativi di lock-in.
Il monitoraggio delle piattaforme digitali e il cambio di approccio nel vaglio antitrust
La nuova sfida sotto il profilo antitrust che sembra quindi profilarsi deriva proprio dall’estrema difficoltà di fronteggiare il potere delle grandi piattaforme digitali nei mercati dove sono già presenti (motori di ricerca, social network, marketplace e pubblicità online) o nei mercati dove non sono ancora attivi ma in cui, grazie alla disponibilità̀ di big data e alla capacità di elaborarli, potrebbero agevolmente entrare e rapidamente “dominarli”, anche nel rispetto degli obblighi derivanti dalla disciplina in materia di protezione dei dati personali.
Sembra che la normativa antitrust debba, in virtù di queste considerazioni, seguire un approccio “più economico” che guardi al criterio dell’efficienza, prestando particolare attenzione alle condotte delle piattaforme digitali che possono potenzialmente determinare effetti restrittivi della concorrenza nei confronti di concorrenti altrettanto efficienti.
Anche a livello comunitario si stanno moltiplicando gli sforzi per rafforzare i presidi sulle piattaforme: ad esempio, il recente documento “A Union that strives for more: my Agenda for Europe” della Presidente della Commissione Ursula von der Leyen ha esplicitato proprio la volontà̀ politica del nuovo esecutivo europeo di aggiornare le regole sulla responsabilità e sicurezza delle piattaforme.
La tutela del pluralismo online e il ruolo delle statistiche
Appaiono infine necessarie, quantomeno con riferimento alle piattaforme digitali globali, misure volte ad incrementare la trasparenza dell’utente circa la natura della propria profilazione, lavorando sui meccanismi di opt-in e opt-out che permettano all’utente di conoscere e scegliere autonomamente il grado di esposizione selettiva ai contenuti determinati, e ciò anche al fine di tutelare il pluralismo online.
Bisognerebbe prevedere un sistema nel quale siano assicurate modalità adeguate a favorire l’accesso a prospettive diverse su temi di interesse pubblico, instaurando un vero e proprio “contraddittorio informativo”, senza che questo sfoci però in esiti paradossali, come la promozione di negazionismi ed estremismi.
Certo è che il futuro del pluralismo online dipende anche da ciascuno di noi. Dalla volontà e dalla capacità di distinguere, cercare, verificare.[8]
In tale contesto sembra necessario ribadire il ruolo centrale che le statistiche possono svolgere per la determinazione di una prospettiva il più possibile oggettiva: attraverso di esse, infatti, il cittadino potrebbe venire a conoscenza dei problemi del paese in cui vive, e quindi giudicare non solo le soluzioni adoperate ma anche l’efficacia delle politiche messe in campo[9].
La governance dell’economia del dato
I fenomeni posti in esame meritano un’attenzione particolare da parte di tutte le istituzioni, tenendo conto delle possibili implicazioni per i diritti fondamentali, i profili concorrenziali, il pluralismo e la stessa tenuta dei sistemi democratici.
Occorre, in definitiva, ripensare alla governance dell’economia del dato basata sull’utilizzo della tecnologia volta all’utilità sociale e alla promozione dei diritti dei singoli consumatori, e non all’affermazione di una struttura economica dominante o “alla concorrenza sleale e all’indebito condizionamento di scelte che, sul piano commerciale e soprattutto su quello politico, devono essere libere e autodeterminate”[10]
____________________________________________________________________
- Cit. S. RODOTÀ, Il mondo nella rete. Quali i diritti quali i vincoli. Laterza, Roma-Bari, 2014. ↑
- In tal senso C. FOCARELLI, La privacy: proteggere i dati personali oggi, ed. Il Mulino, 2015. ↑
- Lo studio 3D Data Management: Controlling Data Volume, Velocity and Variety è stato eseguito tra il 2001 e il 2002 ed è reperibile su: https://blogs.gartner.com/doug-laney/files/2012/01/ad949-3D-Data-Management-Controlling-Data-Volume-Velocity-and-Variety.pdf ↑
- T. SHAFER, “The 42 V’s of Big data and Data Science”, Elder Research – Data Science & Predictive Analytics, 2017, https://www.elderresearch.com/company/blog/42-v-of-big-data. ↑
- Interim report nell’ambito dell’indagine conoscitiva sui Big data di cui alla delibera n. 217/17/CONS dell’AGCOM, p. 12, reperibile su https://www.agcom.it/documents/10179/10875949/Studio-Ricerca+08-06-2018/c72b5230-354d-444f-9e3f-5467ca450714?version=1.0 ↑
- Sull’uso dei messaggi politici mirati Cfr. G. ZICCARDI, Tecnologie per il potere, come usare i social network, Raffaello Cortina Editore, 2019, cit. pag. 61, “al giorno d’oggi le elezioni si vincono con una presenza attiva e forte sugli smartphone degli elettori”. ↑
- Interim report nell’ambito dell’indagine conoscitiva sui Big data di cui alla delibera n. 217/17/CONS dell’AGCOM, p. 90, reperibile su: https://www.agcom.it/documents/10179/10875949/Studio-Ricerca+08-06-2018/c72b5230-354d-444f-9e3f-5467ca450714?version=1.0 ↑
- M.DELMASTRO, A. NICITA, Big data: come stano cambiando il nostro mondo, Il mulino, 2019, pag.138. ↑
- E. GIOVANNINI, Scegliere il futuro. Conoscenza e politica al tempo dei Big Data, Il Mulino, 2014, pag. 72. ↑
- A. SORO, Persone in rete, i dati tra poteri e diritti, Fazi Editore, Roma, 2018, p. 144. ↑