La recente Tavola Rotonda organizzata dall’Autorità sulla data economy[1] – che ha visto la partecipazione di prestigiosi ospiti sia dalla Capitale, sia da altre parti dell’Italia o dell’Europa – offre lo spunto per una breve riflessione su alcune questioni che i Big Data portano alla nostra attenzione.
Partiamo dalla definizione di Big Data, ossia da un insieme di informazioni che presentano caratteristiche di voluminosità, velocità, varietà[2]. È importante sottolineare come sia necessario, per impostare una riflessione adeguata sui Big Data, la contemporaneità dei tre elementi: senza voluminosità (ossia con valori dell’ordine degli zettabyte), dobbiamo parlare più correttamente di data warehouse; senza velocità non possiamo avere analisi in tempo reale; senza varietà siamo in presenza di un semplice database strutturato.
Ma altre due caratteristiche stanno assumendo rilievo nella definizione dei Big Data, cioè la veridicità e il loro valore. Quanta alla prima, non deve essere mai data per scontata, soprattutto in periodi come questi caratterizzati dall’imperversare in Rete di fake news. Ormai si può ricomprendere, all’interno della data economy, la fake data economy. Grazie alle notizie fasulle e faziose si è creato un vero e proprio business: l’inserzionismo online consente infatti di monetizzare le visite ai siti che di mestiere producono fake news. Giova ricordare che, su tale tema, l’Autorità ha recentemente istituito un Tavolo Tecnico con i principali stakeholders del mercato – tra tutti, Google e Facebook – al fine di adottare codici di autoregolamentazione condivisi.
Per quanto riguarda invece il valore, dobbiamo osservare come il pregio dei Big Data risieda non tanto nei dati di per sé, ma negli strumenti di analisi. Ogni giorno vengono prodotti trilioni di dati, generati – in maniera più o meno consapevole – da utenti o prodotti automaticamente da device. Pertanto, a differenza di quanto accadeva fino a pochi anni fa, quando ottenere dati affidabili costava molto tempo e somme ingenti, la raccolta oggi non appare di certo problematica. Viceversa, metodi di elaborazione – i cosiddetti analytics – veramente efficaci rappresentano ancora un fattore competitivo, e sono considerati un elemento centrale della data economy, o – per meglio dire – della algorithm economy. L’importanza di questi nuovi strumenti di indagine è particolarmente evidente nelle scienze sociali; oggi infatti diventa possibile studiare le interazioni sociali limitandosi semplicemente ad analizzare le tracce che ciascuno di noi lascia durante la propria navigazione, senza dover intervistare dei soggetti: abbiamo la possibilità di studiare le relazioni umane quasi dallo spioncino di una porta. I nostri comportamenti in Rete (quando ad esempio interroghiamo un motore di ricerca) sono infatti del tutto spontanei, e dunque tanto più preziosi. Su questo aspetto, Christian Rudder (il fondatore di OkCupid) ha affermato nel suo libro[3] – recentemente entrato nella lista dei bestseller del New York Times – che “stiamo arrivando al punto in cui è possibile raccogliere informazioni comportamentali senza ricorrere a campioni umani”. Fermo restando che si tratta di un incremento – potenzialmente straordinario – della possibilità di conoscere non solo le relazioni interpersonali, ma anche i bisogni e le aspettative sottostanti, vale la pena ricordare che si determinerà rapidamente una forma di stress sui sistemi tradizionali di ricerca e di investigazione sociale sugli individui, con la differenza che i metodi tradizionali si erano faticosamente dotati di protocolli e sistemi di garanzia, in qualche misura volti alla protezione dei dati personali, valorizzati essenzialmente nel loro effetto moltiplicatore.
Un drammatico problema che si apre, dunque, è far sì che i Big Data siano gradualmente accompagnati da una riflessione, etica e deontologica, sui limiti di una logica di sfruttamento seriale delle scelte individuali di interazione e sulle conseguenze di questo sfruttamento: nelle scienze sociali non bisogna fermarsi alle risposte (quella che alcuni chiamano “la spuma effimera delle interazioni individuali”), ma ai significati che il ricercatore rintraccia nella loro serialità. In una battuta, non dobbiamo confondere il profilo di un uomo con il suo “profilo” sui social.
Queste brevi considerazioni si riflettono in numerose attività condotte in Italia: infatti, negli ultimi anni, le istituzioni hanno dedicato ai dati un’attenzione sempre maggiore. Come evidenziato in un recente saggio[4], grazie alle riforme degli ultimi mesi, l’Italia è entrata nel gruppo di testa degli Stati europei in materia di Open Data. E anche l’Autorità ha contribuito all’analisi di questi fenomeni con diversi lavori, focalizzati sulle implicazioni di policy dei Big Data. A tal proposito, si possono citare le indagini conoscitive condotte, da quella sui modelli di business dell’ecosistema digitale (delibera n. 676/10/CONS) a quella sui servizi M2M (delibera n. 708/13/CONS), fino alla più recente iniziativa sui Big Data, che vede coinvolte anche l’Antitrust e l’Autorità della privacy (delibera n. 217/17/CONS).
La riflessione su Big Data e Open Data rimane comunque ancora problematica[5], anche per chi è stato da sempre un promotore di un Internet aperta e accessibile a tutti. Basti citare una lucida e paradossale espressione di Jimmy Wales, il fondatore di quel grande “raccoglitore di dati” che è appunto Wikipedia, nata 17 anni fa con l’obiettivo di realizzare le teorie dell’economista e sociologo austriaco von Hayek, che ipotizzava appunto l’esistenza di un corpus di conoscenze frammentato tra gli individui: “Wikipedia non ha scopo di lucro: tra tutte le cose che ho mai fatto, è stata la più intelligente o la più stupida”.