Siamo tutti cresciuti nel culto del metodo sperimentale, affascinati dalla lettura illuministica della realtà naturale e sociale, alla ricerca del nesso causale tra i fenomeni. Abbiamo scacciato i miti e le credenze, rifuggiamo dalle narrazioni e dalle speculazioni personali frutto di osservazioni superficiali, guardiamo con orrore l’incompetenza prendere la parola su temi scientifici, complessi o tecnici, ridiamo dei complotti, delle pseudoscienze, degli scettici o degli imbonitori.
Quantum computing: dove siamo davvero al di là degli annunci
Data-driven è la parola d’ordine
Data-driven è la parola d’ordine: dalla informatica all’economia, dalla politica alla medicina… Fatti, dati, evidenze, test, verifiche (magari controfattuali), valutazioni (possibilmente indipendenti), metodo e trasparenza… solo così c’è progresso condiviso, solo così si crea conoscenza, solo così possiamo correggerci a mano a mano. Per affinamenti successivi o per evoluzione, come fa da sempre la natura: adattandosi all’ambiente che cambia, si cambia tutti.
Il sistema cognitivo umano è limitato (Mandrone, 2018), quindi per risolvere problemi complicati e prendere decisioni articolate, utilizza spesso processi euristici: cioè l’uso di semplici categorie per risolvere la complessità con approssimazioni successive. Il meccanismo è adeguato nella maggior parte dei casi, ma quando le questioni sono molto complesse, il decadimento del processo può portare rapidamente a grossolani errori di stima o a soluzioni facili (totem, stereotipi). Pertanto, spesso, ciò che è sconosciuto o diverso è chiamato complesso. La complessità è dunque relativa: varia in base alla accuratezza necessaria per l’analisi del fenomeno, alle risorse disponibili, alle sensibilità e conoscenze, ai vincoli di tempo e al fine che ci si è prefissati.
Osserva Bauman che nella società liquida l’individuo si è adattato all’ambiente, assumendo una forma più morbida, meno definita, assumendo una postura sociale duttile, fino a diventare fluida nel genere, nello status sociale, nella professione, nel ruolo economico, nelle scelte politiche.
Le tecnologie per guardare la realtà con delle nuove lenti
La tecnologia oggi offre soluzioni che non solo rendono più rapidi i calcoli complessi ma consentono nuove modalità di analisi: è come guardare la realtà con delle nuove lenti, che consentono di cogliere più dettagli, di vedere più lontano, in maniera più nitida. Si inizia a ragionare per simmetrie e permanenze, di auto-apprendimento e associazioni deboli, di non linearità e entanglement, ovvero si riesce a far luce su realtà articolate qualitativamente e quantitativamente senza una teoria di partenza, facendo a meno di ipotesi a priori o di vincoli irrealistici.
È come se stessimo disegnando la tavola degli elementi di Mendeleev o cercando il Bosone di Higgs. Il costrutto logico ci porta a ritenere che alcuni elementi esistano ma ancora non riusciamo a trovarli o misurarli. Il disvelare della conoscenza non ha una velocità uniforme e quindi non risolve in maniera lineare e progressiva tutte le questioni delle branche della scienza. Potremmo essere molto avanti sul versante dell’etica della medicina e molto indietro sulla morale sociale, essere molto progrediti nell’informatica ma ancora indietro nella semantica che produce, e così via. Tuttavia, si intravedono i futuri sviluppi, si comprende che quel tassello andrà riempito, che il senso del tutto si regge se si trova l’anello mancante.
Declinare le sfide per la prospettiva digitale
Le sfide tecniche, culturali, economiche, e sociali devono essere declinate per la nuova prospettiva digitale, ma l’universo digitale si sta espandendo quindi i parametri sono legati a un sistema di riferimento in evoluzione. Le implicazioni epistemologiche sono rilevanti: la misurazione di un sistema complesso è essa stessa parte del fenomeno.
Le stesse discipline sociali si sono ibridate, contaminate, arricchite: economia, diritto, informatica, psicologia, sociologia, statistica vengono utilizzate contemporaneamente per comprendere la complessità e aiutarsi vicendevolmente, mutuando metodi e approcci, per interpretare le parti mancanti o aliene alla disciplina. È, in un certo senso, la vendetta della cultura generale verso la super specializzazione: il valore della lettura d’insieme rispetto al particolare.
Un paradosso emerge nello studio della dimensione digitale: per la prima volta nella storia, non stiamo cercando di capire un aspetto della natura. Si cerca di decifrare arcani che qualcuno altro ha creato. Che sia un programma informatico o l’istruzione di una macchina o un algoritmo sconosciuto… Forse, a riguardo del piano digitale, più che di ricerca dovremmo parlare di esegesi.
L’apprendimento automatico o l’Intelligenza Artificiale raccolgono molti segnali, trovando innumerevoli connessioni utili ed evidenziando preziose regolarità ma anche molte associazioni spurie o non significative. Se uno strumento di misura è inaffidabile, l’incertezza aumenta.
Gestire l’enorme forza alimentata dai big data
I big data sono per la nostra società come il vento forte per una barca: può farti andare veloce, ma non è facile da gestire (Mandrone, 2020). L’enorme forza alimentata dai big data deve essere gestita con prudenza, richiede strumenti non convenzionali (computer quantistici), un’accurata analisi semantica (una foto ha la stessa dimensione digitale della Bibbia ma non lo stesso significato) e corredo informativo (metadati).
Poincarè (1905) osservava: “di per sé, l’accumulo di dati non equivale a conoscenza, come un mucchio di mattoni non è una casa”. Cento anni dopo, Anderson (2008) scrisse: “Sensori ovunque. Spazio di archiviazione infinito. Processori quantici. La nostra capacità di acquisire, immagazzinare e comprendere enormi quantità di dati sta cambiando la scienza. Un approccio tradizionale alla scienza – ipotesi, modelli, test – sta diventando obsoleto. Ora c’è un modo migliore: la correlazione è sufficiente”. Chi ha ragione?
Quando Google indovina ciò che stiamo cercando o Amazon suggerisce l’oggetto che volevamo comprare, i loro algoritmi utilizzano la logica tradizionale (approccio deduttivo, metodo scientifico) o stanno leggendo i comportamenti ripetuti (metodo evolutivo, approccio euristico, simmetrie, ricorrenze) semplicemente sfruttando la potenza di calcolo?
Il metodo scientifico inverso
Potremmo parlare di metodo scientifico inverso, ovvero dalle evidenze si risale a ritroso e si ricostruisce il processo che le ha create, in qualche modo una via deduttiva che dagli effetti conduce alle cause o, se si vuol usare una metafora, una via indiziaria che conduce al responsabile.
I computer quantistici, realizzati grazie alle intuizioni dei premi Nobel di quest’anno, consentono di cogliere tutta l’eterogeneità sociale, di far interagire non agenti (come fanno i modelli di micro-simulazione) che rappresentano alcune caratteristiche dei cittadini, ma tutta la popolazione, con i costumi veri, le preferenze reali, le abitudini del vicino di casa, le scelte fatte negli ultimi cento anni, le caratteristiche del contesto, l’umidità dell’aria o il colore del vestito indossato.
Governare la complessità, la sfida del futuro
Questo processo espone le informazioni quantitative a una forte eterogenesi dei fini perché i dati vanno oltre lo scopo originale. Il data mining diventa decisivo per estrarre valore saliente: la capacità di trovare l’inaspettato (serendepity) applicato a enormi quantità di dati, per la Legge dei grandi numeri, diventa più di una piacevole sorpresa: è un valore atteso (Mandrone, 2021)
Il cambiamento culturale è simile a quello avvenuto nei primi anni del ‘900, quando il principio di indeterminazione di Heisenberg mise in dubbio l’idea che la realtà fosse governata da leggi universali, aprendo le porte alla fisica quantistica. Tradotta nella sfera socio-economica, questa incertezza porta a una sorta di stato quantico (Mandrone, 2014): un’idea di istituzioni, diritti, protezioni più sfumata, condizionata alle risorse disponibili e alla situazione personale.
*Le opinioni espresse non impegnano l’Istituto d’appartenenza