Centri di ricerca internazionali, entità istituzionali, organismi non governativi autorevoli scienziati e filosofi hanno prodotto un rilevante ammontare di studi sul futuro del rapporto tra dinamica tecnico-scientifica ed evoluzione dell’umanità, sugli effetti dello sviluppo dell’intelligenza artificiale su processi decisionali umani.
In questa sede argomenteremo come debba essere preservata e potenziata una caratteristica distintiva degli umani, cioè la propensione innovativa, che si esplica dialetticamente sempre in un contesto di vincoli e ostacoli di varia natura, come si vedrà da vicenda esemplare sinteticamente descritta, ma di grande importanza nel mondo investito dalla pandemia. Si cercherà anche di illustrare il fatto che il potenziale tecnico-scientifico può essere ed è impiegato per contenere la creatività umana e orientare-alterare i processi decisionali, ma il futuro dipende da ciò che l’umanità è in grado di escogitare, dalle nostre decisioni.
A questo fine occorre pensare e agire per realizzare un binomio tra immaginazione razionale umana e la crescente potenza computazionale accessibile agli umani. Una “corsa agli armamenti” tra sistemi robotici e umani non genera vincitori.
Innovatività e vincoli socio-tecnici
Gli eventi che hanno caratterizzato il 2020 (pandemia, “veloce” produzione di vaccini, proteste di gruppi “novax” in molti Paesi) e quelli delle prime settimane del 2021 (assalto a Capitol Hill dopo le elezioni negli USA, proteste di massa a Mosca per la detenzione di Navalny, ritardi e dilazioni nella consegna dei vaccini) costituiscono l’epitome di una serie di questioni e processi socio-tecnici, che inducono a riflessioni di fondo sulla fase storica che l’umanità sta vivendo. Intento di queste note è quello di indicare alcuni elementi di uno scenario di grandi potenzialità e rischi, la cui comprensione è essenziale per prendere decisioni individuali e collettive, idonee a generare un futuro non distopico.
Il punto di partenza è necessariamente la riflessione di Wiener (1989), secondo il quale molti di noi non hanno realizzato che i secoli dal Rinascimento in poi, specialmente gli ultimi quattro, costituiscono “un periodo molto speciale” nella storia del mondo”. L’accelerazione dei cambiamenti non ha pari e la loro natura è peculiare, perché si è accresciuta la capacità umana di comunicare fino al punto che l’uso delle risorse naturali è così intenso da indurre questa considerazione: “For the more we get out of the world the less we leave, and in the long run we shall have to pay our debts at a time that may be very inconvenient for our own survival” (p. 46).
Wiener non avrebbe certo cambiato idea oggi, dato ciò che sta accadendo dopo aver dato un linguaggio a macchine sempre più piccole, che permeano ogni oggetto o processo fisico con sistemi di algoritmi di crescente sofisticazione e complessità. Il risultato di tutto ciò è che l’insieme delle macchine genera flussi informativi in continua espansione, strettamente connessi alla vita reale di tutte le componenti del Pianeta. Informazioni, energia e materiali fisici formano oramai un’unica sfera fisico-digitale, al cui interno cambia profondamente lo spazio delle interazioni degli umani che, immersi nella “noosfera”[1], interagiscono attraverso un network globale pervasivo nell’esistenza di ognuno. La conoscenza di potenzialità, limiti e rischi delle dinamiche interattive uomo-macchina e di quelle tra umani, mediate dall’insieme delle macchine, è decisiva per il futuro sulla e della Terra.
Il dato fondamentale è che la potenza computazionale, intesa come esito di continui feedback positivi tra evoluzione dell’hardware e del software, permette conquiste non immaginabili fino a pochi anni or sono. Una chiara dimostrazione è la rapidità con cui è stata individuata la sequenza genomica del Coronavirus odierno, mettendo così in luce come una variazione infinitesima (un miliardesimo di metro) abbia potuto mettere in crisi il mondo intero, diventato un unico apparato fisico-digitale. Il sistema fisico-computazionale ha al tempo stesso permesso di concepire e realizzare una serie di vaccini. Abbiamo così al tempo stesso scoperto le forze materiali e immateriali in possesso dell’umanità, ma anche la loro fragilità, che si estende al sistema Terra nella sua interezza.
Non bisogna però cadere in una sorta di trappola cognitiva, cioè la tendenza a considerare la potenza senza considerare la funzione insostituibile dell’immaginazione razionale degli umani.
Sviluppo dei vaccini anti-covid
Chiariamo questa affermazione con l’esempio di grande attualità, quello dei vaccini. A parte coloro che tendono a spiegare la velocità nella loro realizzazione con ipotesi fantasiose o comunque immotivate, è doveroso sottolineare un elemento trascurato da quasi tutti gli osservatori e analisti della vicenda, tranne due giornalisti di Le Monde, N. Herzberg e C. Hecketsweilerg. Nel loro articolo, pubblicato in italiano dall’ Internazionale (N. 1391, Anno 28, La lunga strada della molecola che può salvare il mondo”). Essi ricostruiscono in modo dettagliato ed esauriente il processo e i fattori che hanno portato alla creazione del vaccino. Il contributo in questione è ricco di elementi e di spunti su cui riflettere. Ne evidenziamo alcuni, rinviando all’articolo indicato per ulteriori aspetti molto interessanti. Il fattore fondamentale nel discovery process del vaccino è l’idea, tenacemente perseguita dalla ricercatrice ungherese Katalin Karikò, la quale per anni ha sviluppato attività di ricerca in campo biochimico, basandosi sulle potenzialità dell’RNA, che trasporta l’informazione a differenza del DNA (codice della vita), in quanto l’RNA “svolge numerosi compiti catalitici, strutturali, informativi”. Ricostruiamo brevemente la vicenda per trarne insegnamenti fondamentali. L’intuizione di Katalin andava contro il paradigma dominante in biochimica, secondo cui bisognava agire sul genoma delle cellule per trovare cure contro la fibrosi cistica e il cancro. Dato l’itinerario di ricerca perseguito, alternativo al mainstream, la studiosa ha avuto un percorso di vita e ricerca abbastanza tormentato: opposizione scettica; perdita del posto di insegnamento in una università americana per insufficienza di pubblicazioni su riviste accreditate; peregrinazioni tra Università, fino a che non ha incontrato per caso, presso una fotocopiatrice, Drew Weisman, giovane ricercatore appena uscito dal Laboratorio di Anthony Fauci. Drew e Katalin scambiano alcune idee e il primo, abituato a lavorare sul DNA, è rimasto incuriosito dalla linea di ricerca della seconda, con cui inizia a collaborare. Di qui deriva un’interazione feconda, che li porta a risultati importanti, pubblicati nel 2005, che attirano l’interesse di alcune imprese negli USA e in Germania. La partecipazione a conferenze consente incontri con altri ricercatori e scienziati, che intuiscono le potenzialità imprenditoriali delle loro idee (Moderna negli USA) e soprattutto Biontech, azienda di due medici di origine turca Ugur Sahin e Ozien Turesci. Il ruolo di Sahin è cruciale, perché unisce in sé tre caratteristiche: scienziato, medico e propensione imprenditoriale. Lo scoppio della pandemia ha innescato l’ulteriore traiettoria: perché non applicare la tecnica dell’RNA alla produzione di un vaccino?
Come si evince da questo breve resoconto, vi sono alcuni ingredienti basilari, tradizionalmente presenti nelle dinamiche innovative di una certa rilevanza (Garud e Karnoe, 2001):
- una “mindful deviation” dal paradigma dominate.
- Ostinazione nel perseguire una linea di ricerca, nonostante le difficoltà e le opposizioni originate dai modelli mentali dominanti. L’obstinacy spinge gli innovatori a non smettere di tentare di convincere colleghi con open mindset della fondatezza delle proprie intuizioni, fondate razionalmente (conoscenza tecnico-scientifica e immaginazione razionale.
- Incontri casuali, ma fruttuosi, per lo sviluppo consolidato e collaborativo delle proprie idee con competenze estranee, ma curiose e intuitive, come nel caso di due medici tedeschi (entrepreneurial process discovery).
- L’emergenza pandemica ha costituito l’occasione per un’applicazione immediata e rivoluzionaria della nuova tecnica (Chance favors the prepared mind, famosa frase di Louis Pasteur).
In estrema sintesi, è evidente l’importanza dell’infrastruttura materiale e immateriale (potenza computazionale disponibile per modellazione e sperimentazione), è altresì chiaro che senza l’immaginazione razionale degli umani e le loro intuizioni tecno-economiche, i ricercatori avrebbero continuato ad impiegare un paradigma meno efficace nel combattere il virus e probabilmente gli agenti artificiali non avrebbero mai proposto la traiettoria di ricerca alternativa. Il binomio immaginazione razionale umana e potenza computazionale ha quindi funzionato bene, seppure con fatica e costi che forse si sarebbero potuti evitare o ridurre.
Occorre infatti sottolineare un aspetto non secondario: sono occorsi anni per lo sviluppo della traiettoria di ricerca, soprattutto a causa delle barriere, costituite da prevalenti modelli di pensiero e di potere tecnico-scientifico: sono dunque stati i limiti umani nella capacità di comprendere le potenzialità di uno schema concettuale “deviante” a ostacolare lo sviluppo positivo della combinazione tra immaginazione umana e sistema computazionale.
La creatività degli umani nel proporre alternative può quindi essere inesauribile, ma vincoli e barriere socio-tecniche possono ostacolarla e talvolta soffocarla. Tutto ciò deve indurre a riflettere sulla complessità della dinamica tecnico-scientifica, che interagisce con processi socio-tecnici in modo imprevedibile e deve quindi indurre ad una riflessione attenta e sistematica su meccanismi e modalità di sviluppo del potenziale tecnico-scientifico odierno. La lezione da trarre è il ruolo decisivo di ciò che l’umanità è in grado di escogitare al fine di evitare conseguenze distopiche di uno sviluppo scientifico generatore di strumenti molto potenti. Propensione innovativa umana e vincoli socio-tecnici generano un ambiente evolutivo complesso, denso di opportunità e rischi, che richiedono un salto di consapevolezza generale.
Cerchiamo allora di enucleare ulteriori intrecci tra potenzialità e problemi di cui l’umanità intera deve prendere consapevolezza.
Opacità, sorveglianza e democrazia nella noosfera
Opacità indotta
Il Gennaio 2021 verrà sicuramente ricordato per quanto è accaduto a Washington con l’assalto al Palazzo del Congresso USA e le proteste in atto in tutta la Russia, con quasi 3400 arresti ufficiali al 24-1-2021, per la liberazione di Naval’ny, oppositore di Putin. Naturalmente la rilevanza internazionale degli eventi in questione è dovuta al fatto che entrambe quelle, che sono ritenute tra le massime potenze mondiali, sono quasi simultaneamente interessate da lacerazioni politiche profonde, seppure per ragioni opposte, essendo l’una basata sul modello democratico e l’altra su un modello autocratico particolare, dopo la crisi dell’Unione Sovietica.
In questa sede approfondiamo solo il ruolo che ha esercitato lo spazio delle interazioni sul web. Partiamo da un dato, che ha trovato numerose conferme da parte di analisti americani: al di là delle pittoresche figure apparse su media, Internet e reti social, hanno agito meccanismi catalizzatori di visioni e teorie cospirative, i cui fondamenti sono piuttosto arcani e comunque motivati in modo approssimativo e con suggestioni più che su dati effettivi (Cfr il gruppo internazionale che si raccoglie dietro la sigla QAnon).
È da rilevare innanzitutto che nel cyberspace si sono chiaramente sviluppati processi di boostrapping, cioè sequenze auto-organizzate e auto-rinforzantesi di blocchi informativi, dove le conferme erano di fatto viste nell’aumento delle adesioni e non riscontri con qualche parvenza di realtà. È anzi accaduto che fattori di catalizzazione amplificatoria di tali processi fossero costituiti da alterazioni più o meno accentuate di elementi informativi, se non addirittura da vere e proprie invenzioni.
Il mix di misinformation e misinterpretation ha avuto come protagonisti accertati sia persone ordinarie che gruppi organizzati sulla base di un vero e proprio disegno. Il giornalista investigativo David Sirota su Jacobin ha dimostrato che l’insurrezione era prevedibile (The insurrection was predictable, 23-1-2021) e una serie di suoi articoli nel corso del 2020 ha documentato il crescendo di preparazione di azioni spettacolari da parte di vari movimenti di estrema destra (Proud Boys, Oath Keepers, Suprematisti bianchi) in caso di sconfitta di Trump, che non avrebbero accettato. Sirota peraltro rivela particolari interessanti della politica istituzionale USA nell’era Trump:
- inviti a smorzare le notizie sull’influenza dei suprematisti bianchi, documentata nel Report del Dipartimento per la Sicurezza Interna (8-9-2020).
- Decisione di ignorare gli avvertimenti circa il crescente pericolo del terrorismo di estrema destra (Woodruff Swan, 26-8-2020, They tried to get Trump to care about right-wing terrorism. He ignored them, Politico).
- Diversione nell’uso di strumenti formidabili di indagine, come nel caso rivelato sul Guardian a proposito dell’FBI, che si concentrava su ambientalisti come possibili terroristi interni (Federman A:, 24-9-2019, Revealed: how the FBI targeted environmental activists in domestic terror investigations). È forse superfluo aggiungere che l’assalto a Capitol Hill è avvenuto in presenza di una assolutamente inadeguata protezione della sede fondamentale di espressione della sovranità popolare americana.
Questo storico episodio mostra inoltre un lato paradossale. L’opacità apparente e indotta della Rete, se si pensa che fin dal 2014 Andrejevic e Gates hanno rivelato come vi siano droni militari che “in addition to weapons, cameras, and other sensors, they are equipped with a device called an “Air Handler” that can capture all available wireless data traffic in the area”. Ad esso va poi aggiunto il PRISM “the CIA’s secret mass electronic surveillance and data mining initiative”. Non è un’ipotesi fantasiosa che sia in atto un programma composito e sistematico di “sorveglianza di massa”[2], a cui sarebbero sfuggiti i preparativi prontamente individuati da un giornalista! Il paradosso sta quindi nell’aver reso opaco i risultati di un sistema creato per esplicitare trend informativi che si stavano auto-organizzando.
Prima di sviluppare ulteriormente il tema dell’opacità, discutiamo brevemente l’opacità dichiarata, come riteniamo si possa definire l’esperienza russa.
Opacità dichiarata
È nota la vicenda dell’oppositore di Putin Aleksej Naval’nyj, avvelenato non si sa bene come nell’Agosto 2020 nel corso di un viaggio aereo da Tomsk a Mosca e tornato in patria dopo essere stato curato a Berlino, per essere immediatamente arrestato. La mobilitazione internazionale per la sua liberazione ha certamente favorito il consolidamento dell’opposizione interna alla politica del Cremlino e le ha dato certamente forza, fino a dare estremo rilievo agli avvenimenti di questa terza settimana di gennaio. In tutta la Russia, perfino nella città siberiana di Yakutsk con una temperatura di -50 gradi, centinaia di migliaia di persone sono scese in piazza per protestare contro la detenzione, che ritengono ingiusta. Vi sono stati scontri e molti arresti, 3400 persone secondo Faratin del Guardian.
La giornata nazionale di protesta, da Vladivostok a Mosca e Pietroburgo, si è svolta in un clima molto difficile, come è facile immaginare, data la politica di restrizioni annunciata dal Cremlino negli ultimi due anni. Nel 2019 è stata approvata una normativa in base alla quale le autorità potevano esercitare la sovranità nazionale sull’infrastruttura di Internet, disconnettendo la Russia dal resto del mondo (Schulze, 2019).
Human Rights Watch (Russia: Growing Internet Isolation, Control, Censorship Authorities Regulate Infrastructure, Block Content, 18-6-2020) ha poi messo in evidenza come in Russia fossero in vigore norme molto restrittive in tema di libertà di espressione e sorveglianza collettiva:
- multe per motori di ricerca che concedono accessi a virtual private nwtorks (VPN) con contenuti dichiarati non divulgabili.
- Obbligo di fornire dati relativi alla geo-localizzazione dei cittadini russi e a organizzatori di flussi informativi, mentre il servizio segreto statale (FSB) può chiedere alle società di installare sulle loro attrezzature dispositivi per avere accesso alle loro informazioni e conoscere le chiavi criptate.
Le disposizioni di legge sono motivate dalla necessità di proteggere la sicurezza nazionale e la privacy dei cittadini russi, ma ovviamente si tratta di un controllo sistematico e del tutto opaco sui comportamenti e la vita privata di qualsiasi persona, una sorta di blanket surveillance, che dovrebbe permettere di contenere movimenti di opinione e trend “scomodi”. Eppure, nonostante tutto questo e la consapevolezza diffusa dei mezzi coercitivi piuttosto rudi della polizia russa, la giornata di protesta si è svolta grazie ad una organizzazione evidentemente basata sulla Rete e sotto-reti dedicate.
Il disegno esplicito di rendere poco utilizzabile Internet non ha avuto l’effetto sperato, perché l’intelligenza umana ha trovato il modo di superare filtri e barriere opacizzanti.
È allora il momento di affrontare la questione delle forme di uso e controllo della Rete ponendosi su un piano più generale, ovvero quello della configurazione strutturale della noosfera.
Dinamismo ed evoluzione distopica della noosfera
Datification e neo-comportamentismo
Riprendiamo dalla nota 1 la definizione di noosfera che “may be broadly seen as a process of an increasingly complex intermeshing of cognitive realms within the biosphere”. Essa è una componente fondamentale del mondo fisico-cibernetico, dato dalle interazioni dinamiche tra processi biologici e informativi globali nell’odierno mondo iperconnesso. Sono immanenti a quest’ultimo pressioni endogene verso l’auto-organizzazione dei processi biofisici e informativi, perché nell’infosfera che permea la sfera reale del Pianeta si manifestano fenomeni di complementarità, affinità, congruenza, o all’opposto di divaricazione separatrice, contraddizione e competizione istruttiva. Tali meccanismi automatici assumono oggi una valenza straordinaria per i cicli iterati di feedback tra incrementi della capacità di calcolo e dei volumi di informazioni generati da interazioni a scala planetaria.
L’aspetto basilare su cui concentrare l’attenzione iniziale è che la tendenza all’auto-organizzazione porta necessariamente alla creazione di hyperstructures (Baas, …), già trattate in un precedente contributo, dove con il termine si indica l’emergere di strutture gerarchiche come proprietà conseguente allo sviluppo di connessioni, legami, relazioni di varia natura. Configurazioni siffatte sono comuni in fisica e biologia, nei contesti sociali, ed assumono oggi un’importanza fondamentale nell’infrastruttura materiale e immateriale che pervade il sistema-Terra, come dimostrano i Techno Giants della rete. Bisogna però ribadire che come umani viviamo nella noosfera, entro la quale le hyperstructures in questione raccolgono, organizzano e gestiscono dati e informazioni puntuali sui nostri modi di agire, pensare e interagire.
Sorgono a questo punto due grandi questioni:
- il possesso di informazioni e conoscenze a scala globale e a livello granulare è fonte di un potere senza eguali nella storia umana, perché travalica ogni limite spaziale, geografico, culturale, istituzionale.
- La sorgente principale di tale potere è la creatività umana, cioè la generazione senza sosta di idee e di strumenti per la risoluzione di problemi.
La dinamica tecnico-scientifica è il risultato del crescente impegno dell’intelligenza umana organizzata nell’inventare sempre nuovi meccanismi per comprendere e controllare la dinamica dei processi naturali, che attualmente sono biofisici e informativi, tra loro strettamente compenetrati. In questo orizzonte in continuo movimento quantità e velocità nell’elaborare informazioni sono diventati imperativi fondamentali, attuati mediante dispositivi hardware software sempre più potenti e automatizzati per finalità specifiche, generando feedback cumulativi, che sono alla base della capacità di estrarre da masse crescenti di dati pattern significativi, cioè configurazioni ordinate su basi essenzialmente statistiche e correlazionali. Gli indubbi successi dei sistemi algoritmici di Machine Learning, specie nelle sue più recenti versioni di Deep Learning e sistemi ibridi[3] sono sostanzialmente macchine in grado di ottimizzare l’elaborazione dei flussi di informazione scoprendo regolarità e trend, dando in questo modo una base predittiva fondata per un futuro connesso al passato.
È quella che Pasquale (2020: 62-63) ha chiamato “primacy of quantitative measurement”, così che tutto –concepito come dato- può essere misurato e ottimizzato da dispositivi computazionali. La visione si basa sul presupposto che ogni entità –oggettiva e soggettiva- è rappresentata mediante dati (cosiddetta datification), per cui la data predictive analytics è in grado di descrivere i comportamenti di entità animate e non, prescindendo necessariamente da quello che esse realmente sono. Per tale via prevale di fatto una sorta di neo-comportamentismo[4], che poi tende inevitabilmente a trasformarsi in disegni espliciti di orientamento programmato dei comportamenti. Illuminante a questo proposito quanto ha dichiarato a Shoshana Zuboff (2016) un chief data scientist di Silicon Valley: “The goal of everything we do is to change people’s actual behavior at scale. When people use our app, we can capture their behaviors, identify good and bad behaviors, and develop ways to reward the good and punish the bad. We can test how actionable our cues are for them and how profitable for us”.
Occorre a questo punto osservare che modelli predittivi ottimizzanti cercano di proiettare nel futuro i pattern disvelati, ma sono in effetti ispirati–più o meno consapevolmente- alla tentazione di determinare i processi socio-tecnici, andando incontro a due pericoli di defaillance:
- la base statistica è necessariamente soggetta ad errori, data l’incompletezza strutturale del mondo reale in continua evoluzione, il che comporta che quanto maggiore è la rilevanza quantitativa e qualitativa dei modelli, tanto più grandi possono essere le conseguenze negative degli errori.
- La complessità strutturale ed evolutiva dell’enorme numero di sistemi che compongono il sistema-Terra genera periodicamente delle discontinuità, quindi effetti imprevedibili, che richiedono cambiamenti paradigmatici e non semplicemente modelli estrapolativi, per quanto utilissimi in condizioni di stabilità dinamica dei sistemi, cioè di una loro evoluzione che non mette in discussioni parametri basilari di funzionamento.
L’analisi feconda e l’interpretazione innovativa delle discontinuità richiedono il porsi di interrogativi, la formulazione di ipotesi non standard, l’ideazione di cambiamenti sostanziali dei modelli concettuali, come è avvenuto nel caso, prima illustrato in relazione alla ricercatrice Katalin Karikò. Il sistema delle macchine reali e virtuali tutto questo non è in grado di farlo, per cui una tesi di fondo da sostenere con forza è la necessità della cooperazione tra Intelligenza naturale e Intelligenza meccanica. Solo così il potenziale tecnico-scientifico accessibile potrà svilupparsi a beneficio dell’umanità, altrimenti il rischio che si consolidino tendenze distorcenti è alto, come vedremo ora.
Automi sociali e alterazione dei processi decisionali
I social network sono l’ambiente ideale per l’emergere e l’affermarsi di processi di auto-organizzazione dei flussi informativi e quindi del passaggio all’azione, non sempre e solo positiva, come è reso evidente da episodi incresciosi accaduti in molti Paesi del mondo. Non ci soffermiamo ancora una volta sull’ambivalenza della dinamica tecnico-scientifica, specie nel contesto odierno, caratterizzato dall’esistenza di meccanismi molto potenti per creare pattern comportamentali nella noosfera. Tali meccanismi sono accessibili per individui isolati e gruppi associativi, oltre che per entità pubbliche e private con varie finalità operative.
Nelle note sintetiche che seguono mettiamo in luce alcuni strumenti, che attori singoli o collettivi possono utilizzare per condizionare e addirittura quasi determinare comportamenti sociali, con il risultato che esiste un potenziale di alterazione dei processi decisionali, su cui è auspicabile che l’intera umanità acquisisca consapevolezza prima che sia troppo tardi.
Intendiamo riferirci alla possibilità che iniziative top-down o bottom-up, oppure simultaneamente top-down e bottom-up, possano diventare egemoni a causa di meccanismi di funzionamento della mente umana, che andrebbero conosciuti non solo dagli specialisti. La riflessione inizia con due elementi di fondo:
- esiste un divario ineliminabile tra capacità computazionale della mente umana e la complessità delle variabili da assumere per prendere decisioni. Ne consegue che abbiamo bisogno di principi ordinatori (Hayek, 1952) della congerie di informazioni in arrivo dal contesto in cui interagiamo, specie oggi che è costituito dal cyberspace.
- Non potendo esaurire la nostra limitata dotazione di strumenti cognitivi in una ricerca casuale senza fine, sorge la necessità di meccanismi di induzione e dispositivi di focalizzazione[5], che riducano l’ampiezza di una ricerca esplorativa in tutte le direzioni.
L’esigenza di tali meccanismi è ancora più pressante in una situazione come quella odierna, quando la nostra mente è alle prese con un incombente overload informativo, generato dall’info-sfera che avvolge e permea l’intero Pianeta.
In uno scenario così caratterizzato non è eccesivo attribuire grande importanza alla pratica di diffondere nella Rete programmi autonomi (automated scripts) (Woolley e Howard, 2016) che si comportano come proxy di agenti, in grado di interagire con agenti umani, in tal modo esaltando dal punto di vista computazionale le funzioni di un programmatore umano: “rastrellare” il web in cerca di informazioni, monitoraggio dei siti, entrare più meno furtivamente nei database. Non deve sorprendere allora se social bots[6] e la loro versione politica (political bot) sono meccanismi basilari per un’estesa attività di astroturfing[7]¸ che di fatto consiste nel “produrre la percezione di un supporto di massa”[8]. Algoritmi interattivi automatizzati e piattaforme sociali costituiscono un mix ad elevato potenziale di condizionamento degli orientamenti e delle decisioni umane, sia in campo sociale-culturale che politico, anche da un punto di vista quantitativo che qualitativo, come si evince dalla Figura, tratta dal Rapporto 2020 sul traffico web “human, non-human”: il secondo ha raggiunto il massimo livello storico, specie nei bad bot (24,15)
Fonte: Imperva-Incapsula, Bad Bot Report, https://www.imperva.com/blog/bad-bot-report-2020-bad-bots-strike-back/
Su queste basi si comprende come “automazione, scalabilità[9], e anonimità” siano i tratti caratteristici di quella che Woolley e Howard (2019) denominano computational propaganda, potente dispositivo con cui si cerca di influenzare i processi decisionali individuali e collettivi.
È a questo punto opportuno porsi interrogativi quali meccanismi specifici siano innescati da apparati e dispositivi ibridi come quelli indicati, senza approfondire per brevità quanto è presente in studi e strategie di marketing, sui quali torneremo in futuro.
Per rispondere a tali interrogativi possiamo derivare spunti di riflessione molto interessanti da ricerche nel campo della neuroscienza, dove sono messi in evidenza –su base sperimentale- meccanismi contemporanei di “focalizzazione dell’attenzione”, veri e propri attrattori di propensioni insite nel funzionamento del cervello e quindi capaci di influenzare l’evoluzione dei modelli mentali. Il primo meccanismo è quello chiamato “echo-chamber”, ovvero “tendency of individuals to create homogeneous groups and to affiliate with individuals that share their political view.” (Colleoni et al., 2014).
La creazione di comunità omogenee è, dal nostro punto di vista, l’esito della combinazione dell’esigenza umana di dispositivi ordinatori, prima indicata in relazione a contesti di overload informativo, e dell’esistenza di feedback computazionali a scala elevata, innescati dall’azione dei sistemi algoritmici dedicati (bot, social bot, political bot), che sono in grado di individuare similarità e complementarità tra preferenze, emozioni, interessi, su cui far leva per catalizzare direttrici unidirezionali.
Per questa via si concretizza un fenomeno molto interessante: le interazioni tra “codici sociali” (presenti nelle persone) e codici computazionali fa sì che gli algoritmi sociali[10] influenzino i processi deliberativi di individui e aggregati collettivi indotti all’omogeneità. Questa dinamica indotta a sua volta favorisce un secondo meccanismo mentale: l’impoverimento delle fonti informative, sulla base dei seguenti fattori. Se l’eterogeneità delle comunità di appartenenza alimenta la propensione individuale ad accedere a fonti informative diversificate, quindi ad ampliare la propria conoscenza, il suo venir meno favorisce la polarizzazione e le “trappole cognitive” come il cosiddetto bias della conferma, cioè la ricerca di informazioni coerenti con le proprie convinzioni, credenze, aspirazioni basate sull’esperienza sempre più limitata (Jonas et al., 2001).
Gli algoritmi sociali inducono a preferire “to strengthen our ties to the people and organizations we already know and like”, di conseguenza “Random exposure to content is gone from our diets of news and information” (Howard, 2016). Alle riflessioni di Howard sui pericoli per la democrazia, aggiungiamo che l’accesso random a domini informativi estranei a quelli consolidati è un ingrediente fondamentale della propensione e dell’attività innovativa umana, come abbiamo visto all’inizio di questo contributo.
Le riflessioni svolte finora fondano due tesi:
- È elevato il rischio di un futuro distopico, caratterizzato da un depauperamento delle funzioni cognitive umane, se non si acquista la consapevolezza degli effetti distorcenti degli algoritmi sociali e quindi non si adotta una visione basata sulla cooperazione tra umani e sistemi computazionali, tra immaginazione razionale umana e crescente potenza di calcolo orientata a finalità in armonia con l’evoluzione naturale.
- Sono di grande attualità e importanza le “nuove leggi della robotica” proposte da Frank Pasquale (2020). Ai fini del presente scritto sottolineiamo l’importanza soprattutto della seconda (Robotic systems and AI should not counterfeit humanity) e della terza (Robotic systems and AI should not intensify zero-sum arms races. ….
Il punto di arrivo delle riflessioni proposte è che la “corsa agli armamenti” tra sistemi robotici e umani può avere come perdente l’intero Pianeta, perché nessuno potrà avere il controllo totale di un potenziale tecnico-scientifico, che possiede una enorme capacità distruttiva di risorse essenziali per la sopravvivenza del sistema-Terra: informazione, energia, materiali, e intelligenza naturale. Solo lo sviluppo congiunto e armonico di intelligenza naturale e quella delle macchine può evitare il peggio.
–
Bibliografia
Andrejevic M., Gates K., 2014. Editorial. Big Data Surveillance: Introduction. Surveillance & Society 12(2): 185-196. http://www.surveillance-and-society.org, ISSN: 1477-7487.
Baas N.A., 2019, On the Philosophy of Higher Structures, arXiv:1805.11943v3 [math.GM] 20 March
Colleoni et al., 2014, Echo Chamber or Public Sphere? Predicting Political Orientation and Measuring Political Homophily in Twitter Using Big Data, Journal of Communication 64: 317–332
Faratin M., 23-1-2021, Protesters demonstrate across Russia in support of Alexei Navalny, Guardian
Garud R., Karnoe P, 2001, Path Dependence and Creation, Lawrence Erlbaum Associates, Publishers
Hayek F.A, 1952, The Sensory Order, The University of Chicago Press
Howard P., 2016, Is social media killing democracy?, Oxford Internet Institute
Howard P.N, Woolley S., Calo R., 2018, Algorithms, bots, and political communication in the US 2016 election: The challenge of automated political communication for election law and administration, Journal of Information Technology & Politics, 15:2, 81-93, DOI: 10.1080/19331681.2018.1448735
Jonas E. et al., 2001, Confirmation Bias in Sequential Information Search After Preliminary Decisions: An Expansion of Dissonance Theoretical Research on Selective Exposure to Information, Journal of Personality and Social Psychology, Vol. 80, No. 4: 557-57
Lazer D., 2015, The rise of the social algorithms, Insights Perspective, 5 June, Vol. 348, Issue 6239: 1980-1981
Pasquale F., 2015 The Black Box Society. The Secret Algorithms That Control Money and Information, Harvard University Press
Pasquale F., 2020, The New Laws of Robotics. Defending Human Expertise in the Age¸ Belknap Press of Harvard University Press
Rosenberg N., 1969, The Direction of Technological Changes Mechanisms and Focusing Devices, Economic Development and Cultural Change, Vol. 18, Number 1, Part 1
Scheufele, D. A. et al., 2006, Democracy based on difference: Examining the links between structural heterogeneity, heterogeneity of discussion networks, and democratic citizenship,
Schulze E., 1-11-2019, Russia just brought in a law to try to disconnect its internet from the rest of the world, CNBC.com.
The Observer, Editorial, 24-1-2021, The Observer view on Russia’s protests against Putinism
Wiener N., 1950-1989, The Human Use of Human Beings, Free Association Books, London, 1989, Ed. Or. 1950
Woolley S., Howard P.N., 2019, Computational Propaganda, Oxford University Press.
Zuboff, S., 2016, The Secrets of Surveillance Capitalism,” Frankfurter Allegemeine Zeitung, March 5
- “the noosphere may be broadly seen as a process of an increasingly complex intermeshing of cognitive realms within the biosphere—an unfolding of individual and collective ideas, mentalities, aspirations and experience” (Samson e Pitt, 1999: 2, The Biosphere and Noosphere Reader, Routledge). Nell’introduzione del libro viene illustrato il concetto di noosfera, elaborato secondo differenti prospettive teoriche e filosofiche, a partire dall’originale versione di Vernadsky (anni ’20 del secolo scorso) fino alle visioni contemporanee, basate sull’idea di una “global consciousness”). ↑
- Il Programma ha ovviamente finalità dichiarate di sicurezza interna e di prevenzione del crimine in tutte le sue forme, organizzate e non. ↑
- Convolutional Neural Networks, Recurrent Neural Networks, Recursive Neural Networks, Capsule Networks. Hybrid cognitive-model-based approach. ↑
- Pasquale (2029: 83) argomenta come di fatto “The rise of data-drive- predictive analytics has given behaviorism new purchase”. ↑
- Meccanismi di induzione e dispositivi di focalizzazione nella dinamica tecnologica degli ultimi due secoli sono analizzati da Rosenberg (1969). ↑
- “Social bots are a version of automated software used on social media platforms to undertake tasks and mimic real users.” (Howard et al., 2016). ↑
- Cosi definita in Howard et al. (2016: 86): “as the process of seeking electoral victory or legislative relief for grievances by helping political actors find and mobilize a sympathetic public, a process designed to create the image of public consensus where there is none”. ↑
- Non è il caso di recenti, maldestri, tentativi di realizzarla nel nostro Paese su Twitter. ↑
- Scalability is an attribute that describes the ability of a process, network, software or organization to grow and manage increased demand. A system, business or software that is described as scalable has an advantage because it is more adaptable to the changing needs or demands of its users or clients (Techopedia). ↑
- “social algorithms: programs that size us up, evaluate what we want, and provide a customized experience” (Lazer, 2015: 1090) ↑