Cloud, big data, intelligenza artificiale, deep learning, machine learning, realtà virtuale, realtà aumentata, fog computing e chi più ne ha più ne metta. Sono tutte facce di una stessa medaglia: l’uomo che vuole insegnare ad una macchina ad analizzare, pensare, agire e reagire come l’essere umano. Essere rapido, preciso, infallibile, onnipresente e indiscutibile nella decisione presa.
Ma quale è il corretto modo di pensare? Su cosa si basa il pensiero umano e come esso deve essere trasposto nelle macchine, nei sistemi e negli algoritmi?
L’uomo pensa e agisce secondo regole civili, etiche e culturali stratificate nei millenni. Ma queste regole, per quanto di senso comune, restano pur sempre soggettive: è il singolo essere umano che di volta in volta decide se applicarle o meno, se deviare o meno dalle stesse, prendendosi le relative responsabilità. Inoltre il singolo essere umano è sempre pronto ad agire secondo l’eccezione che conferma la regola, eccezione non prevista o raramente occorrente nel normale evolversi della propria vita.
Le macchine invece agiscono secondo percorsi decisionali predefiniti la cui vicinanza al pensiero umano è tanto più prossima quanto più la capacità e la velocità di calcolo e di analisi dei dati è alta. Ma pur sempre attraverso tecniche e algoritmi che sono stati, in qualche modo, predefiniti. Quindi prevedibili a priori.
Si potrebbe dire che le macchine prendono decisioni “oggettive” e, a parità di condizioni, “ripetitive”. L’uomo invece prende sempre decisioni “soggettive” che possono variare anche a parità di condizioni. Uno dei fattori chiave difficilmente riproducibile in una macchina è l’etica.
Si pensi alle tanto attese driveless cars: un l’algoritmo potrebbe trovarsi a decidere se investire un pedone che taglia la strada o deviare e sbattere contro un palo con il pericolo di vita per passeggeri dell’auto. L’istinto dell’essere umano porterebbe ad evitare il pedone, l’algoritmo a calcolare il numero di vite umane da salvare e quindi non evitare il pedone. Quale è la decisione giusta? Come si fa ad applicare l’etica in questo caso? Ed indipendentemente dalla decisione presa di chi è la responsabilità? Del programmatore, del team di sviluppo software, del pedone, del costruttore dell’auto?
Simili sistemi, complessi e ancora di non facile implementazione, iniziano a comparire nei processi decisionali nella giustizia, aiutando il lavoro dei giudici e degli inquirenti. Questi sistemi potrebbero in autonomia smaltire una mole di processi molto alta, ma anche qui: di chi è la responsabilità di una errata condanna? O peggio di una non condanna?
Potremmo discutere per molto tempo e l’unica conclusione a cui arriveremmo è che dopo la standardizzazione dei processi industriali, dopo la globalizzazione delle produzioni, delle merci, dei trasporti, del cibo, della comunicazione e dell’economia, si sta lentamente, ma inesorabilmente, arrivando alla standardizzazione dell’etica decisionale.
Stiamo passando dall’era in cui ognuno decideva secondo le proprie conoscenza, la propria cultura, indole e capacità, all’era in cui le decisioni sono stabilite a priori da terze entità. Decisioni tutte uguali.
La grossa sfida di tutta la comunità scientifica è sciogliere proprio questi nodi. Non bastano i programmatori o gli esperti di tecnologia, servono modelli e figure professionali molto diverse da prima: umanisti, sociologici, esperti di diritto, storici, filosofi, politici, gente comune e tanti altri attori che compongono la nostra società. Non solo, quando si parlerà di localizzazioni e customizzazioni del software non basterà tener conto di come si esprime la notazione decimale, la lingua, la data, ed i caratteri usati in un dato paese, serviranno regole decisionali diverse adattate con un livello di dettaglio molto alto e con una magliatura geografica molto stretta. Ciò che è una abitudine e considerato giusto a casa mia potrebbe non esserlo a casa del mio vicino che è a pochi metri da me, magari proveniente da nazioni culturalmente molto diverse dalla mia.
In molti casi questa standardizzazione, che chiamo anche globalizzazione delle decisioni, sarà un vantaggio, a patto di essere consapevoli che a fronte di un allargamento della base di conoscenza perdiamo capacità decisionale vera, affidando la nostra etica decisionale ad un sistema. Tutto ciò con il rischio di essere guidati ed instradati nelle nostre decisioni prima, e di pensare dopo qualche generazione, che la decisione giusta è una sola: quella che l’algoritmo ci ha tramandato e che l’ultimo bug fixing o update ha introdotto.
Non sono questi scenari futuribili, già accade ogni volta che apriamo il nostro browser: qualcuno ci propone i risultati di una ricerca sulla base di una parola chiave che abbiamo digitato. Oggi sappiamo che tali risultati seguono una logica commerciale: chi più paga più è visibile e più alta è la sua probabilità di generare nuovo business o di avere nuove visite al proprio sito o store o e-commerce.
In sostanza per programmare i nostri cervelli nel futuro non servirà un chip sottopelle, basterà toglierci incombenze decisionali, primarie oggi ed apparentemente secondarie domani. Avremo si più tempo e più attenzione per decisioni più importanti, intanto avremo standardizzato, affidandoci ad altri, molti pezzi della nostra quotidianità e della nostra etica.