La crescente diffusione dei sistemi di Intelligenza artificiale, sia nella forma della robotica, sia nella versione del machine learning o deep learning, ci pone di fronte a una serie di domande legate alle preoccupazioni sugli impatti della tecnologia sulla società e sulla nostra quotidianità.
Ci si domanda quindi, sempre più spesso: come sarà fatta una società in cui il lavoro non è più la parte principale della vita? In cui gli esseri umani dovranno adattarsi in un ambiente pieno di dispositivi autonomi dotati di capacità decisionale spesso migliore di quella umana? Quali saranno i nuovi conflitti alla base di una struttura sociale siffatta? Insomma: quale sarà il futuro della società dell’intelligenza artificiale?
L’intelligenza artificiale è destinata infatti a stravolgere profondamente il mondo in cui viviamo essenzialmente per due motivi.
- Autonomia: l’IA darà vita a tecnologie autonome in parte o del tutto con regole di comportamento (behaviour si dice in inglese il funzionamento di una IA) basate su un uso intensivo di dati.
- Decisione: l’IA è in grado di svolgere compiti complessi riuscendo a risolvere problemi articolati attraverso la scelta fra diverse alternative possibili spesso in maniera più efficiente di un utente umano.
C’è poi un altro elemento che rende l’introduzione dell’IA nella società un vero e proprio salto tecnologico alla stregua della Rivoluzione Industriale: l’IA non si candida a sostituire solo il lavoro manuale, ma anche il lavoro intellettuale, decine sono gli esempi di categorie professionali che verranno minacciate dall’introduzione delle tecnologie della IA.
La ricerca del Pew Research Center
Per rispondere ai quesiti che attanagliano il futuro, il Pew Research Center ha svolto una ricerca interessante coinvolgendo un enorme numero di studiosi, ricercatori e professionisti dei più diversi settori della conoscenza: dalle scienze fisico-matematiche passando per le scienze sociali e le scienze umane.
Ai poco meno di mille rispondenti (979) è stato chiesto di fare uno sforzo di fantasia, di immaginare cioè il 2030, una data in cui secondo gli esperti aumenterà la diffusione e la dipendenza dalle tecnologie di IA, e di chiedersi se le persone grazie a queste tecnologie si troveranno a stare meglio o peggio.
Inoltre, è stato chiesto loro quali azioni sarà necessario compiere per ridurre al minimo le conseguenze negative delle tecnologie di IA. Un primo risultato è stato interessante: il 63% si mostra ottimista affermando che le persone si troveranno a stare meglio, l’altro 37% invece si mostra più critico verso le conseguenze della IA. Ma quello che è veramente appassionante è vedere quali sono stati le opportunità e le minacce che gli studiosi hanno manifestato verso le conseguenze della IA.
IA, le preoccupazioni degli studiosi
Per prima cosa le preoccupazioni che sono essenzialmente di cinque tipi.
- La paura che le persone possano perdere il controllo delle proprie vite. Le tecnologie autonome riducono di moltissimo – quando non eliminano del tutto – la necessità del coinvolgimento delle persone in moltissime attività: se lo specifico dell’uomo era la capacità decisionale, in un mondo in cui sono le macchine a decidere, questa capacità perde di interesse diventando inutile. Ciò ha come conseguenza che le persone potrebbero diventare dipendenti dai sistemi intelligenti automatizzati.
- L’intenzione nello sviluppo delle IA: queste tecnologie potrebbero essere guidate da scopi come il profitto oppure la sete di potere, posizioni che porterebbero a considerare l’uomo come scopo e non come fine, volendo citare un classico del pensiero di Kant. Molti esperti sottolineano come sotto il termine ombrello di “efficienza”, le IA spesso nascondono errori, pregiudizi (bias), ideologie e tutta una serie di limiti che spesso sono difficili da identificare nell’artefatto tecnico. La sociologia applicata ai big data ci ha abituato a riflettere sul fatto che spesso gli algoritmi nascondono gli stessi limiti umani dei propri progettisti e questa situazione potrebbe avere conseguenze nefaste se venisse riprodotta in macchine che hanno autonome capacità decisionali, come abbiamo mostrato per il caso delle IA psicopatiche.
- Il futuro del lavoro è la terza grande preoccupazione degli esperti. Moltissime persone svolgono lavori manuali semplici e automatizzati, molte persone svolgono lavori intellettuali di routine o comunque descritti da procedure: l’intelligenza artificiale può sostituire entrambi in modo più economico e più efficiente. Quindi diventa necessaria una lungimirante strategia di transizione economica e sociale per evitare che le conseguenze positive della IA nel lungo periodo si trasformino in una macelleria sociale nel breve periodo, con la nascita di risentimento e disagio sociale che andrebbe a sommarsi sull’attuale periodo di crisi economica e istituzionale.
- C’è un altro aspetto meno evidente ma altrettanto pernicioso che gli esperti mettono in evidenza: le conseguenze della dipendenza cognitiva dalle IA. In un mondo in cui nessuno più ricorda i numeri di telefono perché ben conservati nelle rubriche di cellulare, in cui una cosa esiste se è presente nei primi dieci risultati di Google, in cui una informazione è vera perché “l’ho letta su internet”, le IA non potranno che continuare a scavare questo solco nella coscienza e nella capacità critica delle persone fino a diventare uniche bussole della nostra capacità di confrontarci col mondo.
- L’ultima minaccia della società delle IA è l’uso di queste tecnologie in senso criminale come il cyber crimine o in senso bellico come il cyberwarfare. Già alcuni analisti oggi stanno parlando di malicious AI, ovvero l’uso dell’intelligenza artificiale per minacciare la sicurezza di persone, gruppi, società e guidata da specifiche strategie criminali o politiche. Se il passaggio dal XX al XXI secolo è stato il periodo della lotta all’inquinamento informativo – dallo spam alle fake news – il XXI secolo sarà la lotta alle intelligenze artificiali cattive o comunque intenzionate a far del male all’uomo.
Le strategie per ridurre i rischi dell’IA
Se questo è l’inquietante panorama delle preoccupazioni della società delle IA, gli esperti intervistati hanno anche ipotizzato delle strategie per ridurre al minimo le conseguenze nefaste. Ridurre, non eliminare.
- Per prima cosa incrementare e migliorare la collaborazione sovranazionale e tra diversi gruppi di interesse: è necessario un confronto collaborativo senza vincoli disciplinari o di prospettive sociali per giungere ad una visione condivisa su come promuovere uno sviluppo armonico tra società e tecnologie della IA.
- Poi importante è lo sviluppo di politiche che indirizzino l’evoluzione della IA verso il miglioramento delle condizioni di vita e il bene comune. Empatia e valori condivisi sono gli elementi chiave di questo aspetto, che richiede uno sforzo di immaginazione etica non indifferente.
- Infine, orientare il sistema economico, politico ed educativo a migliorare le capacità degli individui in modo che siano sempre all’avanguardia e riescano a competere e stare avanti nella gara contro le tecnologie intelligenti autonome. La scuola del futuro non può permettersi il lusso di insegnare conoscenze che le tecnologie della IA rendono obsolete: c’è il rischio che all’obsolescenza del sapere, corrisponda l’obsolescenza di chi possiede quel sapere. La vera sfida è capire cosa si intenda per obsoleto e perché.
Il senso del rapporto del Pew Research Center è tutto nel titolo: Intelligenza artificiale e futuro degli esseri umani. A leggerlo così sembra quasi un titolo fantascientifico, ma in realtà non lo è, anzi, esprime una particolare posizione di etica della conoscenza molto importante per il nostro futuro.
In pratica ognuno di noi è chiamato a chiedersi per quale tipo di società sta operando e non si può più sfuggire a questa domanda poiché una mancata risposta potrebbe lasciare spazio ad uno sviluppo tecnologico e sociale che potrebbe rendere obsoleto l’uomo.
Finora abbiamo vissuto in un mondo – quello lasciato in eredità dalla Rivoluzione Industriale – in cui l’uomo si è via via affrancato dal lavoro fisico inteso come routine (industria: la catena di montaggio) fino al lavoro mentale inteso come applicazione di procedure astratte (terziario: l’erogazione dei servizi). Nel mondo di cui stiamo attraversando la soglia, le intelligenze artificiali sono in grado di compiere lavori fisici e mentali in modo migliore e più efficiente degli esseri umani.
La domanda quindi diventa cosa rende umano l’uomo: c’è chi dice le emozioni, c’è chi dice la creatività, tutte cose che le IA ancora non sono in grado di destreggiare. Quindi il futuro è una società delle emozioni e della creatività? Non proprio: ma caratteristiche tradizionalmente considerate poco portatrici di valore (economico) – come il problem solving creativo e le soft skill – diventeranno centrali nel futuro della società delle IA.
Non è solo un problema di lavoro, è un problema di etica: perché dovrebbe essere legittima la condizione umana in un futuro in cui essere umani è semplicemente un limite – cognitivo, fisico – e non un vantaggio? La domanda andrebbe riformulata nel seguente modo: cosa c’è di vantaggioso nell’essere un umano che non sia già in una macchina?
Quindi è necessario che cominciamo a chiederci cosa rende umano l’uomo, prima che questa domanda ci venga posta dalle intelligenze artificiali.