Le posizioni sull’impatto dell’IA (intelligenza artificiale) sul mondo del lavoro possono essere ricondotte a quattro categorie, corrispondenti quattro diverse gradazioni di “simpatia” nei confronti dell’IA, ed atteggiamento ottimistico riguardo il suo impatto futuro nel consesso umano.
A ciascuna, si sono associate delle etichette di comodo:
- artificio-fobiche;
- deflazioniste;
- governiste;
- futuriste.
Intelligenza Artificiale e lavoro: così nasce il “cyber-proletariato”
I precedenti studi su informatica e robot
Naturalmente, ben prima dell’esplosione della nuova IA, lanciata al successo dalla riedizione delle reti neurali artificiali popolarizzate come deep learning, il rapporto tra nuove tecnologie e mondo del lavoro è stato uno dei temi centrali in economia e sociologia.
È stato un elemento cruciale nell’analisi della storica rivoluzione industriale dell’Ottocento, ma anche in successive epocali innovazioni tecnologie, come l’elettricità agli inizi del Novecento e il computer nella seconda metà. Pertanto non sorprende che a rivolgersi verso il fenomeno IA siano stati anzitutto gli economisti più accreditati nell’indagare l’impatto sul lavoro di precedenti tecnologie.
È il caso di Daron Acemoglu del MIT, che già sul finire del secolo scorso aveva studiato l’interazione tra nuove tecnologie, competenze dei lavoratori, e occupazione tramite modelli economici matematici, e negli ultimi anni si è orientato su IA, soprattutto per il comparto robotico. Uno dei suoi più citati lavori è lo studio dettagliato del 2017 sull’impatto della robotica sul lavoro: “Robots and Jobs: Evidence from US Labor Markets”.
Simile il caso di Erik Brynjolfsson, attualmente a Stanford dopo un lungo periodo al MIT: uno dei più accreditati analisti economici dell’IA ha focalizzato nel 1990 il proprio dottorato sull’impatto delle tecnologie informatiche sul mondo del lavoro. Tra i suoi testi cardine, il “Race Against the Machine” del 2011 e il “The second machine age: Work, progress, and prosperity in a time of brilliant technologies” del 2014: entrambi raffrontano l’irruzione dell’IA alle epocali transizioni tecnologiche del passato, paventando la possibilità di paragonabili sconvolgimenti nel mondo del lavoro.
Vi sono anche economisti di più recente generazione per i quali l’IA è stato il primo interesse di analisi: è il caso di Carl Benedikt Frey di Oxford, a cui più di ogni altro si deve aver acceso il faro sui possibili sconvolgimenti che l’IA potrebbe recare nel mercato del lavoro.
Il suo studio del 2016, in collaborazione con Michael Osborne, “The future of employment: How susceptible are jobs to computerisation?” disegna un quadro di incisiva automatizzazione e conseguente perdita di posti di lavoro nei prossimi decenni. La serietà dei metodi di analisi, e i risultati, indicanti un 47% dei lavoratori americani con elevata probabilità di venire rimpiazzati da IA, sono diventati un riferimento obbligato per ogni successiva riflessione sul futuro dell’occupazione e IA.
I più contrari all’IA nel lavoro: gli artificio-fobici
Oggi la sorpresa e l’allarme su questo tipo di ripercussioni dell’IA hanno avuto il tempo per sedimentarsi e stimolare riflessioni meditate, ed è possibile intravedere delle posizioni caratteristiche, che con qualche approssimazione si sono raggruppate in quattro categorie, come detto all’inizio connotate da diverse simpatie verso l’IA.
Partiamo da quelli che proprio la sopportano poco, che abbiamo definito artificiofobici. Le preoccupazioni per la disoccupazione diventano semplicemente un’aggiunta ad una critica complessiva rispetto al novero dei guai che affliggerebbero l’umanità a seguito dell’espandersi dell’IA.
Si possono rintracciare in queste posizioni aspetti di una consolidata tradizione ostile alle tecnologie, a cui il filosofo tedesco Martin Heidegger ha fornito un importante supporto teorico. Secondo Heidegger la tecnologia è il risultato della peggiore metafisica, che da Platone in poi ha preteso di rendere il mondo comprensibile, persino misurabile, distraendo l’uomo dalla ricerca dell’Essere (beninteso, con tanto di “E” maiuscola).
Il filosofo americano Hubert Dreyfus è stato il nemico storico principale dell’IA, ed ha iniziato la sua carriera di studi proprio frequentando a Freiburg le lezioni di di Heidegger, diventandone strenuo esegeta. Dreyfus aveva individuato nell’IA il culmine del rechnende Denken heideggeriano, il “pensiero calcolatore” retaggio della più perniciosa metafisica, che strappa l’uomo dal contemplare la sua situazione di Essere (sempre attenzione alla maiuscola) nel mondo.
Il nostro infelice neologismo “artificiofobia” non è altro dunque che una specializzazione del più conosciuto sentimento di tecnofobia. Molta della vecchia critica di Dreyfus all’IA continua ad essere l’alimento principale di queste posizioni, con un accento nuovo all’ulteriore male per l’umanità costituito della drammatica perdita del lavoro.
Di questa compagine – che alcuni come Frey denotano come “neo-ludditi” – uno dei più noti rappresentati è Nicholas Carr, che coniuga la condanna dell’IA in quanto portatrice di disoccupazione, ad altri suoi nefasti effetti sull’intelligenza genuina, quella umana. Il suo libro del 2016, “The Glass Cage: Who Needs Humans Anyway?” deriva il titolo dalla gabbia di vetro in cui rischiamo di essere confinati dall’IA, come è successo ai piloti di aereo. Un tempo avevano a disposizione leve e volante per manovrare i velivoli, poi progressivamente solamente schermi e comandi digitalizzati. Quanto siano tragiche le conseguenze, Carr lo esemplifica narrando dell’incidente aereo avvenuto a Buffalo nel 2009, dovuto a quanto pare ad imperizia del pilota. Inevitabile, secondo Carr, per colpa di quella gabbia di vetro di schermi e touch screen, che lo hanno deprivato della sua intuitiva e manuale abilità con le vecchie leve.
Il libro è una ricercata collezione di aneddoti del genere, ne aggiungiamo giusto un secondo. La popolazione Inuit del Canada settentrionale sta progressivamente perdendo la tradizionale capacità di orientarsi nelle foreste: hanno trovato decisamente più pratico usare il GPS.
Doveroso citare un altro artificiofobico, pur se molto meno conosciuto di Carr, perché italiano, Francesco Borgonovo uscito nel 2018 con il volume “Fermate le macchine! Come ci stanno rubando il lavoro, la salute e perfino l’anima”. Inutile soffermarsi: il titolo è già piuttosto eloquente. Il caso è interessante sia perché connazionale, ma anche per un aspetto transnazionale, il favore che gode questa posizione in ideologie di destra e populiste. Oltre al mero interesse politico nel cavalcare un argomento di forte presa sociale, il rischio di perdere il proprio lavoro, vi è una caratterizzazione più specifica, l’ostilità alla tecnologia che avanza va di pari passo con la preservazione di un ipotetico passato migliore, più felice.
L’IA come motore di riorganizzazione: i deflazionisti
Archiviate le posizioni più estremamente contrarie, passiamo al secondo gruppo che abbiamo denominato deflazionista, in cui sostanzialmente si considerano eccessive le preoccupazioni per vistose perdite di posizioni lavorative.
Probabilmente nessuno arriva al punto di negarle del tutto, ma l’impatto dell’IA viene visto come una riorganizzazione in cui le perdite di unità lavorative vengono anche bilanciate dalle richieste di nuove competenze. Autorevole rappresentante di questa posizione è Peter Fleming, nel suo “Robots and Organization Studies: Why Robots Might Not Want to Steal Your Job” sostiene come l’IA non debba essere considerata come elemento di sostituzione della forza lavorativa in isolamento, ma che si vada inevitabilmente a combinare nel complesso delle propulsioni socio-organizzative da cui emerge un bilancio di quanti posti siano sostituiti e quanti nuovi ne vengano creati.
Anche Carsten Osterlund propone una interrelazione di IA e lavoro più complessa, e meno preoccupante rispetto a quanto prospettato nelle previsioni economiche di qualche anno fa, nel suo “Artificial intelligence and the world of work, a co-constitutive relationship” del 2020.
Darebbe ragione ai deflazionisti anche il lavoro uscito su Nature Communications nel 2020, “The role of artificial intelligence in achieving the Sustainable Development Goals”, dove tra gli autori spicca il fisico Max Tegmark, le cui preoccupazioni per il futuro lo hanno indotto a fondare il Future of Life Institute.
Questo articolo analizza come si colloca l’IA rispetto ai 17 Sustainable Development Goals individuati dalle Nazioni Unite come i primari obiettivi a cui mirare per un futuro migliore per l’umanità e sostenibile per il pianeta.
Questi obiettivi comprendono indicatori, come l’impatto ambientale, che esulano dai nostri scopi, gli indicatori di rilievo sono il primo, No Poverty e soprattutto l’ottavo, Decent Work and Economic Growth.
Per il primo, dall’analisi degli autori l’IA può risultare incentivante l’obiettivo per sette diversi sotto-obiettivi, ma anche penalizzante per sei, mentre per il secondo risulta incentivante su 11 sotto-obiettivi e disincentivante su quattro. Quindi non una panacea, ma con un bilancio complessivamente positivo.
La necessità di gestire l’IA: i governisti
Passando al terzo gradino nella nostra scala di favore nei confronti dell’IA troviamo una posizione comune a diversi degli economisti più accreditati nell’analisi dei suoi rapporti con il lavoro, incontrati all’inizio di questo articolo.
Si tratta di un ottimismo verso l’IA condizionato ad uno suo governo, che ne orienti le applicazioni, in particolare verso una direzione che non è attualmente quella prevalente.
Tra i due principali esponenti del governismo troviamo i due economisti citati sopra, Brynjolfsson e Acemoglu, a cui si aggiunge Anton Korinek, che è proprio componente di GovAI, l’istituto di ricerca per il governo dell’IA.
L’idea su come l’IA dovrebbe venir governata, comune ai tre economisti, è che dovrebbe prediligere applicazioni innovative in grado di migliorare l’efficacia del lavoro ordinario dell’uomo, piuttosto che applicazioni dove il lavoro vada direttamente sostituito. Questa idea di massima viene declinata in modi sottilmente diversi dai tre.
Per Acemoglu, attingendo dal titolo del suo lavoro del 2019 “The wrong kind of AI? Artificial intelligence and the future of labor demand”, il genere di IA “wrong” è quella che mira ad applicazioni classificabili come automatizzazione, e che proprio per sua stessa concezione non può che comportare perdite di lavoro umano, quello che viene automatizzato.
Ma l’IA può offrire ben altro, che Acemoglu non tenta di riunire in una categoria, e nemmeno ne fornisce una definizione, ma produce diversi esempi. Uno riguarda l’ambito educativo, con software di supporto all’insegnante che consenta una profilazione individualizzata degli allievi rispetto all’andamento scolastico, e quindi individuare strategie personalizzate che meglio rispondono alle singole esigenze. Anche in ambito clinico il supporto dell’IA potrebbe essere orientato non alla sostituzione del personale infermieristico, bensì al suo potenziamento offrendo analisi personalizzate in tempo reale della situazione dei singoli pazienti, con suggerimenti grazie al confronto con ampi database clinici.
Korinek fornisce invece una definizione di massima di quale sia la direzione verso cui governare l’IA, nel “Steering Technological Progress” del 2021. Sarebbe quella delle applicazioni factor-augmenting, in cui un determinato fattore viene migliorato richiedendo minor input nel processo complessivo. È quello che si verifica per diversi tipi di lavoro umano quando affiancati da una applicazione di assistenza di IA. Korinek formalizza tale definizione in termini economico-matematici, per mostrarne la fattibilità astratta in situazioni di mercato competitivo.
Brynjolfsson concorda con Acemoglu nell’individuare l’IA “sbagliata” quella che persegue l’automatizzazione, e con Korinek nel definire quella da promuovere augmentation. Ma nel suo “The Turing Trap: The Promise & Peril of Human-Like Artificial Intelligence” di quest’anno si spinge ben oltre, nel tracciare una lontana origine, ideologica prima che economica, della tendenza in IA all’automatizzare.
Secondo lui è retaggio addirittura della prima idea di intelligenza artificiale, di cui notoriamente Turing fu precursore con il celebre test, in cui un software viene decretato “intelligente” se in grado di sostenere una conversazione con un umano.
In quel test era racchiuso il germe da cui poi sarebbe cresciuta la mala IA, quella che si intestardisce a replicare capacità del tutto banali per l’uomo, come il conversare, predisponendosi quindi a rimpiazzare lavoratori non appena in grado di imitarli nei loro compiti.
Brynjolfsson etichetta proprio HLAI (Human-Like Artificial Intelligence) quella che mira all’automatizzazione, e quindi per lui governare l’IA vuol dire allontanarsi dall’HLAI, smettere di avere come obiettivo primario la replica di aspetti intelligenti dell’uomo, puntando viceversa a compiti che sono facili per le macchine ma difficili per gli umani.
È una prospettiva senz’altro suggestiva, anche se non è chiaro come possa esplicarsi: Brynjolfsson rimane molto generale e non offre esempi. Abbiamo visto come in questo gruppo di economisti sia stato Acemoglu il più dettagliato nel fornire esempi, ma i due raccontati sopra collimano ben poco con quanto teorizza Brynjolfsson.
Sia il supporto agli insegnanti in campo educativo, che il supporto al personale ospedaliero, richiedono applicazioni IA pienamente collocate nell’HLAI. Sia saper decifrare le difficoltà di uno studente che interpretare i disagi di un paziente richiedono raffinata, umanissima, psicologia.
Inoltre, anche se ricondurre a Turing il germe dell’IA “sbagliata” risulta provocatoriamente accattivante, diventa poco credibile quando, al termine del suo articolo, Brynjolfsson ne fa proprio una ricetta di governo, raccomandando letteralmente di sostituire il test di Turing con altri generi di benchmark, orientati a compiti non fattibili per l’uomo.
In realtà, il test di Turing è stato e continua ad essere un’inestimabile fonte di discussione filosofica, ma non è mai stato preso sul serio dalla comunità IA come effettivo benchmark. La competizione internazionale che, a partire dal 1990, ne ha fatto un po’ il verso, era fondamentalmente un divertissment del miliardario americano Hugh Loebner che l’ha istituita e finanziata, inizialmente persino Daniel Dennett ci si era divertito. Ma fu sempre vista con sufficienza dalla comunità dell’IA. Tutt’altra cosa sono le centinaia di benchmark che si sono andati via via affermando come standard valutativi delle varie applicazioni di IA.
La sostituzione come opportunità: i futuristi
Infine l’ultima categoria di posizioni che abbiamo individuato è la più ottimista, l’abbiamo etichettata come futurista in quando i suoi proponenti sono ben consapevoli che lo scenario da loro prospettato non è certo realizzabile in poche settimane.
Non viene affatto negata o minimizzata la sostituzione di posti di lavoro dovuti all’IA, e nemmeno viene richiesto un governare l’IA in modo da evitarlo. Al contrario, questa situazione viene vista come un’opportunità, di grande valore per il progresso dell’umanità verso un futuro non più dipendente dal lavoro, nelle sue forme attualmente codificate. Si tratta tuttavia di una transizione difficile, governare la quale è decisamente più arduo di governare l’IA.
Tutte le odierne società avanzate sono imperniate sull’idea di lavoro come necessità, dovere morale, strumento primario per la realizzazione individuale, oramai culturalmente radicate in modo profondo, pertanto il cambiamento non può che essere lento e difficile.
Lo testimonia, a titolo di esempio per la cultura italiana, un passaggio del “I miei ricordi” di Massimo D’Azeglio, del 1891: “Per questo l’ozio avvilisce ed il lavoro nobilita: perché l’ozio conduce uomini e nazioni alla servitù; mentre il lavoro li rende forti ed indipendenti”.
Per la verità questa nostra categoria dei futuristi trova anche illustri predecessori, il grande Bertrand Russell nel 1935 aveva scritto il pregevole saggio “Elogio dell’ozio”, che introduce dicendo “Io penso che in questo mondo si lavori troppo, e che mali incalcolabili siano derivati dalla convinzione che il lavoro sia cosa santa e virtuosa”.
Tra i primi a proporre una prospettiva futurista legata al progresso dell’IA troviamo Nick Srnicek e Alex Williams. Il loro volume del 2015 non fa mistero nel titolo, “Inventing the future: postcapitalism and a world without work,” che governare la transizione resa possibile dall’IA deve passare per un superamento dell’assetto capitalista. Comprensibilmente un passaggio non da poco.
Meno rivoluzionaria è la strada indicata da Daniel Susskind nel suo più recente “A world without work: technology, automation, and how we should respond”, del 2020, la cui analisi prospetta una decrescita del lavoro non drammatica ma continua.
Pertanto, è improbabile una discontinuità netta e dirompente tra società basate sul lavoro e non, ma anche Susskind individua uno dei problemi principali nell’esigenza di un cambiamento radicale nella concezione odierna del lavoro.
Problema non insormontabile, una volta sfoltito da una serie di false assunzioni, come di un retaggio evolutivo a partire dalle società primitive dove l’attività umana era totalmente assorbita dalla necessità di sopravvivenza. Susskind riporta gli studi dell’antropologo James Suzman sull’occupazione giornaliera di maschi adulti in decine di popolazioni allo stato primitivo, ricavando una media di quasi 19 ore di tempo libero al giorno, contro le 15 godute da un lavoratore tra i 16 e i 64 anni nel 2000 in Inghilterra. In certe popolazioni come Hiwi e Yanomamo le ore medie di tempo libero salgono a ben 21.
Per un buon governo della transizione Susskind postula che, così come ora esistono molte istituzioni che cercano di gestire il mercato del lavoro, occorrerà fomentare la formazione di competenti istituzioni per la gestione del tempo libero della popolazione, in modo da valorizzare questo prezioso bene, man mano che diventerà sempre più disponibile.
Su una linea piuttosto simile si è espresso lo storico Yuval Harari sulle colonne di The Guardian nel maggio 2017, suggerendo come l’evoluzione tecnologica stessa possa fornire valide risposte. all’occupazione di tempo libero con le nuove generazioni di giochi elettronici virtuali.
Pur se il retaggio culturale di cui è gravata l’idea di lavoro rimane l’ostacolo più complesso verso la futurista transizione offerta dall’IA, esiste certamente anche il problema economico: su questo aspetto la soluzione più frequentemente caldeggiata si collega alle proposte filosofiche ed economiche di un reddito garantito, come quello denominato UBI- Universal Basic Income, che ha una sua teorizzazione precedente ed in parte indipendente dalle faccende dell’IA. Un testo classico è quello di Philippe van Parijs e Yannick Vanderborght del 2017, “Basic Income: A Radical Proposal for a Free Society and a Sane Economy”, il principale esponente italiano è l’economista Andrea Fumagalli, autore con diversi collaboratori del recente “Reddito di base. Liberare il XXI secolo”.
Anche l’Italia ha avuto un timido ed edulcorato assaggio di questa innovazione economica con il reddito di cittadinanza introdotto nel 2019: le critiche e antipatie che ha suscitato danno il polso di quanto la transizione prospettata dai futuristi non sarà né veloce né indolore.