Le leggi della robotica di Asimov hanno ancora validità nell’era della quarta rivoluzione industriale, con lo sviluppo dell’intelligenza artificiale e della digitalizzazione?
La questione è il perno dell’ultimo libro di Frank Pasquale, docente alla Brooklyn Law School ed esperto di diritto di IA, dove, fin dal titolo, “New laws of robotics: defending human expertise in the age of AI”[1], se ne propone un aggiornamento e una revisione.
Lo scrittore di fantascienza Asimov elaborò negli anni Quaranta del 1900 le tre leggi partendo dall’assunto che se una macchina, come appunto un robot, fosse stata progettata bene, non avrebbe presentato alcun rischio tranne quelli relativi ad un uso improprio. Poi le riscrisse, anteponendo come premessa la Legge Zero, che postula come un robot non possa recare danno all’umanità e non possa permettere che, a causa del proprio mancato intervento, l’umanità riceva danno.
I robot sono da tempo dentro i nostri sistemi produttivi e dentro le nostre società e lo saranno ancora di più domani; ci ruberanno il lavoro, resta da definire quanto e in che tempi; sicuramente ci esproprieranno ancora di più (e noi ci lasceremo felicemente espropriare) della capacità, della possibilità e dalla consapevolezza (un tempo umane) di valutare e di decidere autonomamente e responsabilmente sul cosa fare e come.
Anche i robot sono cambiati, ma hanno ancora bisogno dello sfruttamento cinico, ben mascherato da gioco e intrattenimento, del nostro lavoro gratuito, del lavoro di molti Turchi meccanici distribuiti nel mondo.
Ne conseguono due trasformazioni in corso: da un lato, l’antropoformizzazione delle macchine, macchine-divinità a cui vengono attribuite caratteristiche e qualità umane; dall’altro, la sussunzione dell’uomo nella macchina, ovvero la ricomprensione dell’esperienza umana nell’ambito più generale della macchina, con le conseguenti dinamiche di formattazione e meccanizzazione/digitalizzazione.
Cosa prevedono le leggi della robotica di Asimov e perché oggi sono insufficienti
Da zero a tre, ecco il testo delle Quattro Leggi della robotica secondo Asimov:
0. Un robot non può recare danno all’umanità, né può permettere che, a causa del proprio mancato intervento, l‘umanità riceva danno;
1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva un danno (purché questo non contrasti con la Legge Zero);
2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Legge Zero e alla Prima Legge;
3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Legge Zero, la Prima Legge e la Seconda Legge.
Il primo problema, è stato presupporre ingenuamente delle Leggi-Principi etici/morali che sarebbero capaci di im-porsi a delle macchine, ma soprattutto a quella entità, quasi soprannaturale/metafisica, che chiamiamo tecnica, cioè l’insieme delle tecnologie ma soprattutto la razionalità strumentale/calcolante-industriale che le governa.
La tecnica (come il capitalismo) è in sé priva di principi morali e rifugge da ogni etica, vista semmai come intralcio e tempo morto che non genera profitto: da qui, il nostro credere che la tecnica sia razionale, perché non governata da passioni e valori morali umani. Basato quindi su una razionalità meramente calcolante e strumentale, il tecno-capitalismo (tecnica più capitalismo) non si pone problemi etici, se non quello dell’efficienza e del proprio incessante accrescimento.
A meno che gli uomini non governino i processi tecnici e capitalistici con consapevolezza del loro svolgersi e dei loro effetti sociali, politici e antropologici: li subordinino quindi al raggiungimento di fini umani come la giustizia sociale, l’equità e la solidarietà, la responsabilità verso la biosfera e le future generazioni.
Una consapevolezza che però sempre più gli uomini si rifiutano di avere e di esercitare, preferendo vivere in una società automatizzata/amministrata, anche a costo di perdere la libertà, che diminuisce quanto più si delega la valutazione e la decisione ad altro da sé, alienandosi da sé.
Il secondo problema è che la tecnica vive e si riproduce/accresce in macchine sistemiche sempre più grandi, sulla base del proprio intrinseco principio di convergenza e di norme proprie e autoreferenziali, ritenute in sé efficienti e sufficienti perché razionali, anche quando sono irrazionali e socialmente e ambientalmente insostenibili. Norme che quindi tendono a creare un contro-diritto e un contro-sistema normativo rispetto alla legge (per non parlare dell’etica), capace di aggirare/bypassare la legge.
La norma, scriveva il filosofo Michel Foucault[2] , è sempre vincolante proprio perché norma, ovvero normalizza i comportamenti: impone ripetizione, standardizzazione, automatismi comportamentali basati sul meccanismo dello stimolo/risposta. Le norme della tecnica diventano quindi normalità di comportamento, comportamento normalizzato/conformato/formattato e, di conseguenza, non sono più percepite come vincolanti e prescrittive.
È un meccanismo di ingegnerizzazione comportamentale che parte dalla fabbrica di spilli di Adam Smith, passa dalla organizzazione scientifica del lavoro di Taylor, dalla moda e dal marketing e arriva al taylorismo digitalizzato dell’Industria 4.0, con le sue piattaforme, i social network, gli algoritmi predittivi. La legge è generale, astratta ma evidente e percepita come legge: la norma è invisibile ma più vincolante e prescrittiva della legge.
Di più: i robot dotati di IA obbediscono sempre meno agli ordini umani ma tendono a porsi come sistemi autopoietici, dove ciò che crea l’ordine, anche un algoritmo di machine learning, diventa oggetto dell’ordine che ha creato, in un loop automatico di riproduzione all’infinito che prescinde da un soggetto che lo governi o da un’etica che lo finalizzi. Oppure, come sistemi autotelici, a riproducibilità automatica della propria struttura e delle norme del proprio funzionamento. Alla ricerca dell’Algoritmo Definitivo, ovvero capace di estrarre tutte le informazioni dai dati e di fare tutto ciò che vogliamo, persino prima di chiederlo o volerlo[3].
La tecnica vive quindi tendenzialmente ed essenzialmente di norme proprie, non sopporta la legge e semmai tende a sovrapporre e a sovra-ordinare la propria forma e le proprie norme all’intera società[4]: pensare che ci siano delle Leggi capaci di governare eticamente/moralmente i robot, e credere che i robot le osservino e quindi si autolimitino è quindi una contraddizione in termini, o una espressione di infantilismo adulto.
Lo storytelling del sistema tecno-capitalista non lo permette, ma per governare la robotica e i robot occorrerebbe uscire, ex ante, da questa razionalità strumentale/calcolante-industriale molto irrazionale e anti-umanistica che tuttavia è diventata oggi la Norma Suprema o, per citare il sociologo Max Weber, la gabbia d’acciaio comportamentale e motivazionale anche della robotica, o meglio del sistema tecno-capitalista di cui la robotica è uno degli elementi.
Occorrerebbe quindi recuperare un pensiero meditante/meditativo, umanamente razionale ed eticamente responsabile: un pensiero che, a sua volta, presuppone un’etica e soprattutto una consapevole e responsabile predisposizione – e poi utilizzo – dei mezzi tecnici per raggiungere i fini consensualmente e democraticamente deliberati.
Le leggi della robotica riscritte da Frank Pasquale: basteranno nel tecnocapitalismo?
Frank Pasquale riconosce, nella propria analisi, l’ambiguità delle Leggi asimoviane e propone quattro nuove Leggi della robotica, dirette però esplicitamente a coloro che costruiscono i robot e non ai robot in sé. Altrettanto ambigue, riconosce lo stesso Pasquale, di quelle di Asimov.
Di seguito gli enunciati:
- I sistemi robotici e l’IA dovrebbero integrare i professionisti, non sostituirli
- Ovvero, un’agenda davvero umana per il governo dell’automazione dovrebbe dare priorità a quelle innovazioni che completano i lavoratori in lavori che sono, o dovrebbero essere, vocazioni appaganti;
- I sistemi robotici e l’IA non dovrebbero contraffare/imitare l’umanità
- Posto che vi è una sostanziale differenza tra la tecnologia umanizzante e la contraffazione delle caratteristiche distintamente umane: l’esempio è l’affective computing, che analizza e simula le emozioni umane, dedicato a rendere sempre più difficile la distinzione tra umani e macchine;
- I sistemi robotici e l’IA non dovrebbero intensificare la corsa agli armamenti a somma zero;
- I sistemi robotici e le IA devono sempre indicare l’identità dei loro creatori, controllori e proprietari ovvero: “Le persone sono responsabili dei sistemi robotici o algoritmici [5]
Vi è infatti, sottolinea Pasquale, una nozione nebulosa di robot ‘fuori controllo’ che sfuggono al loro creatore. Forse sono gli incidenti sono inevitabili ma, continua, qualcuno dovrebbe esserne responsabile altrimenti il sistema IA-robotica potrebbe essere pericoloso quanto la bioingegneria non regolamentata dei virus.
Secondo Pasquale, questo sistema di Leggi della robotica, che forse sarebbe più corretto definire Principi, se non sembrassero soprattutto delle forme di ethics-washing, porterebbe maggiore complementarietà tra uomini e macchine, maggiore autenticità e maggiore cooperazione. Sempre avendo come base di riferimento la distinzione fondamentale tra tecnologia che rimpiazza, sostituisce persone e la tecnologia che le aiuta invece a svolgere meglio il proprio lavoro.
Nuove leggi della robotica, o nuovi principi, urgenti e necessari. Per tutti? No, rispondono i tecnofili, la Silicon Valley e simili, per cui il mondo dell’AI è troppo in movimento per pensare di porre regole e leggi vincolanti.
E tuttavia, per evitare che il sistema dell’AI ci sfugga di mano e imponga le sue norme a nostra insaputa, vale aggiungere alle riflessioni di Pasquale ciò che scriveva a suo tempo un grande analista dei sistemi tecnici come Jacques Ellul, e cioè che ogni nuovo elemento tecnico, ogni nuova innovazione tecnica è solo un mattone dell’edificio dell’apparato, un ingranaggio del sistema tecnico. Il punto è, ci ricorda Ellul, che l’uomo rifiuta radicalmente di conoscere il processo tecnico, e ponendo la questione in termini metafisici e assoluti, si convince che tutto sia ancora possibile e che il nuovo fattore tecnico sia liberatore. Così tranquillizzato lascia progredire il meccanismo e poi, quando vede il risultato, dice: ‘Ma questo non era ciò che avevamo previsto’. Ma purtroppo, ormai il danno è fatto[6].
In un sistema democratico, è quindi semmai rafforzato il dovere di porre norme etiche che siano antitetiche a quelle del sistema tecno-capitalista, per poter controllare le norme con cui invece funziona, e ci fa funzionare, a nostra insaputa, la tecnica. Come conferma Pasquale, non appena gli algoritmi, specialmente quelli robotici, avranno effetti nel mondo, dovranno essere regolati e i loro programmatori soggetti a responsabilità etica e legale per i danni che causano.
Ma sono sufficienti le sue nuove Leggi della robotica? Abbiamo molti dubbi: su questo tema rimandiamo alla necessità, ancora maggiore oggi, di ri-pensare alla democrazia economica (dimenticata da troppo tempo, sopraffatta dal pensiero neoliberale che impone un modello di impresa autocratica e monocratica, ma anche integrata e monistica); e di pensare a una forma di democrazia tecnica, soprattutto dei processi di innovazione tecnica e del loro imporsi sulla società come dati di fatto immodificabili e ineluttabili[7].
Noi, “Turchi meccanici” al servizio dell’intelligenza artificiale
Per raggiungere l’intelligenza artificiale, il sistema sfrutta cinicamente il lavoro dei cosiddetti “Schiavi del clic”, titolo italiano del famoso saggio del sociologo Antonio Casilli “En attendant les robots”. Sottotitolo: “Perché lavoriamo tutti per il nuovo capitalismo”[8].
L’intelligenza artificiale (sic!) è generata in realtà da milioni di persone, una sorta di marxiana fabbrica diffusa oggi rinominata come lavoro della folla e insieme di lavoro a domicilio semi-schiavistico, cioè di lavoratori reclutati a basso prezzo per leggere e filtrare commenti, classificare le informazioni e così aiutare gli algoritmi ad apprendere.
Un lavoro che diventa addirittura gratuito quando a compierlo sono i consumatori e i navigatori in rete, cioè tutti noi, diventati, non più solo forza lavoro del capitalismo, ma anche i mezzi di produzione: produzione di Big Data e quant’altro utile alla costruzione dell’intelligenza Artificiale e della profilazione per lo spionaggio commerciale e statale di massa.
Il massimo dell’innovazione, l’intelligenza artificiale, viene ottenuto con il massimo dello sfruttamento e dell’autosfruttamento del lavoro e della vita di ciascuno da parte del capitale. Un paradosso? No. Perché questa è la forma e la norma di funzionamento del tecno-capitalismo, dall’inizio della rivoluzione industriale fino ad oggi.
Casilli ci aiuta ad esplorare le strategie e le modalità (le norme del tecno-capitalismo) che violano qualsiasi legge, qualsiasi etica ma anche qualsiasi Legge della robotica (di Asimov e di Pasquale) e qualsiasi concetto di giustizia (sociale, ma anche civile).
Per produrre l’intelligenza artificiale in realtà il sistema usa, ancora e come sempre, la sua legge ferrea fatta di parcellizzazione crescente e di conseguente dequalificazione del lavoro, come ricorda anche la sociologa Dominique Méda nella sua Postfazione al libro di Casilli[9] ,per poi meglio integrare/sussumere nel sistema ciascuna parte di lavoro e di vita prima parcellizzata e dequalificata.
Tutto ciò si traduce in una nuova fase digitalizzata di fordismo-taylorismo, con Amazon, Facebook, Uber e Google che ci inducono a generare comportamenti produttivi h 24. E dove, quindi, il vecchio/nuovo pluslavoro marxiano, dove il salario copriva solo una parte del lavoro svolto, tutto il resto era/è appunto pluslavoro per il profitto/plusvalore del capitalista, diventa pluslavoro totale, sostanzialmente gratuito.
Casilli scrive che, come Godot, anche i robot non arrivano mai. Sono solo una promessa trascendente che ha l’effetto del tutto immanente, di disciplinare il lavoro di chi foggia le nostre app, le nostre soluzioni smart, i nostri algoritmi[10].
Ne è un esempio il microlavoro, il digital labour che si incontra nel capitalismo delle piattaforme: una forma di lavoro che richiama, scrive Casilli, l’automa giocatore di scacchi, vestito da ottomano, che il barone von Kempelen aveva presentato alla corte imperiale di Vienna nel 1769. Il primo esempio di “intelligenza artificiale” che, per funzionare, aveva bisogno di un essere umano al suo interno.
Mistificazione circondata da misteri e incertezze, la storia del “Turco meccanico” illustra in maniera perfetta la centralità del lavoro umano nel funzionamento delle macchine. Non sorprende perciò, conclude Casilli, che Amazon si sia ispirata al celebre automa per dare un nome alla sua piattaforma di microlavoro, Mechanical Turk[11].
Rispetto al vecchio taylorismo, aggiunge Méda, per delegare a moltitudini di utenti-lavoratori delle mansioni precise, è necessaria una parcellizzazione ancora più minuziosa del lavoro, che rende massimamente rapida ed economica una catena globale di montaggio composta da individui fisicamente dislocati, impegnati nella realizzazione ripetitiva di sub-segmenti di attività[12].
La rete è la nuova catena di montaggio, ma globale e diffusa[13]. E quindi, sottolinea Méda, piattaformizzazione e parcellizzazione si associano per precarizzare e svuotare di senso il lavoro. Il digital labour non è circoscritto a certe forme marginali di lavoro esternalizzato, ma si presenta in svariate forme: sottopagato nelle click-farm, dove ritroviamo logiche di sfruttamento coloniale, ma anche nei paesi sviluppati, sui social network in forma di lavoro gratuito che genera sempre più lavoro di quanto ne costi. Perché tutto ciò che gli utenti realizzano per passione sui social e che considerano svago, per Casilli è indubbiamente lavoro.
Per uscire da questa condizione di sfruttamento mascherato e di fabbrica integrata globalizzata di cui tutti siamo proletari, allora non bastano certo le quattro leggi della robotica di Asimov, smentite dalla storia del tecno-capitalismo, né le leggi della robotica di Pasquale, troppo deboli, rispetto alla pre-potenza della norma tecno-capitalista.
Serve altro e di più. Serve una consapevolezza diffusa di questi processi di intelligenza artificiale e non solo[14]. Serve cioè un pensiero critico meditante/meditativo/riflessivo e soprattutto analitico. Per farlo, dovremmo ad esempio ridare un senso alle parole e così forse capire che la quarta rivoluzione industriale di cui tutti magnificano le forme innovative e le sorti progressive è in realtà analoga alla prima, anche se digitalizzata. Dove accanto ai robot-umanizzati/antropomorfi, esistono uomini-robot totalmente disumanizzati e macchinizzati.
____________________________________________________________________________________________
- F. Pasquale (2020), “New laws of robotics: defending human expertise in the age of AI”, Harvard University Press (anche in e-book) ↑
- Cfr., M. Foucault (2008), “Sorvegliare e punire”, Einaudi, Torino ↑
- P. Domingos (2016), “L’Algoritmo Definitivo”, Bollati Boringhieri, Torino ↑
- G. Anders (2003),” L’uomo è antiquato”, vol. II, Bollati Boringhieri, Torino, pag. 99 ↑
- Su questo punto, rinviamo al nostro precedente contributo uscito su queste pagine: https://www.agendadigitale.eu/cultura-digitale/crisi-del-lavoro-il-problema-non-e-il-covid-ma-chi-governa-i-processi-di-innovazione/ ↑
- J. Ellul (2017) (a cura di C. Coccimiglio), “Sistema, testimonianza, immagine. Saggi sulla tecnica”, Mimesis, S. S. Giovanni-Udine, pag. 42 ↑
- L. Demichelis (2020), “Tecnologia, capitalismo e/o democrazia: la lezione di Luciano Gallino” – https://www.economiaepolitica.it/il-pensiero-economico/tecnologia-capitalismo-e-o-democrazia-la-lezione-di-luciano-gallino/ ↑
- A. Casilli (2020), “Schiavi del clic. Perché lavoriamo tutti per il nuovo capitalismo”, Feltrinelli, Milano ↑
- D. Méda, Postfazione a A. Casilli, “Schiavi del clic”, cit., pag. 263 ↑
- A. Casilli (2020), “Schiavi del clic”, cit., pag. 10 ↑
- Ivi, pag. 105-106 ↑
- Ivi, pag. 263 ↑
- L. Demichelis (2008), “Bio-Tecnica. La società nella sua ‘forma’ tecnica”, Liguori, Napoli ↑
- Utilissimo è, in questo senso: A. Longo – G. Scorza (2020), “Intelligenza artificiale. L’impatto sulle nostre vite, diritti e libertà”, Mondadori Università, Milano ↑