L’intelligenza artificiale (IA) è forse la disciplina che ha più goduto degli aspetti strategici dell’epistemologia, alimentando un dibattito che si potrebbe riassumere in “ciò che L’IA fa” e “ciò che L’IA dichiara di poter fare” sulle possibilità di una convergenza asintotica tra naturale e artificiale. Oggi la questione si ripresenta con forza maggiore grazie all’Open IA (ChatGPT e DALL- E2) e al suo straordinario coinvolgimento collettivo.
Big data e ricerca: come comprendere l’intelligenza artificiale con la Filosofia
Proviamo allora a esaminare criticamente il nuovo immaginario IA e le aspettative degli utenti, proponendo una filosofia dell’IA centrata sulla rappresentazione computazionale dei saperi del loro collante culturale e politico sommerso.
Le epistemologie hanno potere.
Hanno il potere non soltanto di trasformare i mondi
ma di crearli. (Nora Berenstain)
L’IA e i suoi confini sempre spostati in avanti
La visione tradizionale del lavoro epistemologico implica una riflessione critica sulla produzione dei saperi, sulla loro struttura e interpretazione, un’attività volta a chiarire la posizione di frammenti di teorie e pratiche all’interno di un tessuto stratificato, più o meno mobile, delle conoscenze, a fissare un rapporto tra la teoria e i fenomeni naturali e sociali. Si tratta in pratica di fornire quello che potremmo chiamare un libretto di istruzioni ideale sugli aspetti cognitivi e le possibilità di senso che la conoscenza ha in relazione al nostro stare al mondo. Un caso esemplare è quello della fisica quantistica, in cui il dibattito interpretativo è stato sin dall’inizio, ed ancora oggi, una forte esigenza interna della teoria che ha preso direzioni altamente formali e informa questioni fondazionali su “cosa c’è la fuori?” e sul “dicibile e indicibile”.
Anche in discipline dove l’esito del dibattito epistemologico non conduce a risultati formali esiste una dimensione interpretativa più o meno implicita, o nascosta, che guida non soltanto l’uso di una teoria ma diremmo anche la sua reputazione. In economia la dimensione implicita è sempre fortissima, perché la scelta di variabili e parametri veicola (e vincola!) un’intera teoria delle relazioni umane e del rapporto uomo natura. La domanda che ci poniamo è se esiste qualcosa di simile per l’IA. Se fissiamo come data di nascita della disciplina il 1956, con i famosi seminari al Dartmouth College, bisogna ammettere che l’IA nasce già con un forte bagaglio culturale fornito dal lavoro di A. Turing sul pensiero delle macchine e di J. Von Neumann sulle analogie strutturali tra sistema nervoso e calcolatori ( e forse si potrebbe risalire fin alla pascalina e all’homme machine): la filosofia dell’ IA è, in generale, un’affermazione sulle capacità dei sistemi di elaborazione dell’informazione di emulare/simulare prestazioni umane.
Si tratta di affermazioni che implicano un modello della cognizione, al punto che nel 1978 le pratiche dell’IA si fondono culturalmente con la più vasta area delle scienze cognitive. Nel 1956 invece gli assunti sulla cognizione umana (M. Minsky: il cervello è una macchina di carne) venivano celati da dichiarazioni programmatiche di iper-performatività computazionale, ritenuti più adatti a catalizzare consensi e finanziamenti. La vecchia IA forte ha sostenuto per un buon numero di anni ruggenti un isomorfismo tra mente e macchina- di volta in volta posizionato a livello simbolico o subsimbolico-, che a ben vedere oggi appare piuttosto ingenuo, anche senza arrivare alla critica della ragione artificiale di Dreyfus o al dibattito tra R.Searle e i coniugi Churchland (Dreyfus, 1992; Searle vs Churchland, 1992) Si arriva così ad una IA debole, connessa alle altre discipline nel “diamante” delle scienze cognitive (fig. 1), e criticamente più consapevole dei limiti dei propri modelli.
Il diamante delle scienze cognitive, da Ignazio Licata, La Logica Aperta della Mente, Codice, 2008
Va detto però che in tutta la sua storia l’IA ha mostrato una forte tendenza alla mitopoiesi e allo slittamento nel futuro dei propri obiettivi/promesse che ne costituisce la filosofia nascosta ma pervasiva, ampiamente indipendente dai successi tecnici al punto da rivelarsi una sorta di propaganda. In fondo è questo che ormai ci si aspetta dall’IA: un confine che si sposta sempre in avanti, affascinante come l’Uomo Bicentenario (C. Columbus, 1999) e inquietante come il Proteus del romanzo di Dean Koontz (1973), trasposto in film qualche anno dopo da D. Cammell, Generazione Proteus (1976). La singolarità di R. Kurzweil è forse l’immagine archetipale di questa soglia critica (non definita) in un futuro (indeterminato) che vedrà l’IA diventare un’entità autonoma e imprevedibile.
Cosa accade in questi giorni in cui tutti parlano di friendly AI (ChatGPT, Dall-E 2)?
Si potrebbe rispondere indifferentemente: molte cose oppure veramente molto poche. Dipende da quale prospettiva osserviamo l’interazione tra gli utenti con i nuovi prodotti IA.
Il Test di Turing e le tartarughe di Valentino
Alan Turing possedeva un genio speciale nel tagliare, o almeno semplificare, i nodi gordiani entro i quali altri studiosi restavano intrappolati. La Macchina di Turing, esemplare fusione di astrazione formale e concretezza meccanica, traduceva le difficili questioni logiche di K. Godel e A. Curch in termini computazionali definendo un nuovo stile di lavoro sulle questioni fondazionali della matematica. La sottile questione della decidibilità diventava: la macchina si ferma o no? Non meno brillante è il famoso test, che mirava a porre la difficile definibilità dell’intelligenza in termini che i fisici direbbero operativi, i.e. data un’interazione dialogica a distanza, ad esempio tramite tastiere, tra un essere umano A e un sistema artificiale X, quest’ultimo sarebbe stato definito intelligente se tale sarebbe apparsa la sua performance all’interlocutore A. In questa semplice situazione sono molte le finezze, tipiche dello stile di Turing, su cui vale la pena soffermarsi.
Innanzitutto va osservato che il test non fa altro che riprodurre ciò che effettivamente accade quando due esseri umani si incontrano. Entrano in gioco, dunque, il tempo di interazione, gli argomenti del dialogo e la soggettività del giudizio. Quest’ultima può essere tradotta in una probabilità secondo l’accezione della scommessa di Bruno De Finetti, ossia una valutazione numerica di verosimiglianza assegnata dal valutatore (De Finetti, 2006). E’ chiaro che con l’aumento del tempo di interazione e degli argomenti la puntata della scommessa potrà subire variazioni positive e negative. In questo modo si evita una generica definizione di intelligenza e si sposta il giudizio su un piano relazionale.
La questione si può riassumere nella domanda: rispetto a chi X è intelligente? Nei primi ’80, quando ero uno studente di fisica, l’avvento dei personal computer e la febbre della programmazione ci portò completamente fuori rotta rispetto agli studi. Ricordo alcuni mesi in cui il mio unico intento era quello di realizzare un programma per produrre haiku (con risultati poche volte ottimi, quando il caso agisce in modo illuminante, ma solitamente deludenti) e programmi di conversazione ispirati alle performance ormai famose di ELIZA. Si trattava di un modello di psichiatra rogeriano messo a punto tra il 1964 e il 1966 da Joseph Weizenbaum, al quale nel 1972 lo psichiatra Kenneth Colby oppose PARRY, un modello di paranoico.
I dialoghi tra i due, come si può immaginare, hanno il sapore di un frammento infelice di Jonesco. Questi esempi dovrebbero farci comprendere che quello che si discute oggi in relazione all’Open IA non è nato in una notte, per citare una frase di Jeff Jonas a proposito dei Big Data. Quello che oggi fa la differenza è l’uso brillante di molte infrastrutture software create per i social. I modelli di Open IA non sfuggono alla legge universale dell’informatica (GIGO: garbage in , garbage out) ma possono aggirarla in un gran numero di modi grazie ad una quantità di risorse informazionali pari, idealmente, all’intera rete.
E’ questo che produce l’effetto straniante che molti utenti ricevono dai nuovi oracoli in sessioni che potremmo chiamare un gioco di Turing globalizzato. Eppure non mancano lavori che mettono bene in evidenza i sempiterni limiti di programmi che adesso scrivono buoni testi in autonomia e riescono a gestire conversazioni assai più articolate e sensate rispetto ai loro nonni ELIZA e PARRY (Floridi & Chiriatti, 2020). Come spiegare allora l’entusiasmo generale?
La storia delle tartarughe robot
La storia delle tartarughe robot può aiutarci a trovare una risposta. Nel suo libro I veicoli pensanti. Saggio di psicologia sintetica ( prima ed.1984,2008) Valentino Braitenberg, uno dei maggiori esponenti della cibernetica in Italia, descrive i suoi esperimenti con dei piccoli robot, somiglianti a tartarughe, in cui aveva incrociato sensori e attuatori in una sorta di chiasma artificiale, termine che in neuroanatomia si riferisce ad uno schema di fasci nervosi incrociati largamente presente nelle forme viventi. I sensori erano delle fotocellule, ma la dinamica che ne derivava era definita dal modo in cui il chiasma era realizzato. Una tartaruga si avvicinava velocemente alla luce per sbatterci contro o si fermava in prossimità, un’altra evitava la sorgente luminosa, oppure si avvicinava per poi allontanarsi rapidamente via. Per un osservatore esterno, ignaro della circuiteria, questi comportamenti potevano essere descritti facendo riferimento ad attitudini cognitive tipicamente umane: amore, odio, curiosità, paura.
E’ evidente l’analogia con il test di Turing e la scommessa di De Finetti: da una parte c’è un comportamento meccanico (come si diceva una volta: un mero comportamento meccanico), dall’altra un osservatore che esprime un giudizio soggettivo su questi comportamenti. Ancora una volta, è una situazione che può applicarsi alle relazioni umane, nessuno di noi conosce il collegamento tra comportamenti e correlati neurali ( nostri o altrui), e il giudizio, più che riflettere una realtà “oggettiva”, è il risultato di una “scommessa” cognitiva. Quello che accade con l’Open IA è l’incontro tra una nuova generazione di prodotti software e gli utenti social, già da tempo normalizzati per interagire con programmi a cui attribuiscono non soltanto intelligenza, ma addirittura consapevolezza e capacità artistiche. E come nel test di Turing originale queste performance ci dicono più sugli utenti che sulle strabilianti caratteristiche di questa nuova generazione di IA.
Come siamo arrivati a questo punto
In ogni articolo o saggio sull’IA arriva il momento di un po’ di pedanteria che fatalmente tende a smorzare gli entusiasmi, ma che permette di vedere più a fondo dentro “le tartarughe”. I generatori di testi dell’Open IA sono modelli linguistici autoregressivi basati su reti neurali con un altissimo numero di parametri che lavora su una memoria molto grande. Non ci interessa in questa sede citare i numeri oggi in gioco, è verosimile che diventeranno molto più grandi tra non molto. Nella fase di addestramento la rete regola i suoi pesi in modo da poter stabilire la massima probabilità di connessione, ad esempio, tra una frase e la parola che segue. Si tratta dunque di uno strumento statistico che può agire a vari livelli sul testo richiesto dal prompt dell’utente. Senza troppo sforzo si può definire un’architettura simile “biomorfa”, almeno rimanendo in uno schema hebbiano d’antan come poteva essere ai tempi di Von Neumann. Quanta intelligenza può raggiungere un sistema di questo tipo?
Arriva adesso la parte pedante. L’ostacolo ai sogni di quella che si chiamava IA forte era dato dalla bassa apertura logica dei sistemi ( Licata, 2018). In altre parole i programmi IA funzionavano molto bene in ambiti semanticamente chiusi, come gli scacchi, dove il movimento del pezzo coincide con il suo significato. Quando si andava in contesti con maggiore apertura logica, dotati di una gamma di significati meno univoca, cominciavano ad intravedersi quel tipo di falle che ognuno di noi ha incontrato nella traduzione automatica. Abbiamo poi preso atto che le traduzioni in rete miglioravano sensibilmente, e se questo avveniva era perché erano già entrati in gioco alcuni di quei sistemi di parsing che oggi sono confluiti nell’open IA.
Quello che le nuove forme di ingegneria del software sono riuscite a fare è di riuscire a trattare la richiesta e l’elaborazione del testo richiesto dal prompt come fosse un sistema semanticamente chiuso, ossia di risolvere una quantità di testo sino a pochi anni fa impensabile in termini sintattici utilizzando forme piuttosto raffinate di gerarchizzazione dei testi reperiti nelle fonti.
La semantica può essere ridotta a sintassi?
Il risultato è notevole, e sposta la questione su un altro piano: la semantica può essere ridotta a sintassi? Ricordiamo che la cognizione umana lavora in un certo senso au contraire, si parte da una richiesta di senso applicata ad una selezione di dati ed eventi, si ipotizzano connessioni e soltanto alla fine si arriva ad una produzione linguistica e testuale, procedimento con un ampio margine di arbitrarietà soggettiva e incertezza che può condurre in fallo (esemplari sono le disavventure epistemiche dell’alter ego dello scrittore in Cosmo di Witold Gombrowicz (Gombrowicz,2004), ma che in altri casi realizza quello che impariamo a individuare come stile e poco ha a che fare con il tessuto esplicito della narrazione, la trama. Naturalmente, dato un autore, lo stile può essere esaminato analiticamente (in fondo è anche questo che fanno critici e filologi), e si scoprirà che è dato da un certo numero di fattori, come l’uso ricorrente di situazioni e immagini, il modo di mettere in rilevo il peso di un termine all’interno di un brano e così via.
Quello che può essere analizzato può essere modellizzato e simulato, e non è escluso che in futuro le nuove forme di IA potranno produrre testi articolati con un sapore dato. Arrivati a quel punto la sfida già in corso tra programmi generatori di testo e programmi che individuano l’artificiale, in una nuova versione del test di Turing, diventerà assai ardua, e va detto che per il momento il punteggio è decisamente a sfavore degli smascheratori. Ma la questione sintassi/semantica difficilmente può essere risolta da future performance. Il motivo è che, da un punto di vista sistemico, la cognizione umana è un amplificatore di informazione in virtù di processi ininterrotti di rottura di simmetria che corrispondono all’emergenza di nuovi domini di significato; questo implica forte dissipazione (una distruzione di gran parte dell’informazione pregressa accumulata) e avviene in interazione con l’ambiente.
In questo quadro la memoria è una funzione dinamica, non un deposito passivo di informazione conservata, e questo è il motivo per cui il miglior modello della cognizione umana è offerto dalla super-rete neurale del Quantum Brain in cui i nodi si distruggono e si accendono continuamente, modello che utilizza un formalismo preso a prestito dalla teoria quantistica dei campi (Vitiello, 2001; 2008). E’ interessante ricordare che un modello di questo tipo permette una descrizione dei qualia (Humphrey, 2007), stati soggettivi legati al rapporto dinamico tra corpo e ambiente, e questo ci rimanda alla grande lezione dell’embodied cognition per cui non soltanto non c’è cognizione senza la complessità di un corpo immerso in un ambiente(Gibson, 2014), ma la dimensione emotiva- al di là delle chiacchiere new age- non può più essere considerata una nebbia che offusca la ragione cristallina, ma di quest’ultima è il motore da cui emerge l’intenzionalità. Durante una conferenza pubblica l’autore si è visto opporre come esempio della consapevolezza dell’IA un testo sulla paura. L’algoritmo aveva svolto onestamente il suo lavoro e aveva concluso che per una macchina la paura consisteva nell’essere spenta! L’interlocutore del pubblico, forse inconsapevolmente, aveva evocato una mezza dozzina di questioni filosofiche su riferimento e denotazione, ma una descrizione della paura non è avere paura.
Tanto basta per la nostra dose di pedanteria, il cui obiettivo non è quello di stabilire oggi cosa potrà fare domani un possibile algoritmo definitivo ( Domingos, 2016), ma suggerire di tenere a mente che un elaboratore di testi non è un sistema ad alta apertura logica, anche se la reazione dell’osservatore può andare in altro senso (Sipper et al. 1999). Piuttosto, in epoca di forte omologazione verso il basso, va tenuto presente il monito espresso da Walter Siti in un suo recente articolo dal titolo: La società in cui gli scrittori pensano come ChatGpt (Domani, 27 Febbraio 2023). Ci siamo concentrati sui testi e non abbiamo parlato di Dall-E2 perché in quest’ultimo scenario i vestiti nuovi mostrano la loro totale assenza e il giochino è fin troppo scoperto. Assieme ad una generale lontananza dalla comprensione del fatto artistico da parte degli utenti, per cui, parafrasando Siti, si potrebbe dire: la società in cui i non artisti pensano di poterlo diventare con Dall-E2.
La sfida e le benefiche virtù dell’incertezza
Torniamo all’inizio del nostro percorso, alle questioni epistemologiche, non prima di aver dissipato l’impressione evocata verosimilmente in qualche lettore di essere autori di articolo “critico” nei confronti delle sorti magnifiche e progressive aperte dalle nuove forme di IA. Non è così.
Ci siamo concentrati sul machine learning per il natural language processing perché è quello che sta ottenendo la più alta attenzione mediatica, cosa del resto comprensibile poiché la comunicazione e lo scrivere nel web sono ingredienti costitutivi della nostra natura quanto la scrittura tradizionale. Inoltre ci ha offerto un’idea semplice della caratteristica davvero rivoluzionaria di questo modo di fare IA: per la prima volta, in modo evidente per tutti, si è compreso che l’IA non è un qualcosa che sta dentro una scatola magica (software o hardware), ma una risorsa di rete estremamente complessa, che emerge dall’interconnessione a più livelli di una molteplicità di agenti, uno scenario non troppo dissimile da quello delineato da Marvin Minsky anni fa in La società della mente (Minsky, 1986), e da F. Heylighen alla fine degli anni ’90 (Heylighen e Bollen, 1996).
Non si tratta di un’intelligenza simile a quella umana (molti umani hanno sempre più difficoltà a superare il test di Turing nel riconoscere l’algoritmo e l’artificiale), e le questioni della embodied cognition, dell’autorappresentazione e la coscienza seguono per il momento altre linee teoriche (Chella ed al. 2008; Chella e Manzotti, 2007), ma al di là del clamore, i risultati sono di grande rilevanza e oggi si può soltanto intravedere il potenziale impatto sulla vita e il lavoro.
Pensiamo a tutto quello che può essere standardizzato attraverso le procedure informatiche, dalla selezione del personale all’accesso al welfare, l’allocazione di risorse, le procedure giuridiche e l’attivazione di sistemi d’arma(ma tante altre se ne potrebbero citare). L’idea oggi dibattuta della giustizia predittiva è contenuta già in nuce nella prima cibernetica (Wiener, 1968) ed è basata su premesse “molto ragionevoli”: il recupero di leggi e sentenze, la messa a punto di strategie legali (il caso recente di DoNotPay), la produzione di atti e l’archiviazione, ma appena al di là dell’efficienza si trovano questioni spinose, emblematiche dell’intera sfera dall’IA applicata ad aree sensibili della vita umana. La questione della recidività di un condannato, ad esempio, difficilmente può essere delegata ad un sistema artificiale, rischiando così di diventare una caricatura di Minority report (Spielberg ,2002 da PK Dick, 1956). Infatti esiste per giustificare questa cautela una ragione di carattere generale, il teorema di Arrow sull’impossibilità delle scelte univoche dove ci sono interessi plurali e contrapposti, che può essere ulteriormente declinato tenendo conto che sistemi fortemente interconnessi possono mettere assieme una pluralità di ritratti di ciascuno di noi, a seconda dei tipi di interazione che abbiamo in rete, ma difficilmente ci riconosceremo in quelle rappresentazioni “zippate” e parziali; tra l’una e l’altra ci sono più cose in cielo e in terra di quante non ne conosca la filosofia dell’algoritmo.
Non si tratta dell’ennesima riproposizione del mito dell’ineffabile umano (almeno per quest’autore), ma di riconoscere che i processi cognitivi non sono meri sistemi dinamici, hanno una storia fatta di biforcazioni, sovrapposizioni, crisi, mutazioni, interpretazioni e scommesse individuali ed è su questa linea d’ombra di complessità che ogni giudizio, a cominciare da quello del diritto, tende a conservare un principio di ricerca del giusto nel legale (Romano, 2012; 2018; Miceli, 2023). Si potrebbe obiettare che in tal modo si abdica ad una giustizia trasparente per restare all’interno dell’errore e dell’incertezza, obiezione che potrebbe essere accolta come corretta, ma va controbilanciata all’interno di una consapevolezza più ampia che riguarda ogni forma di giudizio umano, quella di essere figlio del tempo, sovradeterminato dai paradigmi valoriali, culturali e politici, e sotto determinato dalle vicende individuali contingenti che convergono nella questione da giudicare, radicato in conflitti permanenti e indecidibili (Star e Bowker, 2007).
L’incertezza diventa in questo caso la possibilità di porsi al di fuori e prima di ogni “certezza” in modo da reinstaurarla o ricostruirla da zero. Questo modo di pensare può trovare conferma proprio nell’universo della matematica, all’interno della quale provengono gli algoritmi. Appare infatti sempre più chiaro, a partire dal dibattito sui fondamenti dopo la lettura di G. Chaitin dei teoremi di Gödel, che la matematica è un sistema aperto, soggetto a processi tellurici di riassestamento, possibilità interpretative, e biforcazioni di sviluppi formali. Questo perché i matematici non sono manipolatori di simboli, ma assegnano a quei simboli un senso ed è questo che rende l’attività del matematico affascinante, difficile e bella (Lolli, 2022; Longo, 2021).
Pur restando lontani da giustificazioni fondazionali, va notato che i nuovi modelli di IA di rete, a causa della loro complessità, rendono estremamente opache le procedure di selezione, categorizzazione e gerarchizzazione dei dati, le scelte di ragionamento e dunque la formazione dei concetti che stanno alla base delle performance del sistema.
Attualmente nell’Open IA confluiscono dati istituzionali e privati, in parte anche ottenuti da procedure di marketing, ed è verosimile che per molti aspetti le cose resteranno così, compatibilmente con le direttive economiche che regolano il rapporto tra istituzioni e aziende. Questa opacità nasconde il vero status epistemologico dell’IA, quello di un’ingegneria globale della conoscenza che sistematizza fatti, teorie e scelte politiche (priorità culturali, direttive economiche, definizione di classi di soggettività, tutele sociali), nella gigantesca opera di costruire una rappresentazione del mondo delegata all’autorità di un oracolo infallibile e con l’impatto sociale di un golem. Per contro, è qui che un’epistemologia dell’IA si definisce come una critica permanente della rappresentazione algoritmica dei saperi, un’analisi delle ideologie implicite, attività che si svolge nel territorio dell’incertezza e del conflitto, prima di ogni scelta e categorizzazione (Mitchell, 2022; Numerico, 2021; Crawford, 2021).
Conclsuioni
Nel 2017, in una delle sue ultime apparizioni pubbliche, Stephen Hawking tornò su uno dei suoi temi favoriti, la pericolosità di un effetto Proteo da parte di un’IA sempre più raffinata e articolata. Se nella sua forma letterale la profezia di Hawking appare quanto meno assai lontana, va considerata la versione più pragmatica che ne ha offerto recentemente H. Kissinger (Kissinger et al.,2022). Già oggi, assai prima di ogni singolarità, è ipotizzabile che gruppi di cyberterroristi possano gestire risorse IA in modo destabilizzante, questione che si aggiunge al già gravoso carico di un mondo complesso (Floridi, 2022; Tehrani, 2021). Un certo gusto trascendente e apocalittico ha sempre fatto parte della narrazione dell’IA centrata sui futuri possibili, ma la presenza ormai pervasiva delle nuove forme di IA, la loro straordinaria potenza e la crescita accelerata ci interrogano culturalmente e politicamente su questioni che si trovano al di là dell’algoritmo.
Bibliografia
Braitenberg, V. I veicoli pensanti. Saggio di psicologia sintetica, Mimesis, Milano- Udine, 2008
Chella, A. Integrazione, autoadattamento e coscienza artificiale, Sistemi Intelligenti, 3, 2008
Chella, A., Manzotti, R. (Eds) Artificial Consciousness, Imprint Academic, 2007
Crawford, K. Né intelligente né artificiale. Il lato oscuro dell’IA, Il mulino, Bologna,2021
De Finetti, B. L’invenzione della verità, Raffaello Cortina, Milano, 2006
Domingos, P. L’algoritmo definitivo, Bollati Boringhieri, Torino, 2016
Dreyfus, H. What Computers Still Can’t Do: A Critique of Artificial Reason, MIT Press, 1992
Floridi, L., Chiriatti, M. GPT-3: Its Nature, Scope, Limits, and Consequences, Mind and Machines, 30, 681–694 (2020)
Floridi, L., Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide, Raffaello Cortina, Milano, 2022
Gibson, J. J. L’approccio ecologico alla percezione visiva, Mimesis, Milanoi- Udine, 2014
Gombrowicz, W. Cosmo, Feltrinelli, Milano, 2004
Heylighen, F. , Bollen, J. The World-Wide Web as a Super-Brain: from metaphor to model, in Cybernetics and Systems ’96 R. Trappl (ed.), Austrian Society for Cybernetics, 917-922, 1996
Humphrey, N. Rosso. Uno studio sulla coscienza, Codice, Torino, 2007
Kissinger, H., Schmidt, E., Huttenlocher, D. The Age of AI: And Our Human Future, Hodder And Stoughton, 2022
Licata, I. La logica aperta della mente, Codice edizioni, Torino, 2018
Lolli, G. Matematica in movimento. Come cambiano le dimostrazioni, Bollati Boringhieri, Torino, 2022
Longo, G. Matematica e senso, Mimesis, Milano-Udine, 2021
Miceli, M. Il processo artificiale, Un ragionevole dubbio sugli algoritmi in tribunale, Divergenze, Pavia, 2023
Minsky,M. La società della mente, Adelphi, Milano, 1986
Mitchell, M. L’intelligenza artificiale. Una guida per esseri umani pensanti, Einaudi, Torino 2022
Numerico, T. Big data e algoritmi. Prospettive critiche, Carocci, Roma 2021
Romano, B. Algoritmi al potere. Calcolo giudizio pensiero, Giappichelli, Torino 2018
Romano, B. Forma del senso. Legalità e giustizia, Giappichelli, Torino 2012
Searle vs Churchland: Searle, J. R., La mente è un programma?; Churchland, P.M. & P.S., Può una macchina pensare? In Mente e macchina (a cura di G. Lolli), Quaderni Le Scienze, 1992
Sipper,M. Ronald, E. M. Capcarrère, M. S. Design, observation, surprise! A test of emergence, Artificial Life, 5(3):225-3, 1999
Star, S. L., Bowker, G. C. Enacting silence: Residual categories as a challenge for ethics, information systems, and communication, Ethics and information Technology, 9, 273–280 ,2007
Tehrani, P. M., Cyberterrorism: The Legal and Enforcement Issues, World Scientific, 2021
Vitiello, G. Essere nel mondo: io e il mio doppio, Atque, 5, 155-176 2008
Vitiello, G. My Double Unveiled: The dissipative quantum model of brain, John Benjamins Publishing, 2001
Wiener, N. La cibernetica: Controllo e Comunicazione nell’animale e nella macchina”, Il Saggiatore, Milano, 1968
Ignazio Licata è fisico teorico ed epistemologo presso l’ISEM, Institute for Scientifics and Ethics Metodology (Palermo). Si occupa di fondamenti della Fisica quantistica, Cosmologia, Fisica dell’emergenza e Teoria della Computazione. Tra i suoi ultimi libri: La Resistenza del Mondo. Connessioni (in)attese tra scienza ed arte (Divergenze, 2020), Arcipelago. Una mappa per rileggere il nostro mondo
e individuare nuovi strumenti di liberazione (Nutrimenti, 2023)