l'approfondimento

Pensiero digitale e pensiero umano: una questione ontologica

Gli algoritmi generativi non possono avere un mondo dentro di loro, ma neppure i soggetti umani i cui testi sono stati usati per addestrare l’IA. E quindi? Se l’IA vuole pensare deve risolvere il problema del contenuto

Pubblicato il 13 Apr 2023

Riccardo Manzotti

Ordinario di Filosofia Teoretica, IULM, Milano

shutterstock_2245183781 (1)

La diffusione di algoritmi generativi come ChatGPT, che appaiono in grado di elaborare contenuti originali, pone interrogativi di fondo sulla natura dal pensiero.

Ci sono due alternative: il pensiero come attività combinatoria o come manifestazione dell’esistenza. L’intelligenza artificiale si è finora mossa in un piano ontologico poco chiaro di entità reificate (in mancanza di altro): informazione, computazione, pensiero e intelligenza. Sono entità ontologiche o epistemiche? La computazione è pensiero? Il pensiero senza significato è vero pensiero?

Come la macchina ci trasforma: l’approccio post-umanista per capire il presente

Algoritmi e intelligenza umana

Gli algoritmi generativi – per esempio, ChatGPT – generano contenuti sulla base della struttura statistica dei dataset a partire dai quali sono stati addestrati. Questa capacità si rivela sorprendente e, in molti casi, esibisce un comportamento tale da suggerire la presenza di un pensiero intelligente. In realtà, un’analisi attenta è in grado di evidenziare le differenze che ancora separano questi algoritmi e i loro prodotti dalle capacità normalmente associate all’intelligenza umana. Ma le competenze per tale analisi sono progressivamente più sofisticate e, soprattutto nel caso di contenuti testuali, cominciano a non essere in grado di differenziare tra esseri umani e IA. La qualità dei contenuti prodotti è tale che già oggi gli algoritmi generativi non sono più soltanto una curiosità, ma stanno sostituendo molti servizi classici e mettono in discussione veri e propri pilastri dell’infosfera come Google Search o Microsoft Bing che si ritenevano insostituibili (Rogers 2023).

Da un lato gli algoritmi generativi mostrano capacità fino a ieri prerogative solo degli esseri umani, dall’altro ci sono evidenze empiriche che mostrano come la capacità cognitiva degli essere umani si sia livellata verso il basso (Gigerenzer 2022). Come scriveva Antonio Gramsci oltre un secolo fa (con incredibile preveggenza), «[b]isogna disabituarsi e smettere di concepire la cultura come sapere enciclopedico, in cui l’uomo non è visto se non sotto forma di recipiente da empire e stivare di dati empirici; di fatti bruti e sconnessi che egli poi dovrà casellare nel suo cervello come nelle colonne di un dizionario per poter poi in ogni occasione rispondere ai vari stimoli del mondo esterno» (Gramsci 1916/2017: 105). Eppure questo destino di essere semplici punti di trasmissione di informazioni già pronte tratteggiato dal filosofo di Ales è molto simile alla condizione umana dopo anni di copia e incolla grazie ai motori di ricerca. L’unica differenza è verso il basso. A differenza dell’uomo ridotto a memoria, oggi anche la memoria è stata esternalizzata grazie a Google e Wikipedia. Potremmo dire che mentre si creavano gli algoritmi generativi, al tempo stesso si stavano addestrando gli esseri umani a essere meno creativi (Kozlov 2023; Perullo 2022; Tyler and Soutwood 2019).

Qualche anno fa, prima dell’ultima esplosione della IA, c’era un luogo comune fra i ricercatori che studiavano come replicare l’intelligenza umana. Volete sapere se qualche attività è intelligente? Guardate se le macchine sono in grado di farlo. Nel caso affermativa, quella capacità non è considerata “vera” intelligenza. In questo modo, il dominio dell’intelligenza si è progressivamente ristretto per lasciare spazio all’intelligenza artificiale. Inoltre, nel momento in cui una certa capacità era imitata dalle macchine, il suo valore crollava drasticamente. Per esempio, una volta fare di conto era motivo di prestigio e orgoglio; qualcosa che distingueva gli esseri umani dagli animali (pensiamo al giovane Gauss per esempio …). Ma appena le calcolatrici elettroniche hanno di gran lunga superato le possibilità umane, il far di conto è diventato qualcosa di banale; in fondo seguendo un processo non dissimile da quello che ha portato alla crisi del realismo a seguito dell’invenzione dei dagherrotipi (Crary 1992). Agli umani non piace dividere il “centro del palcoscenico” con le macchine. Quando le macchine arrivano gli umani si spostano. Ma questa volta dove si sposteranno? Ci sarà ancora uno spazio residuo? Anche i nativi americani si sono spostati a Ovest finché hanno avuto terre, ma giunti al Pacifico la loro strategia si è scontrata contro un limite insuperabile.

Il problema del significato

Esiste uno zoccolo duro che l’IA, anche usando gli algoritmi generativi di oggi e del prevedibile futuro prossimo, non può affrontare? Fortunatamente c’è e non riguarda un limite cognitivo quanto un aspetto della natura del pensiero che, almeno finora, l’intelligenza artificiale non è costitutivamente capace di affrontare. Questo termine riguarda il problema del significato (a sua volta collegato al problema dell’esistenza) e richiede di riflettere sulla natura del pensiero (e quindi anche della realtà in quanto struttura che deve essere in grado di ospitare il pensiero).

Nei paragrafi successivi, prima delineerò le radici storico-concettuali che hanno prodotto lo schema concettuale dentro cui l’IA viene sviluppata e interpretata. Poi mi focalizzerò sulla differenza tra pensiero come attività combinatoria e pensiero come manifestazione dell’esistenza e infine porto a termine una breve discussione sulle conseguenze di questa differenza sull’uso e sul futuro degli algoritmi generativi.

Radici storico-concettuali della IA

Contrariamente a una convinzione diffusa, la descrizione dell’IA è basata su una terminologia che, nei fatti e non solo, sottende una ontologia dualista. L’uso di termini come informazione, rappresentazioni o pensiero deriva da una visione mentalistica dell’IA che non ha motivo di essere. Il motivo può essere cercato nelle radici storico-concettuali delle discipline che hanno portato al suo sviluppo.

Da Leibniz a Turing, si è cercato di trasformare il pensiero in calcolo secondo in un percorso in parte dovuto alle tecnologie utilizzate (costruire calcolatrici era più facile che costruire macchine in grado di parlare) e in parte dovuto a una concezione Platonica del pensiero. Per Platone, infatti, il pensiero è una declinazione delle forme e non è difficile vedere come dalle forme astratte non sia stato difficile scendere sulla terra e passare alle forme logiche e poi all’in-forma-zione. Questo è stato, in estrema sintesi, l’orientamento che ha reso plausibile accettare che l’informazione astratta di Claude Shannon (e poi Kolmogorov) fosse una forma di proto-pensiero oppure che ne costituisse la base. L’informazione è stata così vista come un candidato plausibile per il pensiero o come un substrato dal quale, prima o poi (come non è mai stato chiarito esplicitamente) potesse/dovesse emergere il pensiero. L’informazione è stata frequentemente affiancata la nozione (altrettanto vaga) di computazione quale controparte dinamica; insieme sono diventate, all’interno della disciplina dell’IA, le precorritrici del pensiero. Si trattava soltanto di trovare la funzione giusta. Moltissimi hanno accettato questo schema concettuale e si è così arrivati a sostenere (molti lo sostengono tutt’ora) che il wetware del cervello sia l’hardware che permette al software del pensiero e della mente umana di girare. È sulla base di questa serie di analogie e sillogismi (per niente sicuri) di natura più alchemica che scientifica, che qualcuno nella Silicon Valley concepisce il mind upload e persino la criogenesi in attesa di una resurrezione digitale (Piccinini 2019).

Contrariamente a questa tradizione, tanto diffusa quanto precaria nelle sue premesse, nelle prossime righe cercheremo di recuperare un principio che non è mai stato veramente confutato: la mente è forma, ma non informazione. Poiché l’informazione non è forma, non si può sviluppare una teoria della mente senza una teoria della forma e, purtroppo, la teoria dell’informazione nell’accezione di Shannon non è adatta.

Tra i pochissimi che hanno sostenuto il contrario con un minimo di coerenza si può citare Giulio Tononi che, infatti, ha cercato di sostituire l’informazione in senso classico con un nuovo concetto ovvero l’informazione integrata o phi (Tononi 2004; Tononi et al. 2022). Non è un caso che tale riformulazione sia avvenuta proprio nel contesto di una teoria della coscienza, ovvero un tentativo di dare una base fisica (o almeno reale) alla coscienza/mente/forma. Per Tononi, la forma si manifesterebbe a partire da strutture causali interne ai processi di elaborazione dell’informazione, da lui denominati complessi con massima phi. Il problema è che, come è sempre avvenuto con chi si avventura nel mondo della forma, si scivola facilmente in un idealismo platonico dove i postulati, per quanto suggestivi, sembrano essere indipendenti dal piano empirico. La teoria di Tononi rimane finora più una ipotesi metafisica che una proposta empirica per quanto alcuni risultati sperimentali siano stati ispirati da essa (Tononi et al. 2016).

Perché, ci si potrebbe e dovrebbe chiedere, da un processo computazionale dovrebbe emergere il pensiero? Perché dalla materia dovrebbe emergere la forma? La conclusione è supportata da un ragionamento errato, ovvero che quello che avviene in una macchina (cervello o computer) sia l’incarnazione dell’informazione. L’informazione, in realtà, è nell’occhio di chi guarda. Non troveremo bit dissezionando un sistema nervoso o smontando un microprocessore, ma parti fisiche. L’informazione è un modo sofisticato per esprimere quantitativamente il grado di correlazione causale-bayesiana tra fenomeni. Due fenomeni fisici tra i quali è comodo dire che è avvenuto uno scambio di informazione sono, alla fine dei conti, due fenomeni fisici il cui grado di probabilità condizionata è aumentato (Manzotti 2021). L’uso diffuso del termine “informazione” in contesti diversissimi tra loro e con significati spesso incompatibili ha generato la popolare, ma erronea, impressione che esiste qualcosa di comune a tutti questi casi – dalla meccanica quantistica al cellulare, dalla compressione di un file video fino alla legge di Carnot – e che questo qualcosa di comune sia una specie di livello oltre la materia. Questa convinzione ontologica, ovviamente falsa, non ha niente a che fare con un’altra idea, perfettamente legittima, ovvero che tutti i casi citati sopra siano epistemicamente trattabili con modelli matematici che presentano significative analogie.

Anche nello schema originale di Shannon, il padre di tutti i paper, l’informazione non è mai reificata e non è mai descritta come se fosse contenuta nel sistema (Shannon 1948). Shannon è molto chiaro nel voler presentare un modo per quantificare la probabilità che il comportamento di due agenti umani (entrambi dotati del significato per altri motivi e non perché si stanno scambiando informazione) risultasse correlato e appropriato. È significativo che Shannon, nel corso della sua vita, si sia personalmente e ripetutamente espresso contro la reificazione della sua creatura, l’informazione; sfortunatamente senza alcun successo (Soni 2017). La valanga ormai era diventata inarrestabile e nel linguaggio comune, così come nelle pubblicazioni tecniche, l’informazione è trattata quasi come fosse una sostanza immateriale e invisibile (chi ha mai visto un bit?) che però, in quanto quantificabile numericamente, ha ottenuto cittadinanza nell’ontologia silenziosamente accettata dalla comunità scientifica (Gleick 2011).

L’informazione non si misura, ma si calcola e questa, se ci pensiamo, è la stessa differenza che passa, per esempio, tra le miglia marittime e i meridiani. I primi sono la quantificazione di una proprietà fisica (la distanza), mentre i secondo sono un calcolo convenzionale per muoversi sul globo terrestre. A complicare il quadro ci hanno pensato i teorici della computazione che hanno introdotto un livello ulteriore (la cui collocazione ontologica rispetto all’informazione non è mai stata chiarita del tutto) che avrebbe dovuto fare da cerniera tra le forme statiche e le azioni compiute dal calcolatore: la computazione (Piccinini and Scarantino 2011).

Esiste una letteratura molto abbondante su questo tema e proprio la sua copiosità fa ritenere a molti che computazione e informazione siano livelli reali, anche se non materiali. Tuttavia la loro esistenza continua a generare domande che non hanno risposta: se oltre al livello fisico esistesse un livello computazionale-informazionale, come potrebbe non essere causalmente sovradeterminato? E se non fosse sovradeterminato, come potrebbe essere reale in quanto epifenomenico? Sono domande che non hanno mai avuto una risposta e che, a distanza di anni e di innumerevoli tentativi infruttuosi, dovrebbero ormai indurre a un sano pessimismo circa la possibilità di una loro risoluzione affermativa (Piccinini 2016).

Attività combinatoria o manifestazione dell’esistenza

Oggi ChatGPT e i suoi epigoni ci mostrano qualche cosa che imita in modo terribilmente convincente il pensiero umano. Come accennato all’inizio, la struttura statistica ricavata dal dataset è in grado di generare risposte che, al netto del rischio di affabulazione, sono molto simili a quelle che darebbe un essere umano. La sintassi è impeccabile. Addirittura è possibile usare questi algoritmi per rivedere la propria sintassi e spesso, soprattutto in una lingua straniera, i risultati sono migliori di quelli di un utente umano di capacità standard.

A questo punto, supponendo che le prossime versioni di GPT, vuoi per il miglioramento del motore statistico vuoi per l’allargamento del dataset di partenza (che però comincia ad avere dimensioni tali da fare venire dubbi sulla sua effettiva estensibilità), generino contenuti ancora più simili ai nostri, la domanda che si deve porre è: siamo sicuri che il pensiero umano sia effettivamente qualcosa di diverso?

La risposta, almeno in questa sede, non dipenderà dai dettagli dell’attività combinatoria o da somiglianze nello stile della risposta. Si deve andare più a fondo. La risposta dipende dal fatto se il pensiero sia attività combinatoria o sia un modo per dare voce all’esistenza. Questa differenza può lasciarci perplessi. Sarò diretto, il motivo per cui questa terminologia potrà sembrare estranea alla tradizione informatica è che lo è. Recuperare la natura manifestativa del pensiero è estraneo all’approccio quantitativo-computazionale-informatico che ha prodotto risultati così straordinari fino ad ora, ma potrebbe essere essenziale per comprendere la natura del pensiero, evitare di ridurre il nostro a quelle delle macchine e – in prospettiva – concepire un nuovo tipo di IA.

Faccio un esempio. Oggi molti si chiedono se GPT produca conoscenza vera o rischi di aumentare la confusione in Internet. Da un punto di vista pratico è sicuramente una preoccupazione legittima. La definizione classica, dai tempi di Platone, era che la conoscenza fosse opinione vera e giustificata. Ma questa formulazione, qui, slitta. Infatti, il punto non è chiedersi se, affabulando, il sistema generi conoscenza fake, ma che cosa sappia, effettivamente in ogni istante. E la risposta è che il sistema non sa mai nulla. Anzi, non sa. Punto. Per capirci, non è che se il sistema generasse la frase «Cesare è stato accoltellato da Bruto nel 44 AEC» sarebbe vera conoscenza, mentre se generasse la frase (non lo farà, tranquilli, ma per ipotesi …) «Cesare è morto di vecchiaia come re di Roma» sarebbe falsa conoscenza. In entrambi i casi il sistema non sa nulla. Il sistema manca del primo elemento citato nella definizione classica: l’opinione. Per poter avere una opinione il sistema dovrebbe essere un soggetto e dovrebbe esistere qualcosa che chiamiamo opinione. Ma l’opinione è una declinazione del significato e non della sintassi, quindi non ha posto nella teoria dell’informazione. Per sapere o per avere un opinione, il sistema dovrebbe presentare delle forme (giuste o sbagliate).

È chiaro che nessuna teoria computazionale riuscirà mai a trovare dentro una certa stringa di informazione un particolare significato. Questo richiederebbe una onerosa teoria trascendente della forma che non può essere costruita su una teorie dell’informazione che, a sua volta, si fonda su una visione fisicalista della realtà. Con ottimi motivi. E infatti, gli unici contemporanei sono sfociati nella metafisica (Delanda and Harman 2018; Harman 2007; Tononi 2004) e che più che spiegare hanno postulato l’esistenza della forma pagando tale postulato con l’uscita dal fisicalismo standard.

Fortunatamente, la concezione manifestativa del pensiero non implica necessariamente una base platonica, ma può essere compatibile anche con un modello empirico e fattuale dell’esistente. In termini semplici, come lo stesso Shannon aveva chiarito fin dal 1948, il significato non è prodotto all’interno di una stringa di bit. Il significato arriva da fuori. Ma da dove? Se non siamo Platonici, non può che arrivare da, o meglio essere coestensivo con, l’esistenza anche solo in senso fisico. Il pensiero è caratterizzato dall’esistere, ovvero dall’esserci (aka Dasein); condizione oggi estensibile anche agli oggetti (Bogost 2012; Bryant 2011; Harman 2017; Mitew 2014) in modo da non rimanere prigionieri dell’antropocentrismo.

Il significato non fa parte della teoria computazionale, ma non per questo non è un dato di fatto. La nostra esistenza è significativa. Nell’essere umano, l’attività cognitiva è sempre un momento di significato. Se chiediamo a qualcuno di parlarci dei suoi pensieri a prescindere dal loro significato non saprà che dire. Il pensiero senza significato non è alcunché, nemmeno un diafano fantasma. Il pensiero in quanto pensiero non qualità o proprietà. Non è nemmeno i simboli che dovrebbero portarlo in giro perché, una volta che siano stati privati del loro significato non sono più nemmeno simboli. Giustamente a nessun ingegnere informatico è mai venuto in mente di dover implementare i pensieri per realizzare una intelligenza artificiale.

Si potrebbe obiettare che la nozione di pensiero sia stata abbandonata da un pezzo nelle discipline che si occupano della mente con metodo scientifico, dalle scienze cognitive alla intelligenza artificiale. È un’ottima obiezione che non tiene conto che tali discipline hanno strumentalmente sospeso la domanda sulla natura degli stati mentali in attesa del momento in cui la loro analisi e i loro prodotti avessero raggiunto un livello comparabile a quello dell’uomo. Questo momento è ormai molto vicino. Ripeto, a rischio di annoiare, l’idea secondo cui la mente umana non sarebbe altro che un processo di elaborazione dell’informazione non è un risultato empirico, ma un principio metodologico, un postulato comodo, un assunto da dimostrare, un’utile semplificazione. Nessuno ha mai dimostrato che il nostro esserci di soggetti sia una computazione. Sicuramente il fatto di compiere ragionamenti e computazioni è molto utile per sopravvivere, ma non è detto che sia la nostra essenza. Si è trattato di un postulato metodologicamente felice, una delle grandi semplificazioni di successo. Grazie a esso, siamo stati in grado di fare molte cose e di costruire macchine meravigliose. Non è una dimostrazione che sia vero.

Intenzionalità e identità

Per chiarire il rapporto tra IA e pensiero dobbiamo tornare a un bivio famoso e decidere che strada prendere: da una parte prendere considerare la famosa freccia dell’aboutness o intenzionalità capace di colpire il significato (dovunque si trova e qualsiasi cosa sia) oppure procedere verso modelli basati sull’identità (sostanzialmente o con i processi neurali o con il mondo esterno).

Teniamo in considerazione il grande assente nella discussione sui modelli generativi, ovvero i modelli senso-motori (nelle numerosi declinazioni dall’enattivismo all’embodied cognition) che, proprio nel corpo, hanno cercato la soluzione magica che potesse dare significato all’informazione. E tuttavia, a meno di dare al corpo, by fiat, lo statuto di soggetto, non esistono soluzioni. Il corpo rimane corpo, ma come ogni cosa (calcolatore, neurone, microprocessore, interruttore, arto) non dispone di altro che se stesso. Il significato non è tra i suoi attributi e proprietà. Ma torniamo al bivio. La contrapposizione – intenzionalità vs identità – è cruciale per l’IA e per i modelli computazionali.

Partendo dall’intenzionalità è facile vedere perché questa sia stata la soluzione normalmente associata ai modelli computazionali dove, per definizione, il processo informativo è fisicamente distinto dal suo contenuto e quindi l’unica speranza è che, per qualche via, il contenuto sia raggiunto attraverso una relazione che è proprio l’intenzionalità. Il problema è che, finora, tutti i tentativi, sia speculativi che tecnologici, di naturalizzare l’intenzionalità sono falliti (Manzotti 2019a; Pecere 2012; Petitot et al. 1999). Il problema si pone in tutta la sua grandezza proprio con gli algoritmi generativi che, al netto delle loro capacità, non hanno alcun accesso al contenuto che ha prodotto le statistiche che loro utilizzano: «gli aspetti semantici sono irrilevanti da un punto di vista ingegneristico» recitava il vangelo di Shannon (1948: 379). ChatGPT parla, ma non sa quello che dice. Dall-E produce immagini, ma non le vede. E così via.

L’altra strada è più semplice, ma non più facile. Richiede di rinunciare all’idea che il significato (il contenuto) sia interno ai sistemi che elaborano l’informazione. Il contenuto, se reale, deve essere parte del mondo fisico. In un contesto fisicalista, deve essere identico a qualcosa di fisico. In questo senso il contenuto deve essere tutt’uno con qualche cosa. Può sembrare un modo brutale di porre il problema, ma girarci intorno con espressioni di cortesia non aiuta. La teoria di Tononi si muove in questa direzione al prezzo di ipotizzare l’esistenza di strutture formali che sono identiche al contenuto all’interno di un sistema computazionale; è un’ipotesi coraggiosa che però soffre di sovradeterminazione causale, platonismo, inconsistenza empirica. Finora la teoria dell’informazione integrata non ha fornito un quadro convincente. L’alternativa, che qui non illustrerò, ma che va citata per completezza, è l’identità tra mente e oggetto, o MOI, che propone l’identità tra significato/contenuto e gli oggetti fisici che esistono esternamente al sistema computazionale e che producono effetti relativamente a esso (Byrne and Manzotti 2022; Manzotti 2017, 2019b, 2023).

Le teorie dell’identità, sia pure con grandi differenze, hanno in comune il tentativo di rivedere i fondamenti della visione fisicalista per cercare di collocare i processi cognitivi e computazionali all’interno del mondo fisico in modo da farli uscire da quel livello simbolico-astratto in cui la tradizione computazionalista e combinatoria li aveva relegati. Questo passaggio è indispensabile per uscire dai confini, puliti ma ristretti, con i quali si è finora interpretato l’operato dell’IA e degli algoritmi generativi. Solo in questo modo il pensiero, così come nel caso degli esseri umani, può diventare qualcosa di più di una attività combinatoria priva di senso.

Concludo con una citazione spero inaspettata dove il premio Nobel Luigi Pirandello riflette sul rapporto tra parole e significato (Pirandello 1921: 3).

“Ma se è tutto qui il male! Nelle parole! Abbiamo tutti dentro un mondo di cose; ciascuno un suo mondo di cose! E come possiamo intenderci, signore, se nelle parole ch’io dico metto il senso e il valore delle cose come sono dentro di me; mentre, chi le ascolta, inevitabilmente le assume col senso e col valore che hanno per sé, del mondo com’egli l’ha dentro? Crediamo d’intenderci; non c’intendiamo mai!”.

Il «mondo di cose» era messo da Pirandello dentro il soggetto che metteva il senso e il valore, ma questo è un dettaglio. Ovviamente Pirandello non aveva a che fare con l’IA, ma che avrebbe detto di fronte a ChatGPT? Gli algoritmi generativi non possono avere un mondo dentro di loro, ma neppure i soggetti umani i cui testi sono stati usati per addestrare l’IA. E quindi? Dove si trova il significato? Questa è la domanda fondamentale per rispondere alla domanda da cui siamo partiti. Se l’IA vuole pensare deve risolvere il problema del contenuto. E il problema del contenuto è un problema ontologico che deve essere risolto a livello dei fondamenti del fisicalismo, non trattato come una aggiunta posticcia. Il pensiero umano è significato. L’attività combinatoria, per quanto sofisticata, non crea significato. Tra noi e l’IA al momento non c’è la difficoltà di intenderci, per dirla con il grande siciliano, in quanto l’IA non intende qualcosa di diverso, proprio non intende per nulla: «Crediamo d’intenderci; non c’intendiamo mai!»

Bibliografia

Bogost, Ian (2012), Alien Phenomenology, or What It’s Like to Be a Thing (Minneapolis: University of Minnesota Press).

Bryant, Levi (2011), The Democracy of Objects (New York: Open Humanities Press).

Byrne, Alex and Manzotti, Riccardo (2022), ‘Hallucination and Its Objects’, The Philosophical Review, 131 (3), 327-59.

Crary, Jonathan (1992), Techniques of the Observer on Visions and Modernity in the Nineteenth Century (Cambridge (Mass): The MIT Press).

Delanda, Manuel and Harman, Graham (2018), The Rise of Realism (New York: Wiley).

Gigerenzer, Gerd (2022), How to Stay Smart in a Smart World. Why Human Intelligence Still Beats Algorithms (Cambridge (Mass): MIT Press).

Gleick, James (2011), The Information. A History, a Theory, a Flood. (New York: Pantheon Books).

Gramsci, Antonio (1916/2017), ‘Socialismo e cultura’, in G L Corradi (ed.), Antonio Gramsci, il giornalista, il giornalismo (Firenze: Tessere).

Harman, Graham (2007), ‘On Vicarious Causation’, Collapse, 187-221.

— (2017), Object Oriented Ontology: A New Theory of Everything (Penguin: Londpn).

Kozlov, Max (2023), ‘‘Disruptive’ science has declined — and no one knows why’, Nature, 3 Jan.

Manzotti, Riccardo (2017), Consciousness and Object. A Mind-Object Identity Physicalist Theory (Advances i edn.; Amsterdam: John Benjamins Pub.).

— (2019a), ‘Embodied AI beyond Embodied Cognition and Enactivism’, Philosophies, 4, 1-15.

— (2019b), ‘Mind-object identity: A solution to the hard problem’, Frontiers in Psychology, 10, 1-16.

— (2021), ‘Information Is (Only) Probability’, MDPI (81), 36-40.

— (2023), ‘There is no problem of consciousness’, IAI News, 02 February.

Mitew, Teodor (2014), ‘Do objects dream of an internet of things?’, The Fibreculture Journal, 23, 1-25.

Pecere, Paolo (2012), ‘Naturalizing Intentionality between Philosophy and Brain Science. A Survey of Methodological and Metaphysical Issues (1969-2011)’, Quaestio, 12, 449-83.

Perullo, Nicola (2022), Estetica senza soggetti (Roma: DeriveApprodi).

Petitot, Jean, et al. (1999), Naturalizing Phenomenology: Issues in Contemporary Phenomenology and Cognitive Science (Cambridge (Mass): MIT Press).

Piccinini, Gualtiero (2016), ‘The Computational Theory of Cognition’, in Vincent C Muller (ed.), Fundamental Issues of Artificial Intelligence (New York: Springer), 203-21.

— (2019), ‘The Myth of Mind Uploading’, in Robert Clowes, Klaus Gartner, and Ines Hipolito (eds.), The Mind-Technology Problem – Investigating Minds, Selves and 21st Century Artefacts.

Piccinini, Gualtiero and Scarantino, Andrea (2011), ‘Information processing, computation, and cognition’, Journal of Biological Physics, 37 (1-38).

Pirandello, Luigi (1921), Sei personaggi in cerca di autore (Roma: R. Bemporad & figlio).

Rogers, Adam (2023), ‘Bard is going to destroy online search’, Business Insider, 9 February.

Shannon, Claude Elwood (1948), ‘A Mathematical Theory of Communication’, Bell System Technical Journal, 27, 379-423,623-56.

Soni, Jimmy (2017), A Mind at Play. How Claude Shannon Invented the Information Age (New York: Simon & Schuster).

Tononi, Giulio (2004), ‘An information integration theory of consciousness’, BMC Neuroscience, 5, 1-22.

Tononi, Giulio, et al. (2016), ‘Integrated information theory: From consciousness to its physical substrate’, Nature Reviews Neuroscience, 17, 450-61.

Tononi, Giulio, et al. (2022), ‘Only what exists can cause: An intrinsic view of free will’, arXiv, (2206.02069), 1-24.

Tyler, Cowen. and Soutwood, Ben (2019), ‘Is the rate of Scientific Progress Slowing Down?’, GMU Working Paper in Economics, 21 (13), 1-46.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3