intelligenza artificiale

Siamo nell’era post–Turing Test ed è epocale: come ci siamo arrivati, su cosa interrogarsi

Per chi è legato alla storia dell’IA risulta bizzarro che il test di Turing venga superato senza le dovute celebrazioni e con la tacita accettazione che le macchine siano in grado di carpire la facoltà umana da molti ritenuta più preziosa, il linguaggio. Ma ora si aprono nuovi interrogativi

Pubblicato il 14 Apr 2023

Alessio Plebe

Università degli Studi di Messina

shutterstock_2078918560 (1)

Siamo entrati nell’era post-Turing test. Forse molti troveranno questa domanda azzardata, se non addirittura sbagliata. Allora, prima ancora di provare a giustificarla, mettiamo le mani avanti segnalando come non siamo i primi a sancire il superamento definitivo del test di Turing.

Abbiamo almeno la compagnia di ben 444 studiosi provenienti da 132 diverse istituzioni di ricerca, tanti sono gli autori di un recente articolo intitolato proprio Beyond the Imitation Game (Srivastava et al. 2022).

EX_MACHINA - Scena del film in italiano "Il test di Turing"

EX_MACHINA - Scena del film in italiano "Il test di Turing"

Guarda questo video su YouTube

Assodato il superamento del test di Turing, questa impressionante compagine di autori ha cercato di istituire un’alternativa in grado non più di dire banalmente se un computer sia intelligente, ma di misurarne in profondità il livello di competenza su compiti che spaziano l’intero scibile umano.

Occorre dire che, oltre questo lavoro appena citato, non pare essere stato scritto molto sull’avvenuto superamento del test di Turing, non tanto quanto ci si poteva aspettare da un evento talmente eclatante. Si proverà a ragionare sui motivi, ma anzitutto è doveroso spiegare perché entrare nell’era post-Turing test sia qualcosa di epocale.

L’operazionalizzazione dell’intelligenza

The Imitation Game è il titolo del film di Morten Tyldum del 2014, che ha fatto conoscere la figura di Turing al grande pubblico, concentrandosi però più sulle vicende legate alla seconda guerra mondiale che su questo geniale gioco apparentemente semplice ed innocuo. Proposto nel celebre articolo Computing Machinery and Intelligence (Turing 1950), affronta l’interrogativo se un computer possa essere ritenuto intelligente. Turing va al cuore dell’obiezione che potrebbe essere sollevata qualunque sia il compito sofisticato, chiamiamolo X, che un computer dimostra di svolgere: “d’accordo, questo computer sa svolgere il compito X, ma non sbilanciamoci, per intelligenza si intende ben altro”. Cosa sia il “ben altro” si può prestare ad infinite ridefinizioni tali da conservare sempre l’intelligenza nello scrigno delle proprietà unicamente umane.

Per sbarazzarsi del comodo scudo offerto dalla vaghezza del termine “intelligenza”, Turing adotta una strategia ben nota in filosofia della scienza con il nome di operazionalizzazione. Introdotta dal premio Nobel per la fisica Percy (Bridgman 1927), consente di attribuire un significato rigoroso a termini di per se vaghi ed ambigui. Per Bridgman il significato di un termine può essere interamente specificato da un insieme di operazioni che lo coinvolgono. Questo procedimento è pienamente adottato in fisica, dove termini come forza, massa, carica elettrica, trovano specificazione in una serie di operazioni in cui sono coinvolti in modo non ambiguo. Turing fa lo stesso con il termine “intelligenza”, lo equivale ad una operazione, che consiste proprio nell’Imitation Game. Un computer risulta degno della proprietà dell’intelligenza se un interlocutore umano conversandoci in modo remoto riguardo qualunque argomento, non sa dire se si tratta di una macchina o di un conversante in carne ed ossa. Fin qui l’elegante strategia dell’operazionalizzazione, poi arriva la provocazione più scandalosa: Turing ci crede davvero che verrà un futuro in cui i computer diventeranno intelligenti e lo dimostreranno sapendo conversare come noi, e lo sostiene con una serie di argomenti teorici di notevole spessore.

Per meglio comprendere la sorpresa per una transizione tutto sommato indolore all’era post-Turing Test, è opportuno esaminare la portata della sua provocazione. Nel prendere la capacità di conversare come marchio dell’eventuale intelligenza di una macchina, Turing aveva mirato dritto alla facoltà che per molti è la più sublime e unica della specie umana: il linguaggio. Ne sono convinti, tanto per fare un paio di celebri esempi, Cartesio e Noam (Chomsky 1966). Non pochi filosofi hanno sottolineato come il linguaggio non sia solamente un modo di comunicare, ma l’impianto con cui è costruita la nostra visione del mondo. Ludwig (Wittgenstein 1922) affermava che “i limiti del mio linguaggio significano i limiti del mio mondo”. Immaginare che un computer possegga la facoltà del linguaggio, come aveva spudoratamente fatto Turing, voleva quindi dire profanare il santuario della mente umana.

Il test di Turing come benzina per fiammate intellettuali

La sfida lanciata di Turing ha provocato uno dei più ampi ed accesi dibattiti filosofici del secolo scorso, non sopiti nemmeno oggi. Ne è ovviamente responsabile l’intera impresa dell’Intelligenza Artificiale (AI), che coglieva il guanto lanciato da Turing giusto un anno dopo la sua scomparsa (McCarthy et al. 1955). Non furono necessari troppi anni perché si levassero alte voci di reazione. Il filosofo Hubert Dreyfus ha speso l’intera sua vita a trovare ragioni per negare al computer la possibilità di raggiungere mai capacità umane come il linguaggio. In uno dei suoi più famosi scritti, What Computers Can’t Do: A Critique of Artificial Reason (Dreyfus 1972), la parte centrale mira proprio a ridicolizzare i tentativi pionieristici dell’IA nel campo del linguaggio, in particolare la traduzione automatica – a quell’epoca davvero fallimentari – concludendo che mai il linguaggio umano sarà alla portata di un computer.

Nella seconda metà del secolo scorso si forma un nuovo ambito di studi che, al contrario, nutre simpatie nei confronti dell’idea di Turing e dell’IA in generale, si tratta della scienza cognitiva. La sua prospettiva inquadra tutti i fenomeni mentali – dalla percezione visiva al linguaggio e la pianificazione delle azioni – come computazioni, e quindi riconducibili ad algoritmi. Se le cose stanno davvero così la possibilità che anche un computer possa eseguire lo stesso genere di algoritmi è aperta, includendo quindi la sua possibilità di acquisire completamente il linguaggio naturale. Per un certo periodo l’intreccio tra scienze cognitive e IA fu davvero stretto, tanto che il filosofo Hilary (Putnam 1960) era arrivato a sostenere che la mente umana funzionasse – letteralmente – come una macchina di Turing. Tuttavia ben presto diversi scienziati cognitivi misero le mani avanti, precisando che la natura computazionale dei processi cognitivi umani non garantisce affatto che un computer possa acquisirli. Chomsky è stato esemplare, così come ha avuto gran simpatia per le spiegazioni computazionali della facoltà linguistica umana, perseguendole in prima persona, altrettanto lo irritavano le velleità dell’IA, da cui si è tenuto sempre a distanza.

Eliza, il software che impersona uno psicoterapeuta computerizzato

Agli albori dell’IA sia critiche che simpatie erano soprattutto in linea di principio, ma nel 1966 lo scandalo di Turing pare prendere una prima forma concreta. Eliza è il software che impersona uno psicoterapeuta computerizzato (Weizenbaum 1966) in grado di fornire brevi risposte abbastanza credibili ad interlocutori umani. La genialità era di impersonare uno psicoterapeuta di scuola rogeriana, la cui strategia è grosso modo di portare sempre il paziente ad autointerrogarsi senza sbilanciarsi mai troppo. In questo modo usando poche parole delle frasi scritte dagli interlocutori, Eliza può formulare blande e generiche controdomande, senza doversi preoccupare di alcuno dei dettagli sulla situazione effettiva del suo paziente, tantomeno dei riferimenti nel mondo delle parole lette e prodotte. Nonostante la sua palese limitazione, Eliza fu un successo di pubblico come pochi altri nella storia del software, e proprio questo destò preoccupazioni.

Per Ned (Block 1981) c’era qualcosa di sbagliato, di immorale, nel lasciar credere alla gente che potesse esserci qualche forma di intelligenza dietro ad un astuto gioco di rimaneggiamento di pochi simboli. Block andò anche oltre il caso specifico di Eliza, sostenendo che anche programmi più potenti non avrebbero potuto arrogarsi la proprietà dell’intelligenza a pieno titolo.

La stanza cinese

Su questo terreno però fu un altro argomento, proposto dal suo collega John (Searle 1980), a diventare la lama più affilata puntata contro il test di Turing. Divenuta celebre sotto il nome di “stanza cinese”, la situazione immaginaria proposta da Searle vede se stesso chiuso in una stanzetta, a cui vengono passati fogli con scritte in cinese. Vi è a disposizione un meraviglioso manuale, da usare cercando nella pagina a sinistra un testo identico a quello appena ricevuto, basta poi ricopiare quel che si legge nella pagina a destra, e consegnarlo a chi sta fuori dalla stanza. Bene, i fogli in entrata sono frasi di un interlocutore, e quelle in uscita le risposte, la stanza chiusa funziona quindi come una macchina in grado di conversare perfettamente, idonea quindi a superare il test di Turing, con il piccolo particolare, osserva Searle, che lui non sa nemmeno una parola di cinese. Ovvero un software potrebbe rispondere meccanicamente senza aver capito nulla.

Diversi trovarono l’espediente di Searle tanto convincente da considerare la possibilità per un computer di comprendere il linguaggio un traguardo irraggiungibile. Non tutti, e se Eliza poteva essere tacciata di impostura, lo era in modo ben più subdolo la “stanza cinese”, per esempio secondo Daniel (Dennett 1980). L’impostura è di condurre il lettore in una immaginazione, falsa, costellata di passaggi impossibili, per poi convincerlo della tesi che vuol sostenere, e Dennett coniò un nome specifico per queste raffinate imposture: intuition pump (Dennett 2012). Il passaggio platealmente impossibile è il manuale, che in teoria, per qualunque contenuto di una conversazione, dovrebbe avere la risposta pronta e appropriata da fornire. Ovviamente non è realisticamente realizzabile un tale manuale, data l’infinita possibilità di costrutti linguistici in una conversazione. Un altro passaggio dubbio riguarda cosa significhi “comprendere”, per una buona porzione di filosofi del linguaggio, a partire da Wittgenstein, comprendere il linguaggio è fondamentalmente saperlo usare. Criterio a cui sia il test di Turing che la “stanza cinese” sono adeguati. Searle richiede qualcosa in più, una consapevolezza della conversazione in corso, che come si cerca di meglio precisare precipita in uno dei temi filosoficamente più spinosi: cosa sia la coscienza.

Sicuramente la “stanza cinese” esercita una formidabile forza di convinzione, ed ha avuto un notevole successo, tenendo banco per un ventennio, con interi libri dedicati al suo dibattito (Preston and Bishop 2002). Il tema perse di mordente sul passare del millennio, sia per un naturale esaurirsi degli argomenti, ma soprattutto perché non si intravedeva nulla di concreto nell’IA in grado di alimentare la discussione. Dall’epoca eroica di Eliza, la ricerca sulla comprensione artificiale del linguaggio aveva intrapreso una strada molto diversa, che non voleva più lasciarsi tentare da trucchi e stratagemmi. Si è tentato di riversare nei computer le teorie linguistiche del funzionamento del linguaggio umano, soprattutto quelle di ispirazione chomskiana che nascono già parzialmente formalizzate (Winograd 1972). Pur essendo teorie di grande portata nel descrivere la miriade di intricati fenomeni delle lingue umane, si rivelarono sostanzialmente fallimentari nel dotare i computer di capacità linguistiche nemmeno lontanamente paragonabili a quelle umane.

L’avvento del Deep Learning

L’intera IA aveva un po’ seguito il destino degli insuccessi nell’elaborazione artificiale del linguaggio, toccando uno dei suoi punti di declino più bassi una decina di anni fa. La situazione si è notoriamente ribaltata a seguito del Deep Learning (DL), la versione rimodernata delle reti neurali artificiali degli anni ’80 (Rumelhart and McClelland 1986).

Il DL con i suoi rapidi e inaspettati successi ha rilanciato l’agenda per il futuro della mente artificiale (Plebe and Perconti 2022), ma il suo impatto è stato più fulmineo e capillare per la visione e tutti gli ambiti applicativi ad essa legati, il linguaggio è arrivato più tardi. Le reti neurali artificiali per lungo tempo hanno sofferto la loro intrinseca refrattarietà verso il linguaggio. Uno dei problemi consiste proprio nella natura dei costituenti delle reti neurali, vettori di numeri reali, e delle loro operazioni, appartenenti all’algebra lineare, che mal si adattano alla natura simbolica delle parole. Occorre aspettare il 2013 per una soluzione brillante ed efficace, nota come word embedding (Mikolov et al. 2013), tramite cui le parole vengono trasformate in vettori di numeri reali, appresi da corpora di esempi di una lingua. I vettori, inizialmente casuali, vengono progressivamente modificati in modo da essere similari quando circondati da parole simili, anch’esse sottoforma di vettori. Il secondo problema, ancor più grave, riguarda il funzionamento statico della formulazione classica delle reti neurali artificiali, che contrasta con la natura fortemente dinamica del linguaggio, in cui il significato di una frase si va a formare dalla continua successione delle parole, incluse quelle di frasi precedenti. Un’importante soluzione era stata trovata da Jeffrey (Elman 1990) con l’idea di reti neurali ricorsive, dotate di una forma di memoria delle parole che via via venivano recepite. Nonostante vari successivi perfezionamenti (Hochreiter and Schmidhuber 1997) le reti ricorsive entravano in difficoltà non appena le frasi diventavano lunghe e articolate in modo complicato, come succede ordinariamente nel pieno uso del linguaggio.

La svolta epocale avviene nel 2017, con l’invenzione da parte del team di Google Brain dell’architettura denominata Transformer (Vaswani et al. 2017). Coerente con il principio rigorosamente empirista del DL, il Transformer non tenta di implementare direttamente nessuna regola linguistica, è dotato invece di un meccanismo per apprendere quando e in che misura mantenere relazioni tra le varie parole che compaiono in una frase, e anche in frasi adiacenti. Questa architettura si è subito dimostrata vincente, ed è diventata la base per quelli che oggi vengono chiamati language model o anche foundation model (Bommasani et al. 2021), modelli neurali profondi dotati di meccanismo Transformer, addestrati su grandi corpora linguistici.

Dal ritorno delle vecchie critiche ad una tacita accettazione

Improvvisamente e inaspettatamente la prospettiva del computer in grado di carpire la facoltà umana da molti ritenuta più preziosa, il linguaggio, stava diventando reale. Per alcuni una prospettiva affascinante, ma per altri, comprensibilmente, spiazzante se non addirittura terrificante. Non sorprende pertanto che tra il 2018 e il 2021 si sia levato un vasto coro di critiche in vario modo convergenti nel voler negare, ancora una volta, la possibilità per un computer di comprendere realmente il linguaggio umano. Oltre a detrattori dell’IA in generale (Bishop 2021; Larson 2021), hanno fatto parte di questo coro anche studiosi di grande fama e vicini all’IA (Pearl and Mackenzie 2018; Landgrebe and Smith 2019; Marcus and Davis 2019). Questa ondata di critiche ha avuto risonanza e accoglienza. Per esempio uno dei lavori di maggior successo (Bender and Koller 2020) drastico nell’affermare che i modelli del genere Transformer non possono in linea di principio imparare nessun significato linguistico, ha ottenuto il premio come miglior lavoro al convegno annuale della Association for Computational Linguistics e ad oggi vanta quasi 500 citazioni. Da un’analisi puntuale di questo corpo di critiche (Perconti and Plebe 2022) emerge un progresso modesto rispetto agli argomenti già formulati nel periodo di intenso dibattito nel secolo scorso, raccontato prima.

L’esperimento del polipo

Si tratta soprattutto di riproposizione rifrasata dei vecchi argomenti. Per esempio (Bender and Koller 2020), nel ritornare a negare in linea di principio la possibilità per un computer di acquisire un linguaggio umano, come fece più di 40 anni fa Searle, inventano un loro esperimento mentale sulla falsariga della “stanza cinese”. Stavolta protagonista non è lei in persona, ma un polipo. L’animale se ne sta in fondo al mare, vicino ad un cavo di comunicazione attraverso cui conversano due parlanti inglesi, sfortunatamente naufragati su due lontane isole, per fortuna ben dotate di interconnessione. Il polipo ha curiosità per le telecomunicazioni, e quindi impara in fretta come gli impulsi elettrici che transitano nel cavo in una direzione siano seguiti da altri treni di impulsi nell’altra direzione. Ad un certo punto ha acquisito una tale confidenza con le sequenze di impulsi da decidere di tagliare il cavo, e provare lui stesso a mandare segnali in risposta ad uno dei due naufraghi. Il quale, dice Bender, potrebbe anche continuare a credere che dall’altra parte del cavo ci sia il suo sventurato amico, per quanto se la cava bene il polipo, che però non capisce nulla della conversazione in corso. E’ evidente quanto il polipo della storia sia ancor più improbabile del manuale nella “stanza cinese”, ed è ben difficile sia destinato ad altrettanta fortuna.

Il tentativo di emulazione di Searle da parte di Bender è unico, la strategia più diffusa, e ben presente anche nei lavori di Bender, è invece la ricerca minuziosa di casi di conversazioni in cui il computer fornisce risposte sbagliate, soprattutto quando si tratta di errori che difficilmente farebbe un parlante umano. Di per se si tratta dell’ordinaria e fondamentale attività di esplorazione e verifica delle capacità dei vari modelli del linguaggio, in cui è importante individuare, più delle risposte corrette, quelle sbagliate. Si trasforma invece in retorica ideologica quando i casi di errore vengono cristallizzati come testimonianze inoppugnabili del fallimento complessivo nel dotare un computer del linguaggio umano. E’ la pratica che il linguista computazionale Samuel (Bowman 2022) ha chiamato the dangers of underclaiming, l’esibizione poco scientifica di casi di errore allo scopo di denigrare i modelli del linguaggio. Il fenomeno peggiore è che molte di queste critiche usano come supporto critiche precedenti, citate sempre come fatti empirici consolidati. In questo modo continuano ad essere presentati come errori casi ampiamente superati dal continuo e rapido progresso di questi modelli.

L’ingresso nell’era post-Turing test

Oggi è diventato arduo offrire evidenze empiriche dell’impaccio dei sistemi artificiali con il linguaggio umano, oramai la competenza di un parlante comune è quotidianamente replicata da agenti conversazionali, in poco più di un anno si è entrati in pieno nell’era post-Turing test. Una inusuale avvisaglia si era avuta a giugno 2022, in un articolo del Washington Post. Un ingegnere di Google, Blake Lemoine, esternava la sua convinzione che un nuovo programma chiamato LaMDA (Language Model for Dialogue Applications) (Thoppilan et al. 2022), di cui lui era incaricato di eseguire verifiche, era senziente e dotato di una propria personalità. Nel 2021 LaMDA era in fase avanzata di verifica interna, e Lemoine nel continuare a conversarci era talmente colpito dalla qualità e spontaneità del dialogo da convincersi di avere a che fare con un’entità cosciente. Ma la quasi totalità dei commenti provocati dalla sua intervista, indipendentemente dal livello scientifico del commentatore, furono negativi, rifiutando la sua ipotesi come falsa ed ingenua. Lemoine fu persino licenziato da Google.

Mentre LaMDA e altri sistemi di dialogo basati sui modelli del linguaggio sono rimasti noti solo al mondo della ricerca, chatGPT ha esposto al mondo intero come oggi il computer sappia conversare. Si è trattato di una sorta di implicito Turing test corale. Beninteso, non si tratta più di doversi fingere o meno umani, anzi, per mettersi al riparo da situazioni imbarazzanti come per LaMDA, chatGPT è sempre pronto a mettere le mani avanti dichiarandosi un agente IA, pertanto privo di materialità e incapace di interazioni fisiche con il mondo. Si è oramai andati oltre, chatGPT deve il suo apprezzamento al saper conversare esattamente come un umano, anzi, come un umano dalla cultura prodigiosa. Ha stabilito il record assoluto di prodotto digitale con la più rapida crescita di adesioni, avendo raggiunto un milione di utenti dopo solo una settimana di attività dal sul lancio a fine novembre 2022, e attualmente riceve 300 milioni di visite al mese.

Sembrerebbe proprio che l’umanità, o quantomeno una fetta di umanità che presta attenzione ed è incuriosita dall’artificiale, non percepisca un conflitto culturale all’idea che a possedere il linguaggio, oltre a noi umani, oggi ci siano anche alcuni software. Occorrerà tempo per poter comprendere meglio in che misura si sia disposti ad accettare una prospettiva così distante dal senso comune dominante. I primissimi dati empirici finora raccolti sembrano mostrare un atteggiamento di accettazione del nuovo interlocutore non più in carne ed ossa. Secondo un primo studio sulle sensazioni degli utenti chatGPT basato su interazioni Twitter (Haque et al. 2022), un 80% degli utenti attribuiscono una genuina intelligenza al sistema, e oltre il 90% trova il conversarci un ottimo intrattenimento e uno stimolo per la creatività personale.

Conclusioni

Per chi è legato alla storia dell’IA risulta bizzarro che il celebre test di Turing venga superato senza le dovute celebrazioni. Non molti anni fa, nel 2014, un software denominato Eugene Goostman venne accreditato di aver superato il test di Turing in una sessione organizzata alla Royal Society di Londra, con molto scalpore e qualcuno poco convinto (Warwick and Shah 2016). Il “trucco” era che Eugene Goostman voleva essere il nome di un ragazzo ucraino di 13 anni, e pertanto chi colloquiava era più magnanimo nell’accettare risposte poco convincenti, considerandole di un ragazzo. Forse proprio perché oggi non può esservi controversia, viene a cadere l’utilità di decretare pomposamente il superamento del test di Turing. Analogamente, risalta in questo nuovo panorama il declino dell’ondata di critiche montata non più di tre – quattro anni fa, pur essendo ora il momento della difesa più strenua dell’unicità umana del linguaggio. Probabilmente è diventata una difesa più disperata che strenua. La strategia degli errori eclatanti da esibire si è oramai esaurita. Per andare a indagare la padronanza del linguaggio di chatGPT e simili, occorrono ora poderosi benchmark del genere di BIG-bench (Srivastava et al. 2022), con cui si è iniziato questo articolo. Si è dell’avviso che l’era post-Turing ponga un genere di interrogativo diverso, su quali siano le ragioni per cui le reti neurali basate sull’architettura Transformer siano diventate in grado di conversare alla stregua di una umano.

Non è un interrogativo del tutto nuovo, anche le ragioni per cui il DL in generale sia talmente efficiente in un’ampia varietà di applicazioni, non sono mai emerse in modo convincente (Plebe and Grasso 2019). Nel caso del linguaggio il mistero si infittisce, per via dell’abissale salto di prestazioni tra le tante architetture neurali sperimentate prima del 2017, e le successive basate sul Transformer. La sua innovazione riguarda la flessibilità nel mantenere o allentare memoria di relazioni intercorse con parole, nel processare quella corrente, e parrebbe ben conciliarsi con recenti tendenze in neurobiologia del linguaggio a focalizzare l’attenzione sui meccanismi di memorizzazione (Roger et al. 2022). Beninteso, spingersi ad ipotizzare qualche similarità tra il modo come il Transformer mantiene memoria delle relazioni tra parole, e corrispondenti meccanismi cerebrali, sarebbe al momento pura illazione. Si tratta, al massimo, di stimoli di riflessione per l’era post-Turing.

Bibliografia

Bender, Emily M., and Alexander Koller. 2020. “Climbing Towards Nlu: On Meaning, Form, and Understanding in the Age of Data.” In 58th Annual Meeting of the Association for Computational Linguistics, 5185–­5198. Somerset (NJ): Association for Computational Linguistics.

Bishop, J. Mark. 2021. “Artificial Intelligence Is Stupid and Causal Reasoning Will Not Fix It.” Frontiers in Psychology 11: 513474.

Block, Ned. 1981. “Psychologism and Behaviorism.” Philosophical Review 90: 5–43.

Bommasani, Rishi, Drew A. Hudson, Ehsan Adeli, Russ Altman, Simran Arora, Sydney von Arx, Michael S. Bernstein, et al. 2021. “On the Opportunities and Risks of Foundation Models.” arXiv abs/2108.07258.

Bowman, Samuel R. 2022. “The Dangers of Underclaiming: Reasons for Caution When Reporting How Nlp Systems Fail.” In Proceedings of the 60th Meeting of the Association for Computational Linguistics, 1:7484–99. Association for Computational Linguistics.

Bridgman, Percy W. 1927. The Logic of Modern Physics. New York: Macmillan.

Chomsky, Noam. 1966. Cartesian Linguistics: A Chapter in the History of Rationalist Thought. New York: Harper; Row Pub. Inc.

Dennett, Daniel C. 1980. “The Milk of Human Intentionality.” Behavioral and Brain Science 3: 429–30.

———. 2012. Intuition Pumps and Other Tools for Thinking. New York: W. W. Norton & Company.

Dreyfus, Hubert. 1972. What Computers Can’t Do: A Critique of Artificial Reason. New York: Harper; Row Pub. Inc.

Elman, Jeffrey L. 1990. “Finding Structure in Time.” Cognitive Science 14: 179–221.

Haque, Mubin Ul, Isuru Dharmadasa, Zarrin Tasnim Sworna, Roshan Namal Rajapakse, and Hussain Ahmad. 2022. “I Think This Is the Most Disruptive Technology: Exploring Sentiments of Chatgpt Early Adopters Using Twitter Data.” arXiv abs/2212.05856.

Hochreiter, Sepp, and Jurgen Schmidhuber. 1997. “Long Short-Term Memory.” Neural Computation 9: 1735–80.

Landgrebe, Jobst, and Barry Smith. 2019. “Making Ai Meaningful Again.” Synthese DOI 10.1007/s11229-019-02192-y: 1–21.

Larson, Erik J. 2021. The Myth of Artificial Intelligence: Why Computers Can’t Think the Way We Do. Cambridge (MA): Harvard University Press.

Marcus, Gary, and Ernest Davis. 2019. Rebooting Ai: Building Artificial Intelligence We Can Trust. New York: Pantheon Books.

McCarthy, John, Marvin L. Minsky, Nathaniel Rochester, and Claude E. Shannon. 1955. “A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, August 31, 1955.”

Mikolov, Tomas, Ilya Sutskever, Kai Chen, Greg Corrado, and Jeffrey Dean. 2013. “Distributed Representations of Words and Phrases and Their Compositionality.” In Advances in Neural Information Processing Systems, 3111–9.

Pearl, Judea, and Dana Mackenzie. 2018. The Book of Why – the New Science of Cause and Effect. New York: Hachette Book Group.

Perconti, Pietro, and Alessio Plebe. 2022. “Do Machines Really Understand Meaning? (Again).” Journal of Artificial Intelligence and Consciousness 9: doi 0.1007/s42979–022–01259–x.

Plebe, Alessio, and Giorgio Grasso. 2019. “The Unbearable Shallow Understanding of Deep Learning.” Minds and Machines 29: 515–53.

Plebe, Alessio, and Pietro Perconti. 2022. The Future of the Artificial Mind. Boca Raton: CRC Press.

Preston, John, and Mark Bishop, eds. 2002. Views into the Chinese Room: New Essays on Searle and Artificial Intelligence. Oxford (UK): Oxford University Press.

Putnam, Hilary. 1960. “Minds and Machines.” In Dimensions of Mind, edited by S. Hook, 138–64. New York: New York University Press.

Roger, Elise, Sonja Banjac, Michel Thiebaut de Schotten, and Monica Baciu. 2022. “Missing Links: The Functional Unification of Language and Memory ().” Neuroscience and Biobehavioral Reviews 133: 104489.

Rumelhart, David E., and James L. McClelland, eds. 1986. Parallel Distributed Processing: Explorations in the Microstructure of Cognition. Cambridge (MA): MIT Press.

Searle, John R. 1980. “Mind, Brain and Programs.” Behavioral and Brain Science 3: 417–24.

Srivastava, Aarohi, Abhinav Rastogi, Abhishek Rao, Abu Awal Md Shoeb, Abubakar Abid, Adam Fisch, Adam R. Brown, Adam Santoro, and et al. 2022. “Beyond the Imitation Game: Quantifying and Extrapolating the Capabilities of Language Models.” arXiv abs/2206.04615.

Thoppilan, Romal, Daniel De Freitas, Jamie Hall, Noam Shazeer, Apoorv Kulshreshtha, Heng-Tze Cheng, Alicia Jin, et al. 2022. “LaMDA: Language Models for Dialog Applications.” arXiv abs/2201.08239.

Turing, Alan. 1950. “Computing Machinery and Intelligence.” Mind 59: 433–60.

Vaswani, Ashish, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser, and Illia Polosukhin. 2017. “Attention Is All You Need.” In Advances in Neural Information Processing Systems, 6000–6010.

Warwick, Kevin, and Huma Shah. 2016. “Can Machines Think? A Report on Turing Test Experiments at the Royal Society.” Journal of Experimental and Theoretical Artificial Intelligence 28: 989–1007.

Weizenbaum, Joseph. 1966. “Eliza – a Computer Program for the Study of Natural Language Communication Between Man and Machine.” Communications of the Association for Computing Machinery 9: 36–45.

Winograd, Terry. 1972. Understanding Natural Language. New York: Academic Press.

Wittgenstein, Ludwig. 1922. Tractatus Logico-Philosophicus. London: Trench, Trubner & Co.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3