La sfida che i sistemi di Artificial Intelligence (AI) stanno rappresentando per la società risulta di enorme rilevanza: cresce la loro competenza e generalità di supporto e di conseguenza la pervasività in ciascun ambito delle nostre esistenze, individuale e sociale.
Si stanno diffondendo sistemi di AI che ai problemi loro sottoposti rispondono con risultati spesso del tutto indistinguibili da quelli che gli stessi umani realizzano. Al contempo, ci si confronta sui dubbi riguardanti le reali capacità intelligenti di questi modelli che seppure confortati da questi strabilianti risultati appaiono procedere secondo approcci quantitativi, tutt’altro che ovvi rispetto alle performance espresse.
La nostra mancanza di fiducia nei robot? Ecco cosa ci dice delle relazioni umane
Diventa perciò interessante chiedersi se un approccio guidato dal puro modellamento statistico e correlazionale dei dati sia sufficiente a riprodurre alcune attitudini tipiche degli umani nell’esercizio delle loro interazioni intelligenti. E quale senso abbia oggi costruire architetture, in modo top-down, che facciano uso del “cognitive modeling”.
Presentiamo qui un approccio tipicamente basato sul modellamento cognitivo per la definizione e la conseguente simulazione di attitudini tipiche degli umani. In particolare, ci focalizzeremo su quella considerata base fondamentale della socialità: la fiducia. Proveremo a capire qual è il senso di questo approccio nell’era del machine learning.
Evoluzione dell’intelligenza artificiale
L’idea di fornire una macchina con capacità intelligenti analoghe a quelle degli umani, è un’idea che ha trovato un importante sviluppo verso la metà del secolo scorso, quando si introdusse una nuova area di ricerca, chiamata Artificial Intelligence. Anche se non possono essere dimenticati contributi precedenti fondamentali per questa area scientifica da parte di Alan Turing [1] e di McCulloch e Pitts [2], è nel 1956 che un fortissimo fermento di brillanti menti (John McCarthy, Marvin Minsky, Claude Shannon, Allen Newell e Herbert Simon e Nathaniel Rochester) avviano la sfida in modo ufficiale. Fu proprio McCarthy ad introdurre il nome di Artificial Intelligence [3].
AI forte e AI debole
L’approccio ha avuto differenti modelli e metodi ma si può sostenere che due principali direzioni di studio possono essere riconosciute: si tratta delle cosiddette AI forte e AI debole.
Nella AI debole la riproduzione del comportamento intelligente non risulta ispirata dal modo in cui gli umani lo realizzano: l’obiettivo è la risoluzione del problema e non l’analogia con il modo di risoluzione.
Nella AI forte, viceversa, l’obiettivo è di realizzare la soluzione nello stesso modo in cui l’otterrebbe un umano: il riferimento è quindi il confronto con i processi neuro-socio-cognitivi dei sistemi naturali. L’AI forte ha due ulteriori prospettive: l’analogia con i sistemi umani arriva all’idea di riprodurre le medesime strutture biologiche (e i conseguenti processi) degli esseri viventi: prospettiva naturalista-connessionista; oppure semplicemente simulare la logica della psiche (intentional stance [4]) degli esseri umani: prospettiva mentalista-cognitivista.
Questi differenti approcci hanno avuto vicende alterne, scambiandosi la prevalenza e il momentaneo (in)successo in fasi diverse. Comunque l’evoluzione delle tecnologie intelligenti è stata costante e i successi attuali sono incontrovertibili. Hanno giocato un ruolo fondamentale non solo l’elaborazione di tecniche strettamente di IA, come lo sviluppo di architetture cognitive sofisticate o gli algoritmi di apprendimento, ma anche una serie di evoluzioni scientifiche di campi più o meno affini alla AI: la potenza di calcolo, la miniaturizzazione dei componenti elettronici, gli sviluppi delle reti di comunicazione, la sensoristica sofisticata, lo sviluppo di nuovi materiali, la possibilità di costruire enormi basi di dati.
Tutto questo ha prodotto una straordinaria trasformazione dei nostri ambienti commerciali, intellettuali e sociali. Di fatto, determinando una profonda mescolanza dei mondi reali e virtuali in praticamente tutte le attività degli esseri umani. E di strumenti intelligenti di supporto in grado di fornire prestazioni crescentemente impattanti.
Tra gli straordinari avanzamenti di questi sistemi, ci sono quelli riconducibili in particolare alle tecniche di machine learning ed in particolare di deep learning. Si deve a queste tecniche il passo che conduce alla AI generativa (di cui parleremo più avanti).
Il modellamento cognitivo in IA
Per valutare il ruolo svolto dal cognitive modeling per l’intelligenza artificiale, è necessario risalire alle ragioni del paradigma cognitivista evolutosi nel tempo e con natura fortemente multidisciplinare [5, 6] che fonda la comprensione del comportamento degli umani sulla capacità di modellare le loro rappresentazioni cognitive/mentali: rappresentazioni di cosa credono, intendono, vogliono, preferiscono. E come queste attitudini forniscano una interpretazione del mondo, degli altri, di essi stessi.
Al cuore di questo paradigma c’è quindi la mente interpretata come un sistema in grado di operare su rappresentazioni. È attraverso questa operatività della mente, ossia grazie alla sua capacità di manipolare, costruire, conservare, recuperare le rappresentazioni, che può essere spiegato il comportamento: per esempio come sarebbe possibile perseguire un fine/scopo senza averne prima una evidenza rappresentazionale? Lo stesso fine potrebbe certo essere raggiunto con altri mezzi, in modo inconsapevole o meglio senza rappresentarselo preventivamente, ma sarebbe legato a fattori casuali o a selezione evolutiva (come per molti animali a cui non è attribuibile una mente). Noi piuttosto siamo interessati a comprendere (anche allo scopo di simularlo) il pensiero intelligente dell’uomo che evidentemente guida il proprio comportamento attraverso rappresentazioni finalistiche prestabilite.
Dato il ruolo pervasivo che svolgono oggi le tecnologie intelligenti, la loro capacità di interazione con gli umani in moltissime attività, sembra del tutto evidente ritenere che queste tecnologie siano dotate di attitudini particolarmente affini a quelle che hanno reso l’uomo l’animale sociale che conosciamo. Tra queste certamente c’è la fiducia: vediamone un’analisi concettuale e un modello, basato su cognitive modelling, che la rappresenta.
Il concetto di fiducia e il suo modello computazionale
Come vivremmo in un mondo in cui l’affidabilità degli altri fosse del tutto imprevedibile? In cui non avremmo modo di valutare se i compiti delegati agli altri, quelli che non siamo in grado di realizzare per nostro conto e da cui dipende il nostro benessere, la nostra salute o la nostra stessa sopravvivenza, fossero realizzati oppure no? Quali effettive relazioni si stabilirebbero tra gli individui? Che società si svilupperebbe? Ci sarebbe una società?
Questa premessa rende chiaro come la fiducia rappresenti un’attitudine essenziale nelle nostre vite e nei nostri comportamenti.
Anche per questo è stata, da sempre, oggetto di vasto approfondimento e studio in differenti ambiti scientifici: dalla filosofia, alla psicologia, alla sociologia, all’economia, alla biologia [7, 8, 9, 10]. Eppure, o forse proprio per questa vastità di punti di vista con cui può essere analizzata, non esiste una definizione condivisa e unica di fiducia.
Volendo cercare di delinearne i due caratteri principali, potremmo definirla:
- come un ragionamento: essa implica infatti un modo di processare in modo razionale delle situazioni o delle caratteristiche o ancora dei dati, quindi di svolgere delle considerazioni logico-deduttive su questi elementi, individuare ipotesi considerabili oggettive e convincenti attraverso cui procedere ad un giudizio e quindi ad una decisione. Oppure,
- come un sentimento: in questo caso entrando in gioco, non processi razionali ma piuttosto elementi di affettività ed emozionalità.
Fornendo una veste formale e operazionale al concetto di fiducia, possiamo dire che:
- la fiducia è uno stato e attitudine mentale:
- ibrido: ossia tanto cognitivo, quanto affettivo;
- con struttura composita: riferibile a differenti ingredienti cognitivi: credenze, scopi, intenzioni, aspettative, etc.;
- orientato a differenti oggetti e dimensioni (ci si può fidare di un umano o di una sedia, per un compito ma non per un altro, e così via).
- la fiducia è un fenomeno ricorsivo: è possibile/necessario individuare delle ragioni per fidare e per ciascuna di queste ragioni è possibile/necessario individuare altre ragioni per fidarsi di esse stesse (e così via).
- la fiducia è un processo sia mentale che pragmatico. Mentale nel senso che può essere considerata tanto come una valutazione (una semplice attitudine mentale, una predisposizione, una valutazione preventiva non necessariamente connessa all’atto di fiducia); ma anche considerarla come una decisione (anche eventualmente dopo aver preso in considerazione comparazioni tra soggetti da fidare). Pragmatico, in quanto può essere considerata come un’azione (un comportamento, un atto intenzionale). In generale, è possibile pensare che uno sviluppo causale guidi i vari processi: per esempio che la valutazione, la decisione e l’azione siano rispondenti a stati mentali coerenti tra loro e, rispettivamente, ciascuno precondizione dei successivi (lo stato mentale della valutazione è predisponente lo stato mentale della decisione e lo stato mentale della decisione è predisponente lo stato mentale dell’azione). In realtà può succedere che questa coerenza non sia sempre rispettata.
- la fiducia è un fenomeno dinamico, non solo perché cambia nel tempo ma anche perché è possibile derivare fiducia da fiducia per esempio attraverso i fenomeni di transitività, o di categorizzazione, o dalla fiducia nelle credenze per fidare e così via.
Introduciamo la seguente rappresentazione formale del concetto di fiducia:
Trust(X Y τ C)
– dove X rappresenta il trustor, l’agente che si affida, che sente fiducia; questo deve essere un agente cognitivo, ossia dotato di scopi e credenze interni ed espliciti;
– Y è il trustee, l’agente/entità che deve essere fidato; Y non è necessariamente un agente cognitivo, nel caso in cui lo fosse la relazione si connoterebbe come fiducia sociale.
– C è il contesto (l’ambiente) in cui il trustee deve operare per realizzare il compito delegato;
– τ = (α,g) è il compito delegato; esso corrisponde ad una coppia: azione (α) e stato del mondo (g); il legame della coppia è dato dal fatto che quell’azione è il mezzo per ottenere quello stato del mondo. Non sempre nella delega di un compito vengono esplicitate entrambe queste variabili. È possibile che il trustor deleghi direttamente lo stato del mondo g al trustee e il trustee poi decida come ottenere quello stato del mondo (ossia scegliere quale azione individuare per realizzarlo).
Data questa formulazione, Trust(X Y τ C), possiamo tradurla quindi sostenendo che l’agente (cognitivo) X che ha la necessità di ottenere un certo scopo, ossia una certa situazione nel mondo (lo stato g), deleghi all’agente (non necessariamente cognitivo) Y il compito τ. Ossia gli deleghi la realizzazione di una certa azione (α), nel contesto C, per fare in modo che si avveri lo stato del mondo g che è il suo scopo.
Quindi se ne deduce che affinché si abbia l’attitudine a fidare è indispensabile che il fidante (trustor) abbia degli scopi da perseguire. Di conseguenza, l’agente X deve essere un agente cognitivo. Questa constatazione porta con sé alcune conseguenze rilevanti. Per esempio, che per perseguire uno scopo è necessario fidarsi di qualcuno/qualcosa, al limite di sè stessi. Ma anche che il possesso (creduto dal trustor) di specifiche caratteristiche da parte di un trustee può attivare un potenziale scopo e la relativa relazione di fiducia (generare un nuovo scopo).
Si può inoltre pensare a forme generalizzate di fiducia, dove X può fidare Y per una certa tipologia di scopi (e solo per quella) o addirittura per “qualunque” scopo; o ancora, fidare un insieme di agenti per un dato scopo o per una famiglia di scopi.
Ci sono inoltre i cosiddetti fenomeni di fiducia collettiva che sono relati agli scopi (bisogni, aspirazioni) delle persone coinvolte.
Abbiamo quindi visto quale ruolo fondamentale svolge una delle componenti cognitive prese in considerazione: lo scopo. Di fatto non può esserci fiducia senza uno scopo da ottenere!
Ma ci sono altre componenti cognitive, che devono essere modellate e che hanno una grande rilevanza per comprendere e definire il processo di “fidare”. Sono le credenze (beliefs) del trustor. Esse rappresentano le basi principali su cui la fiducia è fondata. Queste credenze sono rivolte principalmente al trustee ma non solo, per esempio riguardano anche il contesto in cui il trustee opererà. Vediamole nel dettaglio:
– una prima classe di credenze è rivolta alle competenze di Y; in particolare a quelle che sarebbero necessarie per il task o classe di task che X intende delegargli. Queste competenze generali possono essere ulteriormente specializzate: ci sono le abilità vere e proprie, ossia le capacità fisiche che un agente è in grado di esibire, ma anche il know-how, ossia le conoscenze utili per esercitare quelle abilità al meglio; e ancora la self-confidence, ossia la consapevolezza di quelle abilità (e così via).
– una seconda classe di credenze è rivolta alle intenzioni di Y; in particolare a quelle che sarebbero necessarie per il task o classe di task che X intende delegargli. Queste intenzioni si articolano in due differenti sottoclassi. Da una parte ci sono le attitudini intenzionali verso quel compito da parte di Y, indipendentemente da chi glielo ha delegato: la capacità di persistenza, motivazione, etc. direttamente collegabili a quel task o classe di task. D’altra parte, ci sono le attitudini intenzionali, attribuibili a Y sulla base della combinazione di quel task con la conoscenza di chi ha delegato il compito: benevolenza, non pericolosità, sicurezza, etc.
– una terza classe di credenze è rivolta alle conoscenze sul contesto in cui Y dovrà operare per realizzare il task delegato da X; ci sono infatti varie possibilità di condizioni favorevoli o di ostacolo alla realizzazione del compito. E l’azione di Y risulterà ovviamente influenzata da queste condizioni.
– un’ultima classe di credenze riguarda la dipendenza di X da Y per la realizzazione del task. In realtà questa dipendenza può essere di due tipi: X non è in grado di realizzare quel compito se non può delegarlo ad Y (dipendenza forte); oppure, per X è meglio delegare a Y piuttosto che svolgere da solo quel compito che pure sarebbe in grado di fare (dipendenza debole).
Ovviamente, quanto più è precisa la conoscenza di queste competenze, intenzionalità, contesti e dipendenze da parte di X, tanto più adeguata sarà l’aspettativa sui risultati delle azioni di Y.
Possiamo riassumere il modello mentale del trustor nella predisposizione a fidare attraverso la Figura1.
A partire dallo schema mentale necessario per sviluppare l’attitudine di fiducia è possibile analizzare le molteplici caratteristiche ed effetti che derivano da questo concetto di base. Per esempio, quali sono le dinamiche della fiducia? Come si relaziona con l’ordine sociale ed in particolare con le norme e le autorità. Su quali tipologie di sorgenti si basa la fiducia? Come si misura la fiducia? Quale è il suo rapporto con l’autonomia e con il controllo? Come può essere sfruttata così da rappresentare un capitale utilizzabile in una rete sociale?
Rispondiamo, nel seguito, solo ad alcuni tra i più interessanti di questi interrogativi.
Le fonti di fiducia
Come abbiamo visto i comportamenti degli agenti, in particolare se essi si fidano o meno di altri agenti, dipendono da cosa essi credono su questi ultimi: ossia dalle loro relative beliefs. Queste credenze non sempre hanno lo stesso peso. Alcune possono essere più convinte, altre meno. Ma da cosa deriva questa convinzione, ossia la forza di quelle credenze? Essa deriva dalla fonte (o le fonti, se ce n’è più di una) che ha (hanno) permesso di generarle.
È quindi importante concentrarsi sulla natura di queste fonti, per comprendere appieno come le credenze si generino e si modifichino nel tempo. Una prima tipologia di fonte, la principale, è l’esperienza diretta: l’agente acquisisce la specifica credenza attraverso la percezione diretta (da parte dei propri sensi ma anche di alcune proprie capacità cognitive, tipo la memoria) del fenomeno che genera la credenza.
Una seconda tipologia di fonte è la comunicazione da parte di altri agenti, del fenomeno che genera la credenza. In questo caso si parla di esperienza indiretta, in quanto il fenomeno viene mediato da un altro agente che può aver esperito direttamente lui il fenomeno che genera la credenza o addirittura aver a sua volta ricevuto comunicazione indiretta del fenomeno.
Una terza tipologia di fonte è il ricorso da parte dell’agente primario (colui che si costruisce la credenza) a sue capacità cognitive particolarmente sofisticate come il ragionamento e l’inferenza. Attraverso queste capacità l’agente genera nuove credenze che possono derivare da esperienza diretta e indiretta ed essere elaborate. Esempi sono il ragionamento che permette la categorizzazione di elementi del mondo, piuttosto che il ragionamento per analogia.
Per ogni specifica credenza (belief), indipendentemente dalla natura della fonte che l’ha generata, è utile indicare alcune caratteristiche fondamentali del rapporto credenza-fonte:
- identificazione della fonte: è in grado l’agente che possiede la specifica credenza, di ricondurre quella credenza alla fonte che l’ha generata?
- valore di certezza della fonte sul contenuto trasmesso: la fonte che genera (o contribuisce a generare) la credenza ha fornito (o può essere dedotto) un valore di certezza sul contenuto?
- fiducia verso la fonte: considerata la fonte che potenzialmente può determinare la credenza di un certo agente, quale è la fiducia dell’agente verso quella fonte? E quanto è determinante per dare un valore alla credenza conseguente?
Come si vede c’è un interessante elemento di ricorsione nell’analizzare l’attitudine di fiducia. Per fidarsi infatti è necessario ricorrere a delle credenze, ma queste a loro volta hanno la necessità di essere considerate affidabili e quindi scatenare, da parte del trustor, un processo di fiducia all’indietro, verso le fonti (e poi le fonti delle fonti, e così via).
Dinamica della fiducia
Un esempio di dinamica della fiducia che dà conto della necessità di costruire un modello cognitivamente ricco e rispondente al profilo del trustee, viene dall’analisi del processo di fiducia, quando lo si confronta rispetto ad un modello semplificato.
Se supponiamo di avere il seguente schema (Figura2):
Se introduciamo un modello cognitivo del trustee, lo schema cambia (Figura 3).
Insomma, una teoria attribuzionale, legata ad un modello cognitivo più sofisticato dell’attitudine a fidare, permette di andare oltre alla sola valutazione del risultato dell’atto di fiducia.
Un modello di fiducia analitico e articolato come quello sviluppato in [11, 12, 13] può quindi essere implementato in sistemi artificiali intelligenti (Figura4) così che l’interazione di questi sistemi sia più verosimile e adeguata a quella che gli umani esercitano nelle loro interazioni.
L’AI generativa: potenzialità e dubbi
L’intelligenza artificiale generativa rappresenta quell’ambito di ricerca e studio che ha a che fare con la realizzazione di sistemi AI capaci di generare, a partire da dati precedentemente analizzati e appresi, nuovi dati o nuove versioni di dati esistenti. È noto il caso di ChatGPT [14], un modello generativo di testi capace di creare testi in risposta a domande. ChatGPT realizza questi testi partendo da una base informativa dello stesso genere. Esistono anche altri sistemi AI generativi che producono immagini, suoni o video, non sempre a partire da dati di analoga natura. La stessa OpenAI, l’azienda che produce ChatGPT , ha sviluppato DALL-E [15], un sistema che realizza immagini accedendo a descrizioni testuali esprimibili in linguaggio naturale oppure con un input misto testo e immagini.
L’AI generativa analizza enormi quantità di dati, e individua in questa massa di informazioni, schemi e regolarità (correlazioni statistiche) così da generare risultati statisticamente probabili. Può essere che il linguaggio espresso, è il caso di CHAT-GPT, risulti per lo più indistinguibile da quello prodotto da umani. Questo provoca sul giudizio degli umani che recepiscono quel linguaggio, un forte condizionamento nell’assimilare ad output simili, processi di produzione similari: in pratica a realizzare una similitudine tra pensiero umano e processi dell’AI generativa.
In realtà, al momento di pubblicazione di questo lavoro, sono stati individuati chiari limiti, incongruenze e fallimenti nelle performance di questi sistemi [16], discostando queste produzioni da quelle degli umani. Inoltre, il modo in cui questi sistemi generativi funzionano è chiaramente differente dal modo in cui la mente umana ragiona e usa il linguaggio. I primi sono sostanzialmente motori statistici che macinando quantità impressionanti di testi, producono quindi testo con più alto valore di probabilità riferito agli schemi conversazionali appresi. La loro “comprensione” passa attraverso questa modalità di emergenza statistica (seppure molto sofisticata in questo ambito).
La mente umana, viceversa, si fonda su processi cognitivi ed affida la propria comprensione alla capacità di rappresentarsi il mondo e di operare su queste rappresentazioni, come detto all’inizio.
Sembrerebbe quindi che il modo di generare testo di questi sistemi AI, non rapportandosi esplicitamente al modello del mondo, non possa sviluppare del vero ragionamento, quello che permette la comprensione del mondo fisico e sociale basato su connessione di concetti ed entità. In pratica, convergendo sul fatto che l’IA generativa permetta di apprendere implicitamente la sintassi (ossia le regolarità di forma con cui una lingua si esprime), sorgono dubbi profondi che sia in grado di apprendere la sua semantica (il significato delle cose che quella lingua esprime).
Non è chiaro se e come questi limiti siano superabili e dipendenti non dal paradigma di base, quanto piuttosto dallo stato ancora non sufficientemente sviluppato della tecnologia che li realizza.
Va comunque sottolineato come l’indagine scientifica [17, 18], proceda nel tentativo di comprendere se l’efficacia di questi sistemi derivi esclusivamente dalla modellazione accurata delle statistiche di co-occorrenza di parole superficiali o se questi modelli rappresentino e ragionino anche sul mondo che descrivono. Questo genere di ricerca risulterà di grande importanza per comprendere meglio la natura profonda di questi algoritmi.
Conclusioni
Abbiamo quindi visto come l’approccio cognitivista e quello generativo all’IA offrano modelli e soluzioni interessanti ma non necessariamente convergenti al momento. Sembra inverosimile, sulla base dei limiti descritti, realizzare una AI generativa in grado di sviluppare una attitudine a fidarsi analoga a quella che può essere implementata in un sistema di AI con un’architettura cognitiva definita sulla base del modello presentato in questo lavoro. È possibile, d’altronde, che soluzioni miste di questi due approcci siano alquanto promettenti nella prospettiva di simulare i comportamenti intelligenti.
In questa chiave, visti gli avanzamenti e il livello impattante con cui queste tecnologie sono in grado di modificare i nostri più ordinari comportamenti -completamente trasformando il nostro modo di apprendere, di interagire, di operare nei vari ruoli che svolgiamo attivamente nel mondo- è opportuno avviare una riflessione profonda sulla prospettiva che si presenta al genere umano dato lo sviluppo di questa tecnologia.
Ci troviamo di fronte alla possibilità di straordinarie nuove opportunità ma al tempo stesso a potenziali e gravi rischi. Per esempio, la ormai diffusa digitalizzazione dei nostri comportamenti (quella che alimenta i big data, poi anche utilizzati dalla AI generativa) fa in modo che essi possano essere, nella maggior parte delle volte (a nostra insaputa o con la nostra benedicente sottovalutazione), osservati, memorizzati ed utilizzati. Questo solleva le ben note problematiche relative al cosiddetto “capitale di sorveglianza” [19]: il renderci produttori di dati che serviranno a realizzare previsioni particolarmente efficaci su futuri comportamenti, introduce i rischi a cui queste previsioni sono soggette (conformismo, riproposizione di schemi inadeguati seppur prevalenti. E così via). Inoltre, questo alimenta il potere delle industrie tecnologiche che hanno di fatto monopolizzato il mercato mondiale sfruttando l’assenza di limiti e di regole, e che operano sostanzialmente senza assumersi responsabilità per gli eventuali usi distorti delle loro azioni e dei loro prodotti. Usi che possono produrre pericolose manipolazioni delle opinioni pubbliche e di alcuni principi essenziali delle libertà individuali, insomma un potenziale per lo stravolgimento delle governance delle società.
È per questo forte l’auspicio che le Istituzioni Pubbliche (nazionali e ancor più sovranazionali) preposte alla garanzia e tutela dei diritti fondamentali di ciascuno di noi, possano svolgere con determinazione ed equilibrio questo ruolo che compete loro. Affinché, controllando i rischi, non si debba rinunciare ai vantaggi di questa straordinaria sfida per l’evoluzione della nostra specie.
Bibliografia
[1] Turing, A.M. (2009). Computing Machinery and Intelligence. In: Epstein, R., Roberts, G., Beber, G. (eds) Parsing the Turing Test. Springer, Dordrecht. https://doi.org/10.1007/978-1-4020-6710-5_3
[2] McCulloch, W.S., Pitts, W. A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics 5, 115–133 (1943). https://doi.org/10.1007/BF02478259
[3] John McCarthy & Claude Shannon (1958), Automata Studies, Journal of Symbolic Logic 23 (1):59-60.
[4] Dennett, D., (1987), The Intentional Stance, The MIT Press, Cambridge, Mass..
[5] Castelfranchi C., (2019), Fine della scienza cognitiva? Ma non del cognitivismo. Sistemi Intelligenti, 2019, 3, pp: 651-653 | DOI: 10.1422/95096.
[6] Nicoletti R., Rumiati R., Lotto L., (2017), Psicologia. Processi cognitivi, teoria e applicazioni, il Mulino, Bologna 2017;
[7] Luhmann, N. (1979) Trust and Power. Wiley, Chichester.
[8] Gambetta, D. (1988). Can We Trust Trust? In Trust: Making and Breaking Cooperative Relations. Blackwell. pp. 213-237.
[9] Jones, K. (1996). Trust as an Affective Attitude. Ethics, 107(1), 4–25.
[10] Hardin, R. (2002). Trust and Trustworthiness. Russell Sage Foundation.
[11] Falcone, R., Castelfranchi, C., (2001). Social Trust: A Cognitive Approach, in Trust and Deception in Virtual Societies, ed. by Castelfranchi C. and Yao-Hua Tan, Kluwer Academic Publishers, 55-90.
[12] Falcone, R., Castelfranchi, C., (2001), The Human in the Loop of a Delegated Agent: The Theory of Adjustable Social Autonomy, IEEE Transactions on Systems, Man, and Cybernetics, Part A: Systems and Humans, Special Issue on “Socially Intelligent Agents – the Human in the Loop”, 31, 406-418.
[13] Castelfranchi, C., Falcone, R., (2010). Trust Theory: A socio-cognitive and computational model. Wiley.
(14) https://openai.com/blog/chatgpt
(15) https://openai.com/product/dall-e-2
(16) Borji, A., (2023), A Categorical Archive of ChatGPT Failures. arXiv preprint arXiv:2302.03494v1, 6Feb2023.
(17) Li B., Nye M., Andreas J., (2021), Implicit Representations of Meaning in Neural Language Models, Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing, pages 1813–1827.
(18) Li B., Chen W., Sharma P., Andreas J., (2023), LAMPP: Language Models as Probabilistic Priors for Perception and
(19) Zuboff, S., (2019), The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. London: Profile Books.