L’insipienza semantica è uno dei grandi problemi aperti dell’intelligenza artificiale, se non forse il più grande. Lo ripetono a ogni occasione il fisico Federico Faggin e il filosofo John Searle.
Mettendo da parte i linguaggi tecnico-specialistici, per i quali le tecniche di ibridazione potranno consentire notevoli progressi, produrre ragionamenti ipotetici basati sulle conoscenze comuni è dunque il grand challenge della attuale fase di sviluppo dell’intelligenza artificiale.
Intelligenza artificiale e comprensione del linguaggio: a che punto siamo
I limiti degli attuali approcci neurali
Per Faggin, il computer è solo un processore di bit e, benché appaia sempre più “intelligente”, non ha nulla che lo accosti neanche lontanamente alla coscienza umana. In molte occasioni il fisico italiano inventore del microprocessore ha sottolineato l’incapacità della macchina di dare “significato” ai simboli su cui si basano i suoi calcoli. Un argomento simile a quello che Searle ha esemplificato col suo classico esperimento mentale detto della ‘stanza cinese’. Immaginiamo una persona che, al chiuso di una stanza, sia in grado di ricevere bigliettini scritti in cinese e restituirli tradotti correttamente.
Si potrebbe pensare che questa persona conosca il cinese, ma guardando nella stanza ci si accorge che ogni volta la persona compulsa un enorme registro in cui ciascuna frase cinese è tradotta nella lingua di destinazione. Dunque, nessuna conoscenza del cinese, ma solo tanti dati (il registro) e tanta infaticabile capacità di lavoro.
Le formidabili reti neurali addestrate su terabytes di testo che consentono oggi di approssimare il significato delle parole raggiungendo prestazioni spettacolari, ad esempio nella traduzione automatica, sono pur sempre esempi di ‘stanza cinese’: conoscono milioni di correlazioni, ma non hanno idea di cosa vogliano dire. La questione non si può liquidare dicendo che è il risultato quello che conta, perché, anche nelle più potenti reti neurali, l’incapacità di cogliere il significato si fa sentire.
I limiti degli attuali approcci neurali si vedono bene in quello che viene chiamato “ragionamento di senso comune” (commonsense reasoning). L’interpretazione umana delle parole e delle frasi consiste sempre nel fare ipotesi su cosa l’interlocutore voglia dire. In queste ipotesi non entra solo ciò che si ascolta o legge, ma anche le conoscenze del mondo che i parlanti hanno (o credono di avere) in comune. Così si spiega il fatto che “ho visto un elefante col binocolo” non ci faccia venire in mente che il binocolo potesse averlo l’animale, mentre il dubbio sarebbe legittimo se leggessimo: “ho visto l’uomo col binocolo”.
“Non c’è nulla che sia fuori dal testo” diceva Jaques Derrida, intendendo che in ciascuno di essi si riflette l’immagine del mondo intero. Questa immagine, d’altro canto, non è ricavabile dall’insieme dei testi (come propagandano certi stregoni delle reti neurali) perché il linguaggio è un gioco collettivo situato nella realtà, sia essa materiale o sociale. Molti filosofi, tra cui Wittgenstein, lo hanno spiegato bene.
Il grand challenge dell’intelligenza artificiale
Produrre ragionamenti ipotetici basati sulle conoscenze comuni è dunque un grand challenge della attuale fase di sviluppo dell’intelligenza artificiale. Molti ricercatori si dedicano a questo già da tempo. Un classico esperimento che mostra gli avanzamenti nel campo è lo “Schema Winograd”, ideato da Hector Levesque nel 2011. Consiste nel risolvere quesiti che riguardano frasi sintatticamente ambigue che sono del tutto ovvie per gli umani ma costituiscono un grattacapo per le macchine, come ad esempio:
Il trofeo non entrava nella valigia marrone perché era troppo grande (piccolo). Cosa era troppo grande (piccolo)?
Risposta 1: il trofeo
Risposta 2: la valigia
Il problema qui è quello di individuare correttamente il senso di ‘entrare’ come introduzione di un oggetto in un contenitore e stabilire chi sia l’oggetto e chi il contenitore. Un compito per noi così banale risulta di fatto arduo anche per reti neurali addestrate con milioni di parole.
Il ragionamento ipotetico
Il ragionamento ipotetico (detto anche abduttivo) pone sfide ancora più complesse. L’Allen Institute for AI, creatura del co-fondatore di Microsoft, ha costruito il dataset Abductive Natural Language Inference per misurare questo tipo di ragionamenti, il quale si presenta come una collezione di strutture fatte così:
Osservazione 1: Jenny ama molto mandare messaggi col telefono.
Osservazione 2: Jenny ha sfiorato un incidente automobilistico.
Ipotesi 1: Da quando un suo amico ha avuto un incidente mandando un messaggio, Jenny tiene il telefono spento quando è alla guida.
Ipotesi 2: Jenny stava guardando il telefono e non prestava attenzione alla guida.
Chiunque scommetterebbe sull’ipotesi 2 scartando la 1, ma per un’IA questa scommessa si rivela niente affatto banale.
La sfida del commonsense
La sfida del commonsense è difficile per due ragioni: l’impossibilità di descrivere tutto ciò che è nel mondo (che non è impresa da pigliare a gabbo per dirla con Dante) e l’incertezza intrinseca del ragionamento abduttivo. In fondo, chi ci dice che Jenny non abbia rischiato l’incidente per un colpo di sonno?
Una strategia per simulare il senso comune è quella di mettere insieme reti neurali addestrate sui corpora testuali con grandi dizionari concettuali “fatti a mano”, ad esempio ConceptNet. La Good Old-Fashioned Artificial Intelligence, cacciata dalla porta un decennio fa, rientra oggi dalla finestra. Queste ibridazioni appaiono come espedienti tecnici che non hanno alcuna pretesa di modellare la comprensione umana del linguaggio. Cosa sia in realtà questa comprensione, infatti, è ancora oggi alquanto misterioso sia sotto il profilo fisiologico sia sotto quello filosofico.
Un discorso a parte è quello dei linguaggi tecnico-specialistici, dalla medicina al codice civile, passando per la finanza. Le parole che nel linguaggio quotidiano restano spesso volutamente ambigue diventano, per necessità, molto precise quando si tratta di designare una malattia, un vincolo legale, un tasso di interesse. Sul vastissimo (e lucrosissimo) territorio di questi linguaggi, le tecniche di ibridazione potranno consentire notevoli progressi, senza alcuna pretesa di realismo. Fisici e filosofi continueranno ad avere ragione nell’indicare l’insipienza semantica degli automi, ma in molti ambiti gli ingegneri potranno rispondere: whatever works!