La capacità dell’intelligenza artificiale di funzionare bene in specifici ambiti migliorerà grazie a nuovi approcci, misti: unendo reti neurali e i classici sistemi simbolici.
Alphageometry e le olimpiadi di matematica
È la lezione che emerge dal successo di Alphageometry alle ultime olimpiadi di matematica, come spiegato dall’articolo pubblicato su Nature da ricercatori di Google Deepmind.
Presentano un impiego che combini tecniche di intelligenza artificiale simbolica combinata con LLM applicata alla soluzione di problemi di geometria usati nelle olimpiadi della matematica.
Il sistema AlphaGeometry si è confrontato con 30 problemi selezionati nel periodo 2000-2022 risolvendone 25 contro il la media di 25,9 della medaglia d’oro umana. Il sistema migliore precedente, disegnato nel 1978, si fermava a risolverne 10. Perché si tratta di un risultato importante, e soprattutto cosa rappresenta nel panorama dell’intelligenza artificiale? Cerchiamo di capirne le implicazioni.
L’AI e la sfida del ragionamento logico
Dimostrare una proprietà matematica è un problema interessante dal punto di vista dell’intelligenza artificiale: richiede la capacità di seguire un ragionamento logico in cui ogni passo deduttivo segua dei principi ben definiti. Sappiamo tutti che con poca semplice dialettica era possibile convincere un AI generativa come GPT che 2+2 fa 5, e in fondo ha fatto notizia per la prima parte del 2023 come prova della scarsa “intelligenza” dell’AI.
In realtà il meccanismo delle reti neurali utilizzate per realizzare i LLM come ChatGPT e Gemini è di fatto un meccanismo associativo: il testo è generato semplicemente in base a modelli probabilistici avendo letto una quantità enorme di dati. Il processo di apprendimento è quindi sintattico e di conseguenza il testo generato non segue un modello di ragionamento ma si limita a completare una frase con i termini che più probabilmente seguiranno.
Avendo letto più di quanto chiunque possa leggere il modello sa “scimmiottare” il ragionamento semplicemente trovando al proprio interno i costrutti linguistici che seguono linee di ragionamento corrette. Per questo motivo quando uno mette in discussione la risposta data, spesso un LLM ritratta proponendo risposte alternative spesso in logicamente in contraddizione con le risposte date in precedenza. Non è un caso che questi modelli vengano definiti a volte “pappagalli stocastici” data la loro natura di ripetere, seppur in modo articolato, testi a partire da quello che hanno letto.
Combinazione tra LLM e ragionamento simbolico: il contributo di AlphaGeometry
Non è un caso quindi che il ragionamento logico deduttivo sia largamente insoddisfacente nonostante i proclami degli appassionati dell’AI generativa e gli indubbi comportamenti emergenti (ovvero non codificati) dei modelli LLM.
Il contributo di AlphaGeometry è stato quindi quello di combinare tecniche di ragionamento simbolico e quelle tipiche dei modelli LLM. Nell’articolo su Nature gli autori dicono: “Il modello linguistico viene inizializzato con la stringa della dichiarazione del problema e genera una frase aggiuntiva a ogni turno, condizionandosi sulla dichiarazione del problema e sulle costruzioni precedenti, descrivendo una nuova costruzione ausiliaria come “costruisci il punto X in modo che ABCX sia un parallelogramma”. Ogni volta che il modello linguistico genera una tale costruzione, al motore simbolico vengono forniti nuovi input su cui lavorare e, di conseguenza, la sua chiusura deduttiva si espande, potenzialmente raggiungendo la conclusione.”
In sostanza il modello linguistico introduce elementi secondo il meccanismo generativo e il sistema di ragionamento simbolico parte dall’affermazione per cercare una dimostrazione di veridicità dell’affermazione secondo un meccanismo di ragionamento deduttivo.
L’AI del futuro: coordinare sistemi intelligenti
Quando si leggono notizie come quella di AlphaGeometry è sempre difficile comprendere la portata di un risultato: il fatto che l’AI adesso domini la geometria ci rende inutili? L’AI ci conquisterà più facilmente?
In realtà il risultato in sé ricorda un po’ quello di DeepBlue quando alla fine degli anni ’90 il sistema di IBM batté il campione del mondo di scacchi. Sono le tecniche e le idee sviluppate che contribuiranno allo sviluppo dell’AI non il sistema in sé.
Quello che ci mostra l’approccio seguito dai ricercatori di Google è che arricchire le capacità di un modello LLM con funzioni specifiche consente di migliorare significativamente lo stato dell’arte. In fondo ricorda molto la funzione dei plugin di OpenAI, oppure quella delle funzioni: meccanismi per lasciare il modello LLM a creare l’impalcatura avvalendosi però dell’aiuto di componenti esterni per produrre le risposte. In questo caso di un theorem prover simbolico capace di verificare se le affermazioni del modello LLM seguissero un ragionamento logico deduttivo corretto.
È prevedibile che questo tipo di architetture si diffonderà nel corso dell’anno, cessando la corsa alla realizzazione del modello più grosso e concentrandosi più nell’aggregare sistemi di AI diversi che concorrano collettivamente alla realizzazione di capacità complesse. In oltre cinquant’anni di intelligenza artificiale sono state definite numerose tecniche oltre alle reti neurali, ed è naturale che su compiti specifici alcune tecniche possano essere superiori a quelle apprese da una rete. Resta il ruolo centrale degli LLM che dominando per la prima volta il linguaggio naturale consentono di provare tecniche di coordinamento molto innovative sia nella fase di analisi per la definizione del problema che nella fase di sintesi per la raccolta dei risultati.
Gli impatti
In fondo anche il nostro cervello si specializza in sottosistemi che presentano aspetti e manifestano funzionamenti diversi a seconda della funzione svolta. Non resta che vedere come l’impiego di tecniche ibride possa rendere le moderne AI più efficaci nello svolgere compiti specifici come ha fatto AlphaGeometry per la dimostrazione di proprietà geometriche.