Gato di DeepMind è un’intelligenza artificiale multimodale (che riesce a gestire più tipologie di dati contemporaneamente) in grado di giocare con alcuni videogiochi, di scrivere le didascalie delle immagini, di chattare e di “impilare blocchi” con un vero braccio robotico. E questi sono solo quattro dei seicento compiti diversi che il sistema è in grado di svolgere.
Non tutti però sono d’accordo sul fatto che Gato sia la concretizzazione di un ulteriore passo verso quella che viene definita “Intelligenza Artificiale Generale” (o “AGI”, “Artificial General Intelligence”), ossia quella capacità di un “agente intelligente” di comprendere o apprendere qualsiasi compito che un essere umano può svolgere con il suo intelletto. C’è, anzi, chi ritiene che il clamore montato intorno a Gato possa nuocere allo sviluppo dell’intelligenza artificiale.
Gato è la prima AI “generalista”? Ma l’intelligenza umana è altra cosa
Verso un’IA di “livello umano”: perché Gato è differente
DeepMind ha tracciato la strada verso l’implementazione di modelli AGI sempre più performanti e qualitativamente migliori, ossia ha continuato a solcare il percorso che conduce alla realizzazione di un’intelligenza artificiale di “livello umano”.
Cosa che, peraltro, altri modelli di IA, come il generatore di testi “GPT-3” e il generatore di immagini “DALL-E”, entrambi della non-profit californiana OpenAI, hanno fatto al momento del loro esordio sul mercato.
Vi è da dire che alcuni modelli hanno iniziato a “mescolare” diverse abilità: DALL-E, per esempio, genera immagini da descrizioni testuali. Altri utilizzano un’unica tecnica di addestramento per imparare a riconoscere immagini e frasi. Mentre AlphaZero di DeepMind imparava a giocare a Go, scacchi e al gioco nipponico shogi.
Tuttavia, passato e presente portano con loro una differenza cruciale: AlphaZero – che ha “sul groppone” un quinquennio di vita – può imparare solo un compito alla volta. Basti pensare che dopo aver imparato a giocare a Go, doveva dimenticare tutto ciò che conosceva anteriormente (ad esempio, il gioco degli scacchi). AlphaZero non può, in pratica, imparare a giocare a più di un gioco alla volta. Mentre Gato impara più attività diverse allo stesso tempo, il che significa che può passare da un’attività all’altra senza dover dimenticare un’abilità prima di impararne un’altra. E questo è, indubbiamente, un piccolo ma significativo progresso nel settore in esame.
Tra hype e realtà: le critiche a Gato
Il rovescio della medaglia è che Gato non esegue i compiti come i modelli che possono fare “solo una cosa alla volta”. I robot devono ancora apprendere dal testo le “conoscenze di senso comune” su come “funziona il mondo”. Questo potrebbe essere utile per i robot impiegati nell’ausilio domestico; quando si porta un robot in cucina, ad esempio, e gli si chiede di preparare una tazza di tè per la prima volta, tale macchina sa quali sono le fasi di preparazione di una tazza di tè (e probabilmente sa anche in quale armadietto si trovano le bustine di tè).
Per alcuni ricercatori però, Gato è ben lontano dall’essere “intelligente” (almeno come AGI), etichettando la new entry di casa DeepMind di trionfalismo non giustificato. I modelli di Deep Learning spesso generano un grande entusiasmo per il potenziale raggiungimento di un’intelligenza di livello umano; è come se ogni volta si annunciasse di aver raggiunto l’AGI senza averlo concretamente fatto. Alla fin fine, è un po’ come se si cercasse di prevedere con precisione un andamento azionario o una previsione meteorologica (settori dove il trionfalismo, alle volte, non porta a risultati sperati). In un certo senso, il fatto che DeepMind abbia definito Gato una Intelligenza Artificiale Generalista potrebbe averla resa vittima dell’eccessivo clamore che il settore dell’IA porta spesso con sé.
I sistemi di Intelligenza Artificiale odierni sono definiti “ristretti”, cioè in grado di svolgere solo un insieme specifico e limitato di compiti, come generare testi o immagini. Alcuni esperti ritengono che un giorno l’uomo svilupperà sistemi di Intelligenza Artificiale “più ampi”, in grado di funzionare come o addirittura meglio dell’uomo. Gato è definibile come “Generalista” nel solo senso che può fare molte cose diverse allo stesso tempo. Ma questo è un mondo a parte rispetto ad una vera Intelligenza Artificiale Generalista, la quale può adattarsi in modo significativo a nuovi compiti diversi da quelli su cui il modello è stato addestrato. E siamo ancora lontani dal poterlo fare.
Conclusioni
Il clamore suscitato da strumenti come Gato potrebbe, invero, risultare dannoso per lo sviluppo generale dell’Intelligenza Artificiale. Ci sono molti argomenti interessanti che vengono lasciati in disparte, che sono sottofinanziati e meritano maggiore attenzione, ma non è questo che interessa alle grandi aziende tecnologiche e alla maggior parte dei ricercatori di tali aziende. Le aziende tecnologiche dovrebbero fare un passo indietro e valutare perché stanno “costruendo quello che stanno costruendo”.
L’Intelligenza Artificiale parla di qualcosa di profondamente umano: l’idea che possiamo diventare più di quello che siamo, costruendo strumenti che ci spingano alla “grandezza”. E il solo clamore mediatico difficilmente potrà mai aiutare tale settore in questo senso.[1]
- The hype around DeepMind’s new AI model misses what’s actually cool about it. MIT Technology Review. ↑