L’AGI, intelligenza artificiale generale, è diventata una buzzword nel dibattito sull’intelligenza artificiale, la sua definizione resta però ambigua e divisiva. Alcuni la raccontano come imminente, altri la paragonano a una chimera scientifica. Attraverso un’analisi di alcune recenti posizioni emerse, sia accademiche che strategiche, proviamo a smontare il “giocattolo” mito dell’AGI per osservarlo più da vicino e proviamo a valutare se abbia davvero senso inseguirla come obiettivo prioritario.
Indice degli argomenti
Cos’è davvero l’intelligenza artificiale generale (AGI)?
L’Artificial General Intelligence (AGI) viene generalmente definita come un sistema in grado di svolgere qualsiasi compito cognitivo umano con prestazioni uguali o superiori. Questa concezione, promossa da aziende come OpenAI e DeepMind, si basa sull’idea che una rete neurale sufficientemente grande e addestrata su una varietà di dati possa acquisire un’intelligenza simile a quella umana.
Negli ultimi anni, il concetto di AGI è stato al centro del dibattito pubblico, con alcuni esperti che sostengono che il suo sviluppo sia imminente (Ezra Klein Show, 2025[1]). Non esiste un consenso sulla sua definizione: per alcuni, l’AGI è un sistema capace di apprendere autonomamente nuovi compiti senza supervisione, mentre per altri dovrebbe possedere capacità di ragionamento e adattamento paragonabili a quelle umane.
Questa mancanza di chiarezza permette alle aziende tecnologiche di usare il termine per attrarre finanziamenti e giustificare strategie aziendali, alimentando un ciclo di aspettative che potrebbe non trovare riscontro nella realtà tecnologica attuale. Secondo gli autori del paper “Stop treating ‘AGI’ as the north-star goal of AI research” (Blili-Hamelin et al., 2025)[2], il concetto stesso di AGI è vago e manca di una definizione univoca, rendendolo uno strumento malleabile per le grandi aziende tecnologiche. Questa mancanza di chiarezza permette di presentare come progresso verso l’AGI sviluppi incrementali dell’AI tradizionale, senza reali innovazioni paradigmatiche. Ad esempio, sistemi avanzati come GPT-4.5 di OpenAI, Claude 3 e il modello cinese DeepSeek vengono talvolta descritti come passi verso l’AGI, pur essendo ancora modelli statistici di pattern recognition, privi di capacità di astrazione e adattamento autonomo.
Questo crea un circolo di aspettative in cui ogni avanzamento viene narrato come un passo decisivo verso l’AGI, alimentando il flusso di investimenti senza una verifica oggettiva delle reali capacità cognitive dei modelli AI. Il paper sottolinea inoltre che molte ricerche sull’AGI non seguono criteri scientifici rigorosi, presentando metriche vaghe o non replicabili. Ciò favorisce la proliferazione di annunci sensazionalistici, in cui il concetto di AGI è utilizzato più come leva di marketing che come obiettivo scientifico misurabile.
Il mito dell’intelligenza artificiale generale e le aspettative irrealistiche
Il dibattito sulla fattibilità dell’AGI si divide tra chi la considera una tecnologia imminente e chi la ritiene ancora un obiettivo irraggiungibile nel breve termine. Questa polarizzazione riflette non solo divergenze scientifiche, ma anche interessi economici e geopolitici.
L’AGI è vicina: una prospettiva ottimistica
Secondo alcuni esperti, l’Intelligenza Artificiale Generale potrebbe emergere nei prossimi due o tre anni, grazie ai recenti sviluppi nel deep learning e alla crescente disponibilità di risorse computazionali. Ezra Klein e Ben Buchanan, nel loro dibattito sul The Ezra Klein Show (2025)[3], evidenziano come molti ricercatori e aziende leader del settore credano che l’AGI sia ormai una possibilità concreta, piuttosto che un concetto astratto o futuribile. Un esempio significativo di questa accelerazione è il modello Manus, sviluppato in Cina, che ha dimostrato capacità agentiche avanzate. Secondo un recente articolo del MIT Technology Review[4], Manus è in grado di eseguire pianificazioni autonome, adattarsi rapidamente a nuovi scenari e prendere decisioni strategiche complesse. Questo sistema non si limita a generare risposte testuali o a processare informazioni in modo statistico, ma dimostra elementi di ragionamento simili a quelli umani, come la capacità di risolvere problemi aperti senza una guida predefinita.
Questa visione ottimistica si basa sulla convinzione che i recenti miglioramenti nelle architetture AI, uniti all’espansione delle capacità computazionali, possano portare a un cambiamento di paradigma. Il rischio, sottolineano Buchanan e Klein, è che questa evoluzione avvenga troppo rapidamente per essere adeguatamente regolamentata, con implicazioni profonde per la sicurezza informatica, il mercato del lavoro e la competizione tra potenze tecnologiche globali.
La Cina e gli Stati Uniti, in particolare, stanno investendo miliardi di dollari nella ricerca AI, cercando di ottenere un vantaggio strategico in quella che potrebbe essere la più grande rivoluzione tecnologica del secolo.
L’AGI è lontana o impossibile: il fronte scettico
Una parte della comunità scientifica considera l’AGI non solo lontana, ma potenzialmente irraggiungibile con le attuali metodologie di ricerca. Gary Marcus, noto esperto di AI, critica apertamente il concetto stesso di AGI[5], sostenendo che gli attuali modelli non siano realmente capaci di apprendere in modo generale, ma si limitino a riconoscere pattern nei dati su cui sono stati addestrati.
Nello studio “Stop treating ‘AGI’ as the north-star goal of AI research” (Blili-Hamelin et al., 2025) gli autori criticano l’ossessione per l’AGI, sostenendo che sia una costruzione più ideologica che scientifica, affermano che l’idea di perseguire un’intelligenza artificiale generalista è basata su presupposti non verificabili e che molte delle ricerche in questo campo sono guidate più da interessi commerciali e hype mediatico che da una reale necessità tecnologica. Inoltre, il paper avverte che concentrarsi sull’AGI rischia di distogliere risorse da applicazioni AI più concrete e utili nel breve termine.
Queste critiche sollevano una questione chiave: l’AGI è un obiettivo realistico o è solo un’idea affascinante che alimenta il marketing delle Big Tech? La ricerca deve continuare a investire su una meta incerta, o sarebbe più produttivo sviluppare AI specializzate, capaci di eccellere in ambiti mirati senza la necessità di una “coscienza” artificiale? Il dibattito rimane aperto, ma il fronte scettico avverte che l’AGI potrebbe rivelarsi più un’illusione che una destinazione concreta. In numerosi interventi pubblici e articoli accademici, Marcus ha ribadito che le attuali reti neurali non possiedono capacità di ragionamento astratto, né la flessibilità cognitiva necessaria per adattarsi autonomamente a nuovi compiti senza un massiccio riaddestramento.
I limiti attuali dell’intelligenza artificiale
Uno degli studi più rilevanti che mettono in discussione l’AGI come concetto praticabile è quello della Tsinghua University e della Renmin University[6], che introduce un nuovo framework chiamato “Survival Game” per testare il livello di autonomia e adattabilità dei sistemi AI. Secondo questo modello, l’intelligenza di un sistema non si misura solo dalla sua capacità di elaborare dati, ma soprattutto dal numero di errori che commette prima di trovare una soluzione. Lo studio dimostra che la maggior parte delle AI attuali opera ancora a livello “Limited”, ovvero fa errori infiniti prima di trovare la soluzione corretta, segno che manca di una vera autonomia decisionale. Anche i modelli più avanzati, come quelli basati su deep learning, rientrano al massimo nel livello “Capable”, caratterizzato da un numero finito di errori ma con una variabilità elevata nelle prestazioni.
Per raggiungere un’AGI autentica, sarebbe necessario un sistema che funzioni a livello “Autonomous”, cioè in grado di risolvere problemi con un numero limitato e costante di errori, cosa che oggi nessun modello AI sembra in grado di fare. Inoltre, lo studio calcola che un’AGI realmente autonoma richiederebbe 100.000 volte la capacità computazionale attuale, rendendo la sua realizzazione altamente improbabile nel breve-medio termine. Questo mette in discussione l’idea che l’AGI possa emergere semplicemente scalando i modelli esistenti, suggerendo invece la necessità di un cambio radicale nell’approccio alla ricerca AI.
Lo studio evidenzia anche un altro problema: gli attuali modelli AI dipendono interamente dai dati su cui vengono addestrati, il che li rende incapaci di gestire situazioni realmente nuove senza un intervento umano. Questo limite strutturale contraddice la promessa di un’AI “generale” e suggerisce che l’approccio attuale, basato sulla mera espansione delle reti neurali, potrebbe non essere la strada giusta.
L’intelligenza artificiale generale è una minaccia da gestire come le armi nucleari
Un’altra prospettiva, più pragmatica e legata alla sicurezza internazionale, considera l’AGI non solo un traguardo tecnologico, ma un rischio geopolitico da gestire con estrema cautela.
Secondo il paper “Superintelligence Strategy” (Schmidt, Hendrycks, Wang, 2025)[7], l’Intelligenza Artificiale Generale potrebbe rappresentare un punto di svolta tanto destabilizzante quanto la scoperta della fissione nucleare nel XX secolo. Eric Schmidt e i suoi coautori sostengono che l’AGI, se realizzata senza adeguati controlli, potrebbe compromettere l’equilibrio globale, con la possibilità che un solo attore — sia esso uno Stato o una grande corporation — acquisisca un vantaggio tecnologico incontrastato.
Per evitare questo scenario, propongono di trattare gli AI avanzati alla stregua dell’uranio arricchito, soggetti a rigide regolamentazioni internazionali e a un controllo sovranazionale che impedisca la proliferazione incontrollata. In questo contesto, il concetto di Mutual Assured AI Malfunction (MAIM) assume un ruolo centrale.
Questo principio, mutuato dalla dottrina della Mutua Distruzione Assicurata (MAD) della Guerra Fredda, suggerisce che nessuno Stato dovrebbe cercare di monopolizzare l’AGI, poiché un tale squilibrio potrebbe portare a un’escalation imprevedibile, tra sabotaggi informatici e corse agli armamenti digitali. La corsa per il controllo dell’AGI potrebbe infatti portare a sviluppi accelerati e non regolamentati, con conseguenze imprevedibili sulla sicurezza globale e sulla stabilità economica.
Questa prospettiva trova riscontro nel crescente interesse delle agenzie governative per lo sviluppo dell’AI militare e strategica. Paesi come gli Stati Uniti e la Cina stanno già investendo in sistemi di intelligenza artificiale con applicazioni per la difesa e la sorveglianza, rendendo sempre più concreta l’ipotesi che l’AGI possa diventare uno strumento di supremazia tecnologica anziché una tecnologia di beneficio universale. L’idea di regolamentare la ricerca sull’AGI a livello internazionale è condivisa anche da istituzioni accademiche e think tank sulla sicurezza tecnologica. La questione principale rimane aperta: è davvero possibile regolamentare un’innovazione ancora inesistente? Soprattutto, chi avrà il potere di definire i limiti di sviluppo e applicazione di un’AGI, evitando che diventi una tecnologia esclusiva di pochi attori con interessi economici e geopolitici?
Problemi e contraddizioni del concetto di intelligenza artificiale generale
L’idea di un’Intelligenza Artificiale Generale non è solo un concetto tecnologico, ma anche una costruzione economica e politica che riflette interessi specifici più che una reale necessità scientifica. Uno dei principali problemi è la presunta neutralità scientifica dell’AGI: definire cosa significhi “intelligenza” è in sé una scelta culturale e politica. La ricerca sull’AI ha sempre oscillato tra modelli simbolici e connessionisti, e l’AGI viene spesso presentata come la sintesi definitiva di questa evoluzione, quando in realtà resta un obiettivo mal definito. Un altro aspetto critico è il controllo del dibattito sull’AGI.
Le Big Tech utilizzano la narrazione dell’AGI per giustificare ingenti investimenti e attrarre finanziamenti pubblici e privati, senza fornire prove concrete che questa sia una direzione realistica. OpenAI, DeepMind e Anthropic parlano di AGI come di un traguardo imminente, ma le loro stesse ricerche dimostrano che i loro modelli attuali, sebbene sempre più avanzati, rimangono fondamentalmente degli strumenti di elaborazione statistica piuttosto che entità dotate di vera comprensione e autonomia cognitiva. Infine, esiste una alternativa praticabile alla corsa verso l’AGI: sviluppare AI specializzate, ottimizzate per compiti specifici, che possano effettivamente migliorare processi industriali, sanitari e logistici senza la necessità di inseguire una “superintelligenza onnisciente”. Molti ricercatori sostengono che una AI avanzata e distribuita su diversi settori potrebbe avere un impatto molto più concreto rispetto all’inseguimento di un’ipotetica intelligenza generale, che rischia di rimanere un concetto vago e strumentalizzato.
Oltre il mito dell’intelligenza artificiale generale: un futuro realistico per l’IA
L’AGI non è solo un problema tecnico, ma un’idea politica ed economica che orienta la direzione della ricerca AI, proprio come l’inseguimento del viaggio interstellare nei film di fantascienza: un sogno affascinante, ma irto di incognite.
Se alcune narrazioni vogliono convincerci che siamo vicini a una sorta di Skynet di Terminator, capace di sfuggire al controllo umano, la realtà tecnologica è ben diversa. Gli attuali modelli di AI, pur essendo straordinariamente avanzati, operano ancora con logiche deterministiche e dataset predefiniti, molto lontani dalla creatività autonoma e dall’adattamento istantaneo di un’intelligenza realmente generale. Invece di alimentare una visione apocalittica o utopistica dell’AGI, come quella di Ex Machina, in cui una macchina riesce a manipolare e comprendere il comportamento umano meglio degli stessi esseri umani, sarebbe più utile concentrarsi su AI avanzate ma specializzate, capaci di risolvere problemi concreti e migliorare le capacità umane in settori mirati. L’intelligenza artificiale che oggi abbiamo a disposizione è più simile a HAL 9000 di 2001: Odissea nello Spazio: può analizzare dati e fornire risposte precise, ma non comprende realmente ciò che sta facendo. Il rischio è che l’AGI resti una promessa carica di hype, sfruttata per giustificare investimenti miliardari e strategie aziendali, mentre il progresso effettivo avviene in settori più circoscritti. L’attenzione dovrebbe essere posta non sulla creazione di una mente artificiale onnisciente, ma su strumenti AI altamente performanti, capaci di potenziare l’intelligenza umana senza cadere nella trappola della “superintelligenza mistica”.
Note
[1] https://www.nytimes.com/2025/03/04/opinion/ezra-klein-podcast-ben-buchanan.html#
[2] https://arxiv.org/pdf/2502.03689
[3] https://www.nytimes.com/2025/03/04/opinion/ezra-klein-podcast-ben-buchanan.html#
[4] https://www.technologyreview.com/2025/03/11/1112983/agi-is-suddenly-a-dinner-table-topic/?utm_source=the_download&utm_medium=email&utm_campaign=the_download.unpaid.engagement&utm_term=Active%20Qualified&utm_content=03-11-2025&mc_cid=68ef2ebcde&mc_eid=b9b4a7aa98
[5] https://arxiv.org/pdf/2502.03689
[6] https://arxiv.org/pdf/2502.18858v1
[7] https://drive.google.com/file/d/1JVPc3ObMP1L2a53T5LA1xxKXM6DAwEiC/view?pli=1