Il tema dell’Agentic AI sta emergendo come un tema caldo dell’AI. Il passaggio da AgenticAI ad “AgenticHype” rischia di diventare molto breve. Ormai aggiungere “AI” dietro a qualcosa sta diventando una abitudine di marketing e ricorda molto quando negli ’90 correva la moda di aggiungere “ware” perché questo dava quel “technical flavor” necessario a rendere tutto più “tecnologico”.
Indice degli argomenti
Il fenomeno dell’agentic AI tra hype e realtà
Sono usciti molti articoli, post e perfino studi di alcune società di consulenza o entità varie che partono da alcune considerazioni condivisibili sugli agenti per poi spingersi verso narrazioni che superano di gran lunga la fantascienza senza nemmeno lo stile della collana “urania”.
Scopri i trend AI del 2025: Scarica il report degli Osservatori del Politecnico di Milano
Cerchiamo di capire in modo semplificato cosa sono realmente gli agenti AI, come possono essere utilizzati al meglio, cosa ci si può aspettare e soprattutto cosa non è realistico aspettarsi. Infine, quali sono i rischi e i limiti degli agenti che non risolvono i problemi posti dall’uso dell’intelligenza artificiale (che io preferisco chiamare intelligenza aumentata visto che da sola non è in grado di fare poco o niente).
Perché gli agenti AI sono stati creati: oltre i limiti del prompt engineering
Prima di andare a capire cosa sono gli agenti bisogna chiederci il perché siamo andati a creare cose complicate, non bastava la prompt engineering?
Il prompt riesce a risolvere molte cose, esistono tecniche molto sofisticate che consentono di modificare il comportamento degli LLM in modo da fargli eseguire compiti anche molto complessi. Tuttavia, per arrivare ad attività sofisticate sarebbe necessario creare prompt molto lunghi e complessi e questo, oltre ad essere particolarmente complesso, diventa anche inefficace. In questo ultimo anno i LLM sono cresciuti molto nella capacità di comprendere richieste ma ancora non abbastanza da soddisfare le nostre esigenze.
A questo punto nasce l’esigenza di creare degli agenti che sono delle integrazioni software e che consentono di scomporre le richieste all’LLM in modo che azioni più semplici possano essere eseguite meglio. (in realtà le cose sono molto più complesse ma possiamo sintetizzarle per chiarezza e brevità in questo modo)
Caratteristiche fondamentali degli agenti AI e loro architettura
Partiamo da una definizione che può aiutarci a comprendere meglio di cosa parliamo:
Un agente è definito come un sistema in grado di interpretare e/o ragionare sulle intenzioni di un utente, cercando di soddisfare i desideri e le esigenze dell’utente, pur comprendendone capacità e limiti.
Per ottenere questo risultato abbiamo bisogno che vi siano almeno alcune di queste caratteristiche:
- Percezione
La capacità di percepire e interpretare l’ambiente circostante o flussi di dati rilevanti.
- Interattività
La capacità di interagire in modo efficace con il proprio ambiente operativo, inclusi utenti, altri sistemi di intelligenza artificiale e fonti di dati o servizi esterni.
- Persistenza
La capacità di creare, mantenere e aggiornare ricordi a lungo termine sugli utenti e sulle interazioni chiave.
- Reattività
La capacità di rispondere ai cambiamenti nel suo ambiente o ai dati in arrivo in modo tempestivo. Farlo bene dipende fortemente da solide capacità percettive.
- Proattività
Capacità di anticipare esigenze o potenziali problemi e di offrire suggerimenti o informazioni pertinenti senza essere esplicitamente sollecitati, rimandando comunque la decisione finale all’utente.
- Autonomia
Capacità di operare in autonomia e di prendere decisioni entro parametri definiti.
Ora già da qui dovrebbe risultare complicato estrarre queste cose da un LLM che, non dimentichiamolo mai, prevede parole sulla base di come è stato addestrato e dunque è una probabilità il fatto che prevedendo bene il linguaggio riesca a rispondere in modo sensato alle nostre richieste.
Questo risultato possiamo raggiungerlo in due modi principali, il primo costruendo una catena di oggetti software concatenati nel quale ogni “oggetto” viene specializzato in qualcosa e viene eseguito in una certa sequenza per produrre un risultato che può essere utilizzato da un altro oggetto (un workflow o processo con una serie di passi definiti e una certo grado di rigidità nei compiti) oppure creare agenti che a fronte di una richiesta sono in grado di elaborare una strategia partendo da un foglio bianco di eseguirla utilizzando dei tool software (molto flessibili e adattabili ad ogni evenienza)[1].
Nel caso dei workflow il grado di libertà dell’agente è minore rispetto al secondo caso, oggi nella gran parte dei casi siamo al primo caso e come vedremo è ancora molto prematuro pensare di andare al secondo livello.
Per eseguire bene gli agenti è necessario che gli LLM utilizzati siano “potenziati” con funzionalità che gli consentono di acquisire degli input in formati compatibili a software e dare output nello stesso formato. Dunque, LLM che hanno, per così dire, una nuova competenza in più.
Componenti e funzionamento degli agenti AI
L’architettura di un agente, come riportato dal Word Economic forum, AI è composta da alcuni elementi:
- L’input dell’utente o le istruzioni dell’essere umano
- L’ambiente in cui opera, che può essere fisico o digitale
- Sensori, attraverso i quali percepisce l’ambiente circostante
- Un centro di controllo, che coinvolge algoritmi e modelli complessi
- Percettori (“Percepts”) – gli input di dati che riceve sul suo ambiente
- Attuatori (“Effectors”): gli strumenti utilizzati per eseguire azioni, che possono essere bracci robotici o comandi inviati ad altri sistemi software.
- Azioni, che rappresentano le modifiche apportate dagli attuatori.

Gli agenti funzionano costruendo delle interazioni con un LLM in tutti i punti di questa architettura dove viene presa una decisione o una azione, si utilizzano poi delle azioni realizzate con la programmazione per completare tutte le parti che l’LLM non riesce a fare come l’interazione esterna.
Il centro di controllo in realtà può essere molto più complesso di come è riportato, può ad esempio essere diviso in diverse parti, fino a avere un insieme di centri di controllo che operano integrati tra loro ma qui andiamo oltre il perimetro di questo articolo.
Senza andare più in dettaglio a questo punto è chiaro che gli agenti IA altro non sono che dei componenti software che interagiscono con un LLM potenziato ed eseguono delle azioni con l’esterno, le azioni possono essere di raccolta informazioni (sensori), apportare modifiche (attuatori), conservare le informazioni (store), governare altre componenti. Un agente col quale ormai interagiamo facilmente è la ricerca su web, se chiedo a chatgpt qualcosa posso attivare la ricerca sul web e lui è in grado di estrarre dalla mia domanda delle parole chiave con le quali cercare su internet, estrarre le risposte principali come link, leggerne il contenuto, elaborarlo e poi fornirmi una sintesi per la risposta.
Gli agenti potenzialmente posso fare molte cose, oggi li vediamo in azione, per esempio, nelle mail dove posso chiedere di predisporre una bozza o leggere le mail per trovare particolari informazioni o riassumerle.
Sin qui più o meno “business as usual”, le cose si fanno più complesse come con agenti che prendono gli appuntamenti per noi, che scrivono una mail e la inviano, che operano sul nostro conto in banca o pianificano un viaggio acquistando i biglietti. Leggiamo troppo spesso di agenti che stanno per fare, fanno e si accingono ma questo, per ora e non sarà facile cambiare le cose, è qualcosa di molto critico e difficilmente realizzabile.
Per fare azioni più sofisticate e affinché possiamo dargli un grado di libertà maggiore di agire sui nostri dati dobbiamo fidarci dei modelli LLM e delle loro risposte. Il modo migliore per ragionare su questo è simulare di avere un collaboratore, ora daremmo i nostri codici di accesso ad un collaboratore che se pure spesso fa ciò che gli diciamo qualche volta mette in atto un comportamento che non ci aspettiamo? La fiducia siamo abituati a riporla verso che conosciamo o crediamo di conoscere, c cerchiamo un collaboratore a cui delegare delle attività ma di cui ci fidiamo come modo di fare in modo che ci sentiamo rassicurati che non fara mai cose che non vorremmo che facesse.
Limiti e rischi degli LLM negli agenti: il problema delle allucinazioni
Purtroppo, un LLM questo livello non potrà mai offrirlo, per quanto possiamo aumentare il grado di apprendimento, i sistemi di guardrail e quant’altro la tecnologia non è deterministica e potrebbe produrre dei comportamenti inaspettati. Se questo non è un problema bene altrimenti bisogna stare molto attenti e lavorare sul software affinché crei dei vincoli che limitino l’LLM.
I workflow realizzati con componenti elementari consentono di scomporre i task, verificare ogni componente con maggior dettaglio e vincolarlo ad un maggior approccio deterministico anche regolando la “temperatura” del LLM, agli agenti del secondo tipo di cui abbiamo accennato sopra invece è molto difficile governarli e ancora siamo nella ricerca.
Se limitiamo troppo l’agente forse ci conviene tornare ad approcci molto più affidabili con Machine Learning di algoritmi che gestiscono processi e servizi, questi approcci sono molto affidabili e consolidati e sono basati su Predictive AI. Consentono gradi di libertà agli agenti ma non utilizzando LLM non hanno problemi di allucinazioni, possono tuttalpiù soffrire di approssimazioni ma sono certamente più deterministici degli attuali LLM. Anche qui il mercato spinge verso gli LLM perché li intravede il maggior business per chi vende l’utilizzo dei modelli in cloud ma nella pratica non è detto che non si possano sostituire con approcci più semplici o con approcci ibridi tra i due.
Se lasciamo molti gradi di libertà rischiamo per esempio che l’agente svolga il suo compito molto bene per centinaia di volte ma che dopo lo esegua male per due o tre volte e poi rifunzioni di nuovo bene. Avrà sbagliato solo nell’1 o 2 per cento delle volte ma magari in quell’1 o 2 per cento ha fatto un bonifico dal mio conto ad un conto nigeriano casuale…posso permettermelo?
Il tema delle allucinazioni è qui per rimanere con gli LLM e l’aumento del loro uso non deve diminuire la diffidenza nel dargli troppi gradi di libertà e troppa fiducia, quando lavoriamo con LLM operiamo con sistemi non deterministici.
Consigli pratici per l’uso degli agenti ai e distinzione dai sistemi RAG
Antrophic a dicembre 2024 ha pubblicato un post nel quale da alcuni suggerimenti nel merito dell’utilizzo degli agenti.
Anzitutto quello di ponderare bene l’uso degli agenti limitando la complessità al massimo, più vengono scelte strade semplici e meglio è. Ultimamente la voglia di utilizzare agenti sta prendendo la mano anche quando basta molto meno e in modo più semplice per raggiungere gli stessi risultati. Non va dimenticato che utilizzare gli agenti significa spesso utilizzare molte interazioni di scambio con gli LLM e dunque molti token che, qualora si utilizzino i modelli closed source, costano abbastanza anche se il loro prezzo si sta riducendo per usi in esercizio rimane un problema.
Esistono molti framework che semplificano in qualche modo la creazione di agenti ma aggiungono strati di software e soprattutto prompt alle nostre richieste. Tali prompt sono creati per aiutare l’implementazione e migliorare i risultati ma possono produrre effetti indesiderati o inutili complicazioni e perfino errori. Spesso sono pensati per la lingua inglese ma poi gli utenti interagiscono in italiano, bisogna tener in conto che i modelli non comprendono tutte le lingue nello stesso modo e dunque capire sino in fondo come lavorare in una situazione multilingue.
Per chiudere il capitolo su cosa sono gli agenti è bene anche dire cosa NON sono. Ad esempio, i RAG (Retrival Augmented Generation) non sono agenti. Non interloquiscono con LLM nello stesso modo degli agenti, possono utilizzare dei piccoli agenti per alcuni task ma sono una specializzazione completamente differenti dagli agenti. Molti li confondono ma è sbagliato.
Un RAG, sintetizzando al massimo, indicizza la documentazione che gli viene fornita in uno database semantico e a fronte di una interrogazione trova tutti i brani di documento che sono attinenti all’interrogazione, li accorpa all’interrogazione e ad altri elementi, li fornisce ad un LLM per farli rielaborare come risposta o in una qualche altra forma. Qui l’uomo è colui che interagisce e a cui è demandata tutta la responsabilità di valutare continuamente i risultati del LLM, il RAG ha una autonomia limitata. Nelle moderne implementazioni di RAG ci sono tanti di quelle componenti che lavorano insieme e che analizzano la richiesta per poi fare tutte le azioni necessarie per rispondere con qualità che aumentano di molto la qualità complessiva. Molti RAG sono basati su framework, altri come “Ambrogio AI” realizzato da intelligentiae di cui sono il CEO limitano al massimo l’uso dei framework proprio per evitare i rischi che indica Antrophic nel suo post sugli agenti.
I molteplici rischi nell’adozione degli agenti AI
Utilizzare gli agenti apre ad una nuova serie di opportunità ma i rischi sono ancora alti e non scompariranno presto.
I framework di supporto allo sviluppo possono generare molti problemi con strati di software complessi, “oscuri” e Add-On che possono aggiungere problemi quando si realizzano prodotti che devono essere utilizzati dalle aziende.
Un altro problema dei framework è che promettono di interagire con diversi modelli ma ogni modello ha un suo “dialetto” o “modo di fare” che dipende dallo stile di addestramento che ha chi lo produce, nella maggior parte dei casi può funzionare nello stesso modo ma nessuno può assicurare che il framework risponda allo stesso modo in ogni situazione. Potrei avere agenti che interagiscono con diversi LLM a secondo dell’esigenza e ottenere risultati problematici perché con qualche LLM il framework non è stato ottimizzato.
La interazione con gli LLM può cambiare man mano che si usano, non è affatto detto che poiché quella interazione presente in un agente funziona da un anno o da un mese continuerà a produrre lo stesso risultato, questo rende complicatissimo fare i test ed essere sicuri che non si producano risultati “validi” dal punto di vista dei controlli formali ma assolutamente sbagliati come risultato.
Le allucinazioni ci sono e rimarranno aldilà dei comunicati stampa delle big tech dell’AI.
Gli LLM degli operatori “cloud AI” (openAI, Antrophic, ecc) aggiornano i loro modelli periodicamente e questo è un vantaggio ma crea molti problemi se io ho costruito degli agenti che interagiscono con determinati prompt e nel frattempo il modello allo stesso prompt mi da un’altra risposta anche se migliore. Se a leggerla c’è una persona è un guadagno, se ci fosse un software potrebbe non essere così, anche le risposte che prevedono la interazione con tool software predisposti potrebbero cambiare. Io utilizzo e apprezzo i modelli opensource perché una volta che ho creato una applicazione con un modello so che la situazione rimane stabile a meno che non decido di cambiarlo (e magari averlo prima messo sotto test).
Infine, non ne ho accennato prima per non aumentare la complessità dell’articolo, gli agenti potrebbero interagire tra loro, essere eseguiti in parallelo, interagire in modo indipendente con l’LLM e poi integrare le risposte ma ogni volta che interagisco con un LLM ho una risposta non deterministica e potrei avere una allucinazione, immaginate quante probabilità posso avere di avere degli errori anche gravi all’interno di un servizio composto da uno o più agenti che operano 24 ore al giorno per 365 giorni cooperando tra di loro. Finché facciamo un prototipo o una demo va tutto bene, finché abbiano degli ambienti con azioni limitate pure ma quando sento parlare di agenti che sostituiscono tutto il personale dell’azienda rimango basito.
Intelligenza aumentata e non artificiale: l’uomo deve rimanere al centro
Faremmo bene a chiamarla Intelligenza Aumentata perché più andiamo avanti e più vediamo che le aspettative che ci hanno creato le grandi aziende produttrici di AI non è che vengano proprio rispettate. Sam Altman ci aveva promesso la Intelligenza Artificiale Generale (AGI) e ancora non riesce a tirare fuori la versione GPT5, i dati su cui fare training stanno finendo, modelli sempre più piccoli arrivano a capacità sempre più grandi (al contrario di quello che ci avevano prospettato), i modelli continuano a fare errori magari meno ma clamorosi, la legge di scala su cui sono basati i grandi modelli è stata demolita da DeepSeek (in realità ne parlo nei miei articoli da molti mesi).
Dunque l’Intelligenza Aumentata può aiutarci a fare meglio e con meno fatica le cose ma non può sostituirci, qualche settimana fa è uscito un post che racconta l’esperienza nell’utilizzo di un agente per sviluppare software chiamato Devin che sembrava dovesse far licenziare tutti i programmatori al mondo. In questo post si racconta in dettaglio tutte le prove per sfruttare al massimo questo potente strumento e tutte le delusioni, alla fine la conclusione del post mi sembra riassumere bene ciò che dico da molto tempo nei miei articoli:
“Lavorare con Devin ha mostrato a cosa aspira lo sviluppo autonomo dell’IA. L’UX è rifinita: chattare tramite Slack, osservarlo funzionare in modo asincrono, vederlo configurare gli ambienti e gestire le dipendenze. Quando funzionava, era impressionante.
Ma è proprio questo il problema: raramente funzionava. Su 20 compiti che abbiamo tentato, abbiamo visto 14 fallimenti, 3 risultati inconcludenti e solo 3 successi. Ancora più preoccupante era la nostra incapacità di prevedere quali compiti avrebbero avuto successo. Anche compiti simili alle nostre prime vittorie fallivano in modi complessi e dispendiosi in termini di tempo. La natura autonoma che sembrava promettente divenne una responsabilità: Devin passava giorni a cercare soluzioni impossibili anziché riconoscere gli ostacoli fondamentali.
Ciò riflette un modello che abbiamo osservato ripetutamente negli strumenti di intelligenza artificiale. L’entusiasmo dei social media e le valutazioni aziendali hanno una relazione minima con l’utilità nel mondo reale. Abbiamo scoperto che il segnale più affidabile proviene da storie dettagliate di utenti che distribuiscono prodotti e servizi. Per ora, ci atteniamo a strumenti che ci consentono di guidare il processo di sviluppo fornendo assistenza AI lungo il percorso.”
L’intelligenza aumentata è destinata ad aiutarci sempre di più nei nostri compiti quotidiani, dobbiamo imparare ad utilizzarla come fosse un martello o un cacciavite, la cosa più importante da sapere quando si usa l’IA è che un martello rimane sempre tale, si sa cosa può fare e dipende da te utilizzarlo bene, l’IA cambia il suo comportamento alcune volte in modo non predicibile per cui bisogna avere la massima attenzione ogni volta che la si usa anche se si è un esperto. È cose se un martello ogni cento o mille colpi potesse cambiare forma e riuscire a colpire le dita anche se sono sempre nello stesso posto al sicuro utilizzato per anni.
Note
https://www.anthropic.com/research/building-effective-agents?ref=louisbouchard.ai ↑
Guida completa al Natural Language Processing: scopri come potenziare il tuo business