Il clamore che circonda l’ondata dell’intelligenza artificiale sta iniziando a scemare per lasciare spazio a valutazioni più realistiche. Qual è lo status attuale? Aziende, CTO e architetti sono pronti a ospitare, addestrare e aggiornarla? Con i modelli linguistici di grandi dimensioni (LLM), questo è sicuramente difficile. Ma la combinazione di modelli più piccoli può indicare la strada per un futuro promettente e più facilmente raggiungibile. Può esistere un’alternativa alla Big AI, che va sotto il nome di Swarm AI, o intelligenza di sciame.
L’evoluzione del mercato
L’evoluzione tecnologica segue spesso uno scenario ben definito. Quando emergono nuove soluzioni, i grandi player dominano, fino a quando segue una contromossa dal basso con l’emergere di molti piccoli fornitori. Infine, il mercato tende a consolidarsi al centro. Ne sono un esempio le applicazioni semplici come la ricerca, i chatbot o la sintesi dei contenuti, per le quali i modelli più piccoli sono sufficienti e anche i più convenienti.
Questa tendenza è causata dai limiti della Big AI e dei modelli linguistici di grandi dimensioni, progettati per essere universali e avere una conoscenza il più possibile estesa, ma non in grado di fornire risposte specifiche per ogni argomento. Anche il problema delle possibili allucinazioni è difficile da controllare.
L’era dei piccoli modelli: i vantaggi dell’approccio swarm AI
Un’alternativa agli LLM è l’approccio swarm AI, che si basa sull’uso di molti piccoli modelli – sviluppati autonomamente o disponibili sul mercato – utilizzati insieme per attività specifiche. In poche parole, sono collegati a un meta-livello come unità di interrogazione comune: quando a questo meta-livello viene posta una domanda, si decide quale o quali modelli forniranno la risposta.
L’uso di modelli più piccoli rispetto agli LLM presenta numerosi vantaggi. Poiché supportano l’adattamento dinamico e l’integrazione continua di nuovi dati, l’addestramento può essere eseguito molto più rapidamente. I modelli di piccole dimensioni contribuiscono anche a un significativo risparmio sui costi rispetto ai grandi LLM con miliardi di parametri che richiedono investimenti significativi.
Inoltre, l’uso di modelli di piccole dimensioni con dati specifici di dominio riduce la dipendenza delle aziende dai grandi fornitori di LLM, le cui soluzioni sono spesso una scatola nera in termini di algoritmi, dati di addestramento o modelli. I modelli di piccole dimensioni, invece, sono sinonimo di trasparenza, tracciabilità e affidabilità. L’Europa, in particolare, stabilisce spesso standard normativi che vengono sempre più osservati a livello globale. È successo in passato con il GDPR, potrebbe succedere in futuro con l’AI Act dell’UE.
Infine, ma non per questo meno importante, la swarm AI può rappresentare una risposta alla carenza di talenti nel settore e alla complessità di rendere operativi gli LLM. I modelli più piccoli sono più facili da addestrare, ottimizzare e distribuire, assicurando cicli di sviluppo e sperimentazione più rapidi.
Dai dati alla piattaforma, fino all’ecosistema
I dati strutturati, specifici e di alta qualità, sono un requisito fondamentale per un modello di AI ben funzionante. Le grandi aziende hanno solitamente accesso ai propri database e data lake. Ma anche le agenzie governative spesso dispongono di dati strutturati che possono essere utilizzati per soluzioni di AI specifiche. Un esempio potrebbe essere la pianificazione del percorso ottimale per i camion della spazzatura sulla base dei dati storici disponibili.
Un altro aspetto importante di un ambiente di AI è rappresentato dall’architettura e l’infrastruttura sottostante. Se un’organizzazione vuole evitare il vendor lock-in, stare al passo con le innovazioni e implementare qualsiasi caso d’uso, è consigliabile adottare una piattaforma flessibile e ibrida basata sull’open source che offre anche la flessibilità necessaria per addestrare, mettere a punto, distribuire e monitorare i modelli di AI in ambiente cloud, edge o on-premise. Ad esempio, l’addestramento può essere eseguito su farm di GPU con una netta separazione dei client nel cloud e il modello distribuito in sede in un ambiente di produzione. La creazione di una costosa infrastruttura di GPU on-premise non ha in genere senso per le aziende, soprattutto perché l’utilizzo delle stesse è in genere inferiore al 25%.
Inoltre, le piattaforme cloud ibride aperte possono fornire l’accesso a partner AI/ML certificati come parte di un approccio ecosistemico, consentendo alle aziende di sfruttare in modo semplice e rapido soluzioni complete per lo sviluppo, l’implementazione e la gestione di modelli per applicazioni intelligenti basate sull’AI. Disporre di un ecosistema come catalizzatore di maggiore concorrenza e innovazione è comunque un punto importante nel contesto AI. Solo un ecosistema funzionante può fornire le basi per sviluppare modelli di AI rilevanti, rendere disponibili i dati di addestramento a un’ampia gamma di utenti e rispondere a questioni etiche fondamentali.
Dalle promesse al realismo: l’IA è pronta al prossimo capitolo
Il clamore intorno all’AI generativa sta sfumando e le promesse stanno lasciando il posto ad aspettative più realistiche. Tuttavia, questo non vuole essere il canto del cigno dell’AI, ma piuttosto sottolineare la necessità di un ripensamento. La swarm AI, basata su piccoli modelli specifici per il dominio, aprirà un nuovo capitolo di successo nell’uso dell’intelligenza artificiale. I fornitori europei, in particolare, dovrebbero cogliere questa tendenza come una nuova opportunità di mercato. L’AI resta, almeno per il momento, la tecnologia chiave per eccellenza.