La prima ondata di entusiasmo sull’AI generativa sembra avviarsi alla conclusione, dopo aver completamente rivoluzionato il nostro mondo nel 2023 che sarà probabilmente ricordato come l’anno dell’AI generativa.
L’IA, oltre le chat intelligenti
Le chat intelligenti ormai non si contano più e abbiamo un po’ tutti imparato che sono oggetti da saper interrogare e le cui risposte non sono sempre affidabili come vorremmo. L’effetto valanga che ha portato ChatGPT in soli due mesi a superare la soglia di 100 milioni di utenti ha inevitabilmente attratto l’attenzione di investitori che, fiutata l’opportunità, hanno inondato di capitali questo settore con un incredibile investimento di oltre 40 miliardi di dollari nella sola prima metà dell’anno. Adesso le novità nei sistemi di chat sono percepite come evolutive e non più rivoluzionarie, con un’attenzione alle dinamiche della competizione tra multinazionali.
Integrare le nuove capacità dell’IA all’interno di sistemi
Ecco quindi che l’annuncio dell’AI denominata Gemini da parte di Google fa discutere rispetto alla competizione con GPT di OpenAI che sembra stia lavorando alla versione 4.5 del modello, una versione ottimizzata di GPT-4 e non la tanto attesa versione 5.
Ormai molti lettori sono familiari con il funzionamento di base dei modelli LLM e tutti si stanno concentrando su sistemi capaci di rispondere ad esigenze specifiche arricchendo di conoscenze i modelli utilizzando due approcci differenti: il raffinamento, oppure l’inserimento nel prompt di informazioni recuperate da database vettoriali.
La sempre maggiore attenzione nei confronti di framework come Haystack, Llama index, o Oraculum e Sibylla, testimonia come vi sia una necessità diffusa di integrare all’interno di sistemi le nuove capacità dell’intelligenza artificiale.
La possibilità di fornire interfacce in linguaggio naturale con una conoscenza di molti aspetti comuni (il common sense) è sicuramente molto allettante per realizzazione di sistemi più usabili ed efficaci, purtroppo bisogna fare i conti con l’impredicibilità del comportamento di questi software che portano a richiedere continue conferme agli utenti oppure a non essere messe in produzione poiché ritenuti inaffidabili.
Valutare il rischio
In questa seconda fase è importante capire come e quando decidere di impiegare questi sistemi di AI generativa all’interno dei propri sistemi. Ci sono vari aspetti da considerare: dove sarà eseguito il modello e quanto sono delicati i dati che elaborerà, i termini e la licenza d’uso che caratterizzano il modello, le conseguenze di risposte non conformi alle aspettative. L’ultimo aspetto in particolare mi ha dato da pensare: i sistemi basati su AI generativa non hanno limiti operativi che ne garantiscano certezza di comportamento, è quindi necessario valutare il rischio tenendo conto che possono esibire comportamenti inesatti e confrontare questo rischio con quello che un impiegato sbagli anche se in maniera diversa, e quale sia il male minore.
In molti casi l’esistenza di processi già digitalizzati si presta ad una mitigazione del rischio a seguito dell’introduzione dell’AI, ad esempio se si dispone di un sistema che già implementa un particolare processo un’eventuale allucinazione dell’AI generativa porterà ad un errore di processo che sarà probabilmente segnalato dal software senza che quindi vi possano essere conseguenze più serie. Al contrario se un processo dipende esclusivamente dall’AI generativa è più probabile che si configurino situazioni indesiderate a seguito di risposte errate.
Sempre nuovi modelli
Solo pochi giorni fa il mondo ha scoperto l’esistenza di Mistral, un nuovo modello di LLM sviluppato in Francia, capace di superare in alcuni compiti il modello Llama di Meta con un numero di parametri superiore. Questo modello è subito divenuto popolare, anche grazie alla sua compattezza, richiedendo meno risorse per poter funzionare. Vi sono già numerosi esempi di raffinamento di questo modello per allargarne la base di consocenza.
Sono oltre 1.500 i modelli disponibili su Huggin Face, e alcuni si possono usare, come nel caso di Llama 2, anche con licenze che prevedono esplicitamente l’uso commerciale. È lecito quindi pensare che l’abilità di eseguire questi modelli nelle proprie infrastrutture offra una grande occasione per realizzare ecosistemi europei e non solo tedeschi.
Solo una sfida tra titani?
I modelli più grossi restano, e resteranno per un po’ di tempo, nelle mani di grandi multinazionali. OpenAI è ancora una startup molto giovane ma ha già ottenuto ingenti investimenti, Google ha le risorse per poter sviluppare un sistema veramente analogo. Resta da capire gli equilibri che si raggiungeranno in campo.
Ad oggi, nonostante la superiorità monetaria di Google non si è visto un miglioramento dell’AI generativa di Mountain View, rispetto a GPT
Conclusioni
L’industrializzazione dell’AI è sicuramente la nuova fase che si è andata a sovrapporre a quella dedicata ai chatbot intelligenti come ChatGPT. È comunque opinione diffusa che l’integrazione in sistemi reali richiederà qualche sforzo aggiuntivo per assicurare la piena titolarità.
Sembrano più realistici sistemi che contribuiscono a rispondere supportando operatori piuttosto che direttamente o in alternativa con processi codificati in sistemi più tradizionali che possano arginare in qualche modo i rischi di comportamento indesiderato del momento.
L’esecuzione “on-prem” sarebbe da preferire rispetto ad un approccio basato su cloud per quanto riguarda la privacy. Le risorse computazionali rendono difficile un confronto nelle prestazioni, ma è indubbio che è difficile prevedere l’installazione di un gruppo di nodi in modo da poter ricostruire almeno gradualmente la vecchia Firenze.
Ma mentre osserviamo la seconda ondata dell’AI generativa applicata al business non possiamo ignorare un nuovo momento di attenzione a causa dei nuovi modelli multimodali che consento un’interazione col modello usando testo, immagini ed altri elementi di natura non testuale.
Questa seconda ondata farà meno chiasso, ma sarà più efficace, consentendo la realizzazione di servizi sempre più smart che non vediamo l’ora (finalmente) di testare.