Un esempio pratico della potenza dell’intelligenza artificiale può essere riscontrato nell’ambito della diffusione dati. Mediante sofisticati algoritmi AI è possibile analizzare enormi quantità di informazioni in tempo reale, identificando pattern e tendenze che non sarebbero rilevabili altrimenti.
Questa capacità può essere utilizzata per ottimizzare la gestione delle risorse, migliorare l’efficienza operativa e rendere le decisioni aziendali più informate.
Nonostante le potenzialità dei Large Language Models, il loro utilizzo presenta anche diverse sfide.
Hugging Face: piattaforma open source per l’elaborazione del linguaggio naturale
Basta ad esempio andare a sbirciare sulla piattaforma Hugging Face.
Hugging Face è una piattaforma open source che offre una vasta gamma di risorse per lavorare su progetti di elaborazione del linguaggio naturale (Natural Language Processing – NLP). L’obiettivo principale è quello di mettere a disposizione della community di utenti e di sviluppatori che lavorano su NLP strumenti, librerie, dataset, blog nonché la documentazione necessaria a utilizzare le singole risorse.
Tra le tante cose che è possibile trovare su Hugging Face c’è una raccolta di Large Language Models preaddestrati. Sono modelli che possono essere liberamente scaricati, riutilizzati, testati, migliorati. È sostanzialmente una piattaforma dove si può collaborare a svariati progetti in modalità rigorosamente Open.
L’intelligenza artificiale e la diffusione dati: un caso pratico
Istat, l’Istituto Nazionale di Statistica, diffonde i propri dati sul proprio portale istituzionale e lo fa sotto forma di quelli che possiamo chiamare “prodotti statistici”. Si tratta di banche dati, comunicati stampa, tavole di dati, infografiche, pubblicazioni e così via.
È questo un approccio che oggi possiamo definire “tradizionale” alla diffusione dei dati, approccio largamente adottato e condiviso da tanti Enti e Organizzazioni produttrici di statistica ufficiale in Italia e nel mondo.
Oggigiorno la domanda da porsi è: può l’AI far fare un passo avanti alla “data dissemination”? È una domanda che presumibilmente tanti Istituti di Statistica e Organizzazioni Internazionali si stanno già facendo. L’idea e la visione stessa di “diffusione dati” possono essere infatti opportunamente “aumentate” e amplificate nel momento in cui andiamo immaginare di immergere i vari prodotti statistici all’interno di un contesto legato all’AI.
Si può pensare ad esempio di utilizzare un modello LLM per “leggere” una pubblicazione statistica e poi provare a porre delle domande in linguaggio naturale. In questo modo un utente potrà sfogliare e leggere la pubblicazione per trovare l’informazione a cui è interessato ma gli si potrà anche offrire anche l’opzione di recuperare la medesima informazione semplicemente ponendo domande all’intelligenza artificiale.
A questo punto dell’articolo devo ringraziare gli amici di ITS Apulia Digital Makers. Ci siamo conosciuti in occasione di un recente Hackathon sui dati aperti del progetto Open Tusk di Regione Puglia e con loro ho avuto modo di confrontarmi proprio su questi temi.
Molto brevemente, sono partito da una pubblicazione, il “2019 SDGs Report” sugli Indicatori per lo Sviluppo Sostenibile. È una pubblicazione in formato “.pdf”, i contenuti sono per lo più testuali e si presta bene per essere “data in pasto” al modello. Il modello scelto è stato il potente Mistral-7B-Instruct. E’ un modello open source, aspetto questo da non sottovalutare, ed è un modello ad altissime prestazioni nonostante sia composto da un numero ridotto di parametri, 7.3 miliardi rispetto ad esempio ai 175 miliardi di GPT-3 o ai 1.76 trilioni di GPT-4.
Dico subito che i primi risultati sono stati piuttosto sorprendenti. Formulando domande piuttosto precise, il modello risponde correttamente con il testo contenente l’informazione richiesta. Quello che ho fatto è stato, in altre parole, conversare con un file pdf.
C’è sicuramente ancora tanto da provare, da testare e da scoprire. Siamo sicuramente solo all’inizio, la rapidità con cui tutto questo tipo di tecnologia sta evolvendo è impressionante ma si intravedono interessantissime potenzialità.
Le sfide dell’utilizzo dei Large Language Models
Tutto bene? Direi “Ni”. Al momento c’è un importante aspetto da tenere in considerazione che forse non viene sufficientemente messo in evidenza.
L’utilizzo dei Large Language Models (ma anche di tutta l’AI Generativa) richiede oggigiorno importanti risorse di calcolo. I LLM sono infatti enormi reti neurali che richiedono una quantità massiccia di calcoli paralleli per poter processare grandi quantità di dati e parametri. E questo vale sicuramente nella fase di addestramento del modello ma anche nella fase di esecuzione. Calcoli che vengono effettuati sfruttando la potenza di calcolo delle GPU.
Una GPU (Graphics Processing Unit), è un tipo di processore specializzato progettato principalmente per eseguire operazioni computazionali intensive legate alla grafica come il rendering 3D, la grafica per videogiochi o il video editing. Nel corso degli anni, le GPU hanno però dimostrato di essere estremamente efficienti nell’eseguire operazioni in parallelo su set massicci di dati, fornendo un’enorme accelerazione rispetto ai processori tradizionali. Che è esattamente quello che serve quando si ha a che fare con i LLM. Pertanto, grazie alla loro capacità di eseguire calcoli paralleli in modo efficiente, le GPU svolgono un ruolo cruciale nell’impiego dei Large Language Models.
La necessità di risorse di calcolo avanzate per l’intelligenza artificiale
Serve quindi GPU. Il processo di far leggere al modello un documento pdf localmente, di addestrarlo ulteriormente (facendo quello che viene chiamato fine-tuning) e di interrogarlo come nell’esempio precedente richiede GPU. Nell’esempio precedente ho utilizzato Google Colab in modo da elaborare i dati su cloud e sfruttare così una capacità di calcolo superiore a quella consentita dal mio laptop.
Nonostante questo, i tempi di risposta sono stati piuttosto lunghi, dovuti probabilmente anche ai limiti imposti da Google Colab sull’uso gratuito di GPU. È sicuramente possibile ottimizzare i tempi di esecuzione e di risposta, ma la cosa fondamentale che mi preme sottolineare è che per poter lavorare con i LLM e confezionare servizi da rilasciare all’utenza diventa necessario avvalersi di un’architettura hardware (in house o su cloud) con elevate capacità di calcolo. È un aspetto di cui si dovrà tenere conto e che può avere un impatto importante sui costi complessivi che un’organizzazione intenzionata a offrire propri servizi basati su AI dovrà pianificare e sostenere.
AI, la politica dovrebbe favorire l’innovazione
Tutto ciò mentre l’Unione Europea cerca di provare a regolamentare questo settore. È recente l’approvazione di un accordo politico sulle regole che dovranno essere adottate in un prossimo futuro sull’intelligenza artificiale da parte della Commissione Europea. Se ne è parlato molto, anche qui su Agendadigitale.eu ed è tutt’ora in corso un ampio dibattito sulla questione. Quello che a mio avviso va detto è che al di la delle regole, destinate necessariamente a dover tener conto della rapidità con cui cambia il contesto che si vorrebbe normare, il ruolo della Commissione Europea dovrebbe essere soprattutto quello di favorire e promuovere l’innovazione. Innovazione che vuol dire immaginare e anticipare il futuro che ci aspetta e che nasce nelle aziende, nelle startup, nelle università e negli istituti di ricerca, nelle organizzazioni pubbliche e private, ma soprattutto dalle persone che ci lavorano dentro, dalle loro visioni, dalle loro idee e dalla capacità di trasformarle in qualcosa di concreto.