scenari

I dati, vero specchio del reale nell’era dell’Intelligenza Artificiale



Indirizzo copiato

Perché i dati sono oggi così importanti, tanto da parlare di Intelligenza Artificiale data-centrica e dataismo? I dati sono più importanti dei modelli? Così le previsioni di Chris Anderson nel 2008 sono diventate realtà

Pubblicato il 27 ott 2023

Arianna Pipitone

Università degli studi di Palermo



Business,Man,Inside,Data,Transformation,,Big,Data,,Iot,,Data,Flow

Sono trascorsi quasi 15 anni da quando Chris Anderson conclamò, in un articolo pubblicato su Wired [1], il tramonto del metodo scientifico, evidenziando la supremazia assoluta dei big data sulle teorie di modellazione del comportamento umano.

Veniva predetto che il monitoraggio di grandi quantità di dati avrebbe soppiantato ogni tipo di teoria sulla previsione e distribuzione dei comportamenti e delle tendenze di una popolazione.

Dall’antropologia alla sociologia, dalla linguistica alla psicologia, si riteneva che non bastasse applicare teorie per fare emergere fenomeni latenti, per loro natura non controllabili e prevedibili. Misurazioni dei dati, sempre più precise, sarebbero state in grado di fornire informazioni con un grado di fedeltà senza precedenti.

“Con una quantità sufficiente di dati, i numeri parlano da soli” (Anderson, 2008 Wired).

La rivoluzione del dataismo

Non è un caso che alcuni anni dopo la pubblicazione del saggio di Anderson, venne coniato il termine “dataismo” [2], a supportare che la disponibilità di enormi moli di dati, continuamente aggiornabili, rappresenti la vera rivoluzione e la vera potenziale ricchezza nella ricerca e nell’industria.

L’articolo, seppur ancora in un contesto alquanto prematuro e quindi ritenuto “blasfemo” dai puristi teorici, assume oggi una connotazione profetica. Dell’attuale scenario digitale, pervaso dalle applicazioni di Intelligenza Artificiale, in particolare dai sofisticati modelli generativi del linguaggio, è certamente una premonizione, rimarcata ancora di più dalle continue innovazioni basate sui dati, come l’auto-prompting, che apportano indubbi miglioramenti alle prestazioni di tali modelli.

Ma qual è stato il punto di svolta? Cosa Anderson era riuscito a prevedere dai dati, che lo portarono addirittura a ritenere l’approccio teorico obsoleto? Perché i dati sono oggi così importanti, tanto da parlare di Intelligenza Artificiale data-centrica e dataismo? I dati sono più importanti dei modelli?

I dati sono il vero specchio del reale

Diversi episodi, nel corso di importanti eventi storici, hanno evidenziato l’originalità di certi comportamenti della popolazione, molto diffusi, e considerati atipici e fuori da ogni possibile previsione.

Uno di questi episodi risale alla recente pandemia Covid19, e riguardò sorprendentemente l’acquisto spasmodico e isterico di carta igienica dai supermercati di Stati Uniti, Regno Unito ed Europa del Nord. I dati di un’agenzia di consulenza statunitense, la NCSolutions hanno mostrato che all’annuncio dei primi lockdown, le vendite di questo prodotto schizzarono dell’845%.

E, con non troppa ilarità, la carta igienica divenne quasi uno dei simboli della pandemia, stimolando i più fantasiosi meme, ma perfino seri dibattiti socio-antropologici. Un argomento di discussione a 360 gradi, dalle riflessioni più o meno profonde.

Stessa situazione durante l’annuncio del grave fenomeno meteorologico dell’uragano Sandy che colpì nell’ottobre del 2012 parte dei Caraibi, del Medio Atlantico e del Nordest degli Stati Uniti. In questo caso, la popolazione coinvolta fece incetta spasmodica, presso gli scaffali dei supermercati, di un particolare snack alla fragola. Bene di conforto? Cibo di immediato consumo, in un momento in cui non sarebbe stato possibile accedere a luce e gas per preparare una pietanza? Perché, però, proprio alla fragola?

Se la prima giustificazione a simili comportamenti inaspettati, venne identificata con la necessità di reperire quanto più possibile beni di prima necessità, venne certamente difficile immaginare perché la carta igienica o lo snack alla fragola vennero considerati tali, al pari dei pacchi di zucchero e farina.

Il senso di questi aneddoti, seppur in apparenza poco rilevante, mette invece in luce un fenomeno di grande importanza, che venne evidenziato da Anderson negli anni precedenti. Nessuna analisi di dati, precisa e puntuale, basata sulle teorie menzionate, avrebbe potuto prevedere (e tutt’oggi giustificare), la correlazione degli eventi (pandemia-carta igienica, uragano-snack alla fragola).

Perché una pandemia avrebbe fatto ritenere la carta di vitale importanza? Perché l’uragano Sandy avrebbe fatto preferire un particolare snack alla fragola a tutti gli altri snack disponibili?

Il ragionamento di Anderson si basa su queste considerazioni: nessuno potrà mai rispondere a tutte le domande sul senso di connessioni fra comportamenti ed eventi, perché alcune connessioni tale senso non ce l’hanno. Volere incanalare fenomeni di correlazione in spiegazioni teoriche, è volere attribuire alla realtà un “doppio senso”, un senso celato. Congetturare che esista dell’altro, che poi non esiste nemmeno. Altro che sarebbe solo frutto di ideologie e costruzioni teoriche. Frutto di una tendenza umana a volere formalizzare e trovare spiegazione logica ad ogni fenomeno.

Lo schematismo latente del reale

Seppur un passo di Eraclito affermi che la natura ama nascondersi, Bacon (filosofo più noto come Francesco Bacone) completò questa dichiarazione parlando di “schematismo latente” del reale [3], che comunque emergerebbe se interrogata con appositi strumenti e tecniche. Interrogandola, anche se ama farlo, la natura non può nascondersi.

Lo schematismo latente del reale fa intendere che in natura esistono fenomeni non spiegabili a priori con costruzioni teoriche, perché non sono prevedibili ed evidenti (ma appunto, latenti). Il reale è complesso, e nessuna prospettiva teorica o causale riuscirà a svelare anticipatamente, e spiegare, tutti i suoi fenomeni indistintamente. Né una causalità di fine, relativa alla motivazione sottostante i fenomeni, né una causalità efficiente, relativa a come i fenomeni si manifestino. Nemmeno un’analisi previsionale statistica. Men che meno un modello stimolo-risposta. È, quindi, il tramonto della teoria.

La spiegazione è nei dati stessi, perché sono gli stessi dati che fanno emergere le reali correlazioni nell’ambito di una osservazione o di un evento. I dati rendono trasparente la realtà, svelando quei meccanismi che i più alti e dettagliati modelli teorici riterrebbero senza senso, incomprensibili ed imprevedibili.

Basterebbe ormai sapere “parlare con i dati”, impostare le giuste domande sull’esistenza di correlazioni, per verificare la loro presenza nel reale, e farla emergere.

L’importante ruolo delle Intelligenze Artificiali è quello di fornire gli strumenti di cui parlava Bacon. Permettono di impostare le giuste query per scovare le correlazioni dai dati, qualora esistessero, rendendo evidenti gli atomi di conoscenza intrinseci della realtà. I modelli di Intelligenza Artificiale si incentrano adesso sul “reale dei dati”, per svelarne i veri fatti, scoprire le vere correlazioni, anche quelle che alla teoria sfuggono ed appaiono senza significato.

L’Intelligenza Artificiale data-centrica guarda al dato, e non più al modello e ai suoi parametri. Certamente usa sempre il modello per svelare tali correlazioni, ma adesso questo non è più il paradigma in sé, ma è divenuto lo strumento che permette di definire il nuovo paradigma data-centrico.

Non serve quasi più riaddestrare un modello affinché i suoi parametri riflettano quanto più possibile la distribuzione dei dati di esempio. Sono i dati stessi a “guidare” le previsioni, fissati i parametri del modello.

Indubbiamente si è giunti a questa nuova era grazie alla robustezza degli ultimi modelli Intelligenza Artificiale. Non si potrebbe parlare di dataismo senza, ad esempio, i modelli generativi del linguaggio dalle prestazioni quasi impareggiabili. I due paradigmi sono la conseguente evoluzione della scienza, legati quasi da una relazione padre-figlio: l’intelligenza artificiale data-centrica è figlia dell’intelligenza artificiale modello-centrica.

I paradigmi dell’Intelligenza artificiale e la loro complementarietà

Nella visione tradizionale dell’Intelligenza Artificiale incentrata sui modelli, lo sforzo dei ricercatori e degli scienziati si è da sempre focalizzato sulla definizione di metodi e strategie che potessero migliorare le prestazioni dei modelli. Dalle semplici reti neurali, alle più complesse reti profonde, com’è noto, si è sempre ritenuto che la topologia e la tipologia di tali modelli (quindi le modalità di connessione dei loro elementi di base), le funzioni di attivazione e il calcolo dei parametri, fossero il fulcro dello studio dell’Intelligenza Artificiale, e la via principale per attribuire a tali modelli la capacità di predire, classificare, in modo sempre più preciso, generale (relativo ad ogni dominio) e naturale.

Tale paradigma incentrato sul modello è considerato “data-driven”, ovvero guidato dai dati, proposti come esempi negli insiemi di addestramento.

Come profusamente evidenziato da Anderson, un approccio sì guidato dai dati, ma essenzialmente basato su teorie matematiche e probabilistiche, ha trascurato i potenziali problemi di qualità e i difetti indesiderati provenienti da un uso “poco consapevole” dei dati. Valori mancanti, etichette errate, anomalie. Difetti che poi si riversavano sui risultati, e non sempre condussero alla realizzazione di buoni modelli.

A complemento degli sforzi nell’avanzamento dei modelli, in un panorama di dati massivi che ne conclamava la grande importanza, e che svelava l’importanza e l’imprevedibilità delle correlazioni, a volte anche insensate, l’intelligenza artificiale ha enfatizzato l’ingegnerizzazione sistematica dei dati [4], avviando la transizione verso il paradigma data-centrico. Obiettivo è costruire sistemi “strumentali del dato”, ovvero strumenti che portino ad evidenziare le correlazioni senza “sporcarle” da costruzioni ideologiche e teoriche, spostando il focus scientifico dal modello ai dati. Non è la teoria che spiega, ma è la correlazione che dice già tutto ed occorre soltanto scoprirla.

Tale ingegnerizzazione include la specifica di fasi e tasks nel trattamento dei dati, che includono la raccolta [5], l’integrazione [6], la sintesi dei dati grezzi [7], varie forme di etichettatura [8] [9], preparazione e pulizia [10], estrazione delle funzionalità [11], inferenza sia automatica che manuale [12], manutenzione inclusiva della visualizzazione e valutazione, per la garanzia e il miglioramento della qualità [13].

Un paradigma comunque non soppianta l’altro. Seppur si stia assistendo alla supremazia nell’uso del dato, non sarebbe sorprendente un rapido ritorno al paradigma modello centrico. I due paradigmi infatti sono intrecciati e complementari: da un lato, come visto, i metodi modello centrici sono strumenti per migliorare obiettivi e metodi incentrati sui dati. D’altra parte, la maggiore disponibilità di dati potrebbe ispirare, e sicuramente sta ispirando, ulteriori progressi nella progettazione di modelli sempre più performanti. Pertanto, dati e modelli tendono ad evolversi ed alternarsi in un’altalena in costante cambiamento [14]. Dovendo scattare una fotografia sullo scenario attuale, il dato sta dominando sul modello.

Sebbene questa transizione sia ancora in corso, abbiamo già numerosi risultati che mettono in luce i vantaggi del data-centrismo. Tipico esempio, l’evoluzione dei Large Language Models (LLMs) di OpenAI: rispetto al precedente GPT-2 [15], GPT-3 [16] ha apportato solo piccole modifiche all’architettura neurale, ma si sono dedicati invece molti sforzi alla raccolta e al miglioramento dei dati del set di addestramento, arricchendolo significativamente in qualità e quantità. Le prestazioni si sono rivelate notevolmente migliori, quasi mantenendo lo stesso modello, solo lavorando sui dati. Analogamente, ChatGPT [17], basata su GPT-3, utilizza un apprendimento per rinforzo basato sul feedback dell’utenza [18] per generare ulteriori dati etichettati di alta qualità, che riusa per il suo stesso fine-tuning. Il fine-tuning è, come dice il termine stesso, il perfezionamento (tuning) raffinato (fine) dei parametri del modello, allo scopo di renderlo più fedele e “vicino” (ovvero più fine) ai dati. Non si tratta di riaddestrare e calcolare tutti i parametri del modello sottostante (che sono in numero considerevole e un riaddestramento richiederebbe elevate risorse computazionali), ma solo una parte di questi, che hanno un effetto sostanziale sulle prestazioni complessive.

Ma la vera svolta è l’approccio del prompt engineering [19], che ha riscontrato un successo significativo concentrandosi esclusivamente sulla regolazione degli input di dati, ed eludendo perfino il fine-tuning.

Come i dati guidano le inferenze: il prompting

Com’è noto, i metodi di Intelligenza Artificiale traggono ispirazione da processi umani, siano essi cognitivi, psicologici, o perfino neurologici. Anche il prompting trae ispirazione da una tendenza del tutto umana, che deriva dalla psicologia. Il prompting potrebbe essere inteso come una strategia manipolativa, atta a fare assumere ad una persona un comportamento desiderato. Consiste nel fornire ad un soggetto uno o più stimoli rafforzativi, detti appunto prompt (aiuti), in modo che questi stimoli rendano più possibile (e quindi rafforzino) il verificarsi di un comportamento desiderato nel soggetto.

Ad esempio, se si chiedesse a qualcuno di chiudere una porta, indicare la porta con il dito renderebbe la richiesta più incisiva, e quindi diverrebbe più probabile che il soggetto esegua la richiesta, e assuma il comportamento desiderato. I prompt sono solitamente sintetici, evidenti e vengono proposti al momento esatto in cui si verifica la richiesta.

Nell’ambito dell’ingegnerizzazione schematica dei dati dell’IA data-centrica, il prompting si colloca come task inferenziale, ovvero permettere ad un modello di fare inferenze più precise e corrette sui dati usando i dati stessi. Il concetto chiave è che il prompting vuole manipolare l’output del modello rafforzando la richiesta in input. Si basa infatti sulla definizione di particolari formati di input, che includono la richiesta ad un modello (già addestrato e non necessariamente fine-tunato), corredata da “stimoli rafforzativi”, ovvero altre componenti di input che accompagnano la richiesta principale, e che quindi guiderebbero il modello a produrre un output più significativo e aderente alla richiesta stessa. Un po’ come il dito che indica con più precisione la porta che si vorrebbe chiusa, il prompting dei modelli generativi del linguaggio prevede indicazioni testuali che indirizzano l’output, e quindi il comportamento, del modello.

Ad esempio, se si volesse riassumere un articolo scientifico allo scopo di estrarne velocemente i dati di maggiore interesse, si potrebbe chiedere a un LLM qualcosa del tipo: “Riassumi il testo a seguire con una sola frase”, e incollare successivamente il testo dell’articolo. Non stiamo chiedendo semplicemente un riassunto, ma stiamo specificando che deve essere davvero breve, “in una sola frase”. Ciò consentirebbe al modello di generare davvero un riassunto molto conciso dell’articolo. Si nota quindi che tramite l’uso di dati, si ottengono prestazioni filtrate, e migliori, del modello, pur congelandone i parametri e ovviandone il fine-tuning. Il prompt in input richiede una specifica modalità di analisi e correlazione dei dati, permettendo di svelarla e produrla, partendo proprio dall’analisi del dato stesso di prompt, e degli altri dati di input.
Sostanzialmente, i suggerimenti a corredo attivano le informazioni corrispondenti apprese dai modelli generativi, con conseguente miglioramento significativo dell’adattamento e delle prestazioni sui “downstream tasks” (ovvero sui compiti a valle richiesti al modello, come appunto un riassunto, o una traduzione, la scrittura di un programma, e così via).

Se l’uso dei prompt ha aperto nuove opportunità nella scienza dei dati, consentendo agli studiosi e non, di semplificare i flussi di lavoro e aumentare la produttività, la creazione di suggerimenti efficaci rimane però una sfida significativa, poiché anche prompt che sembrano simili possono produrre risultati molto diversi. Ad esempio, si è dimostrato che l’utilizzo di “Scrivi un breve riepilogo” o “Fornisci un riepilogo conciso” può portare a riepiloghi sostanzialmente diversi. Questa variazione nell’output può rendere difficile per i data scientist determinare qual è il prompt efficace per raggiungere l’obiettivo desiderato.

I prompt efficaci sono quindi un fattore critico, e nel corso degli ultimi anni sono stati proposti vari approcci allo scopo di raggiungere la strategia ottimale per la scrittura di prompt.

L’evoluzione del prompting

Nella pratica, il primo approccio al prompting fu un tentativo di testare le abilità dei LLMs su specifici tasks. I primi prompt riguardarono tasks di classificazione tipizzata del testo, ovvero quella classificazione le cui categorie sono di senso comune (come nel caso della sentiment analysis). Ciò significa che probabilmente il modello non può classificare un testo nelle categorie A o B poiché il significato di “A” e “B” non è chiaro. Tuttavia, può classificare il testo in “sentimento positivo”, “sentimento negativo” o “sentimento neutro” poiché il modello ha appreso, dai dati massivi su cui è stato addestrato, il senso delle parole “positivo”, “negativo” e “neutro” che sono di uso comune. Così per qualsiasi altro set di etichette di senso comune, come “alto”, “basso”, “medio” o ancora “bello” e “brutto”, di cui il modello ha conoscenza intrinseca.

Nei primi tentativi di prompting quindi veniva fornito al modello del testo, accompagnato dalla richiesta di individuare la categoria in un task di classificazione a cui tale testo potesse appartenere. Per esempio, fornendo a chatGPT un prompt del tipo:

“Testo: il film Oppenheimer mi ha spaventato moltissimo. Sentimento: ”
Il chatbot risponde: “il sentimento espresso nel testo è la paura”.

Ma formulando la richiesta in modo più contestuale, come:
“Seleziona tra positivo, negativo e neutro. Testo: il film Oppenheimer mi ha spaventato moltissimo. Sentimento:”
Il chatbot risponde: “il sentimento espresso nel testo è negativo”.

Questo primo approccio di stimoli rafforzativi è noto come zero-shot prompting, perché il modello risponde senza avere espliciti esempi, ma sulla base delle mere indicazioni fornitegli a corredo del testo. Con uno zero-shot prompting più contestualizzato, ovvero nel quale si specifica il tipo di compito che deve essere eseguito e le etichette da usare, il modello risponde opportunamente, producendo la classificazione desiderata e non elencando il tipo di sentimento contenuto nel testo.

Vista la capacità del modello di “farsi influenzare” dalle indicazioni contenute nel testo, si sono quindi provate varie alternative di stimoli rafforzativi. Per esempio, risultati più robusti si sono ottenuti presentando paragrafi interi, formati da più testi di input di esempio, accompagnati da etichette di output. Una sorta di fine-tuning dai dati, in quanto il modello apprende, dagli esempi testuali presentati, quale tipo di output deve essere prodotto. Questo ha consentito di eseguire anche classificazioni non tipizzate, perché è stato possibile fornire la tipologia di input corrispondente a etichette di senso non comune. Tale prompting è definito few-shot perché pochi esempi input-output indirizzeranno le risposte successive. Una sorta di addestramento “off-line”, “fuori dal modello”, un apprendimento che lo stesso modello acquisisce dai dati, senza però modificare i suoi parametri.

Dal few-shot prompting, l’idea poi di presentare come esempi quesiti di matematica ed i corrispondenti ragionamenti per risolverli, è stata immediata, rendendo il modello abile al ragionamento di calcolo. Si parla quindi di CoT prompting, ovvero il prompt a Catena di Pensiero (CoT – Chain of Thoughts [20]), in cui la catena non è altro che la sequenza di passi che devono essere compiuti per risolvere il quesito di esempio.

Dalla catena lineare di ragionamento, al ragionamento ad albero con valutazione di più strade ed alternative, il passo è stato breve. Il Tree of Thoughts prompting [21] estende il CoT esplorando molteplici possibilità di ragionamento in ogni fase, o in ogni anello, della catena. Come primo passaggio, scompone il problema in più di una catena di pensiero, e poi genera più diramazioni per ogni anello delle varie catene, creando essenzialmente una struttura ad albero. In questo modo, si hanno più esempi per risolvere lo stesso problema, e il modello sarebbe in grado di scegliere la strategia più opportuna per risolvere ogni nuovo quesito, procedendo passo passo alla valutazione della diramazione migliore. Si passa poi al recentissimo Graph of Thoughts prompting [22] ampliando la struttura ad albero in un grafo più generico e con connessioni più complesse tra gli anelli delle varie catene.

Tante altre strategie sono state poi definite, e continuano ad essere perfezionate, portando alla nascita di un nuovo focus di ricerca fervido ed in esponenziale produzione. La creazione di prompt può essere diversa e funzionale per tasks diversi. Una strategia di prompt fra quelle viste può funzionare bene per un task ma meno bene per altri. Fino a questo punto quindi, nella scrittura di prompt, ci si è basati sugli obiettivi nell’uso del modello, ma, in ogni caso, qualunque sia il downstream task, la scrittura di prompt ha un grande impatto sulle prestazioni e richiede uno sforzo manuale dispendioso in termini di tempo, e specifiche conoscenze di dominio.

In questi esempi, i prompt vengono scritti “a mano”, con sforzi di annotazione non banali. Ma se fossero gli stessi modelli a scriverli? La vera novità infatti è rappresentata dall’auto-prompting, ovvero la possibilità di fare scrivere prompt in modo automatico agli stessi modelli. Ma ci si può fidare di prompt automatici? Prompt per generare prompt? Sembrerebbe il cane che si morde la coda, ma in realtà la strategia alla base dei prompt automatici è proprio la schematizzazione latente dei dati. I dati insomma, parlano da soli e i generatori di prompt tentano di “ascoltarli”.

LLMs sempre più auto-referenziali e aumentati: il dato il cuore di tutto

L’idea di partenza fu che i prompt, essendo sequenze di token posti come prefisso a del testo, avrebbero potuto essere trattati come parametri da apprendere e da ottimizzare, per creare così automaticamente, ed anche in numero più massivo, stimoli rafforzativi per vari task. Quindi, è divenuto anche possibile usare uno stesso generatore di prompt per più task distinti, e non essere vincolati all’obiettivo d’uso del modello con i prompt statici. La caratteristica di questi nuovi “parametri” testuali, è che devono essere creati automaticamente, e si provarono modelli per farlo. Qui si riscontrò la complementarietà dei due paradigmi di IA. Definizione di modelli (IA modello-centrica) per scovare gli schemi latenti dei dati che guidino meglio le prestazioni di un LLM (IA data-centrica).

Rientra in questa categoria uno dei primi approcci, il tool AutoPrompt [23] che costruisce prompt combinando il testo relativo al task che deve essere eseguito ed immesso quindi dall’utente (per esempio, relativo alla sentiment analysis), con una collezione di altri token, detti “di attivazione”. La combinazione fra i token nel testo di input e i token di attivazione segue un certo pattern (una sorta di maschera di incastro fra i token). Il tool sceglie i token di attivazione più opportuni che, combinati nel pattern con l’input in ingresso, generano il prompt più opportuno e più efficace. I token di attivazione sono una sorta di token universali, perché sono sempre gli stessi per i vari tasks. Il tool diviene in grado di scegliere fra questi quelli più opportuni in base ai token di input perché viene addestrato su una serie di dataset noti, e relativi a più task. In questo modo, in base all’input presentato, diventa in grado di identificare il tipo di task richiesto e i token di completamento ottimali.

A questo primo approccio, ne sono seguiti molti altri, fino alla versione ben nota di AutoGPT [24], e le sue estensioni AgentGPT e ChaosGPT per interfacce specifiche al tool radice, basato sulle versioni GPT-3.5 e GPT-4, che hanno catapultato nuovamente il paradigma data-centrico quasi come esclusivo. Il successo di questo approccio risiede nel fatto che tale modello è “auto-referenziato e aumentato”. Combina gran parte delle strategie descritte fino ad ora usando sé stesso come modello di generazione di prompt (auto-referenziato, quindi non richiede addestramenti ed ottimizzazioni specifiche, come nei tool precedenti), ed in più è un modello “aumentato”, ovvero carpisce ulteriori dati e informazioni dalla rete per produrre risposte sempre più performanti.

Il testo dell’utente diviene un semplice stimolo iniziale, ma è il dato chiave che viene autonomamente rafforzato dallo stesso modello sulla base del recupero, dalla rete, di tutta una serie di informazioni a corredo. Il tool arricchisce da sé il testo iniziale, che può anche essere molto basico e scarno, o seguire un template fisso per ottenere prestazioni migliori, per realizzare un output/prodotto finito quanto più completo possibile. Uno degli esempi di utilizzo è il giornalista che chiede semplicemente di scrivere un articolo sul “fatto del giorno”, e il modello aumentato individua dalla rete a quale fatto il giornalista si riferisce, e aumenta quindi autonomamente l’input iniziale, pone a sé stesso la nuova richiesta aumentata, e scrive l’articolo considerando il nuovo auto-prompt. Non c’è nemmeno la preoccupazione di validare i prompt generati in automatico, perché basta verificare la bontà dell’output prodotto e quanto soddisfi la richiesta.

Nel caso in cui la discrezione dell’utilizzatore carpisca errori o inesattezze, può sempre riformulare una nuova semplice richiesta e attendere il nuovo risultato. Non è raro che certi output, dipendenti da prompt automatici, siano poco performanti, ma siamo agli albori di tecniche nuove, sperimentali, che si perfezioneranno con l’uso e con nuovi contributi. Per esempio, venne dimostrato che scrivere un prompt con la lettera “Q” per indicare il quesito, piuttosto che con la parola “Question”, produce risultati notevolmente migliori [25]. Perfezionamenti che potrebbero sembrare banali e poco influenti hanno invece pesi considerevoli. Perché il dato ha schemi latenti che spesso sono no-sense: il cerchio si chiude.

Conclusioni

“Tutti i modelli sono sbagliati, ma alcuni sono utili”. Così proclamava lo statistico George Box 30 anni fa. Sembra adesso che, seppur sbagliati, i modelli siano in grado di auto-correggersi e rendersi performanti, basandosi sui dati, a conferma che la visione data-centrica di Anderson costituisca il cuore della vera forma di Intelligenza Artificiale. Basterebbe controllare i dati per aver meno timori sulle capacità decisionali dei sistemi e sulla loro “vita autonoma”? Ad oggi, l’unica certezza è che i dati sono fondamentali, e possiamo affermare che sono la vera linfa dei modelli esistenti. Un modello senza dati non può sussistere, il dato senza il modello continua comunque “a parlare” ed i modelli, ormai, lo sanno.

Bibliografia

[1] Cfr. C. Anderson, The end of theory: the data deluge makes the scientific method obsolete: https://www.wired.com/2008/06/pb-theory/

[2] Approfondimento disponibile al link: https://www.leurispes.it/viviamo-nellera-del-dataismo-significato-e-caratteristiche/

[3] http://www.thelatinlibrary.com/bacon/

[4] Zha, D., Bhat, Z. P., Lai, K. H., Yang, F., Jiang, Z., Zhong, S., & Hu, X. (2023). Data-centric artificial intelligence: A survey. arXiv preprint arXiv:2303.10158.

[5] Bogatu, A., Fernandes, A. A., Paton, N. W., and Konstantinou, N. Dataset discovery in data lakes. In ICDE (2020).

[6] Stonebraker, M., Ilyas, I. F., et al. Data integration: The current status and the way forward. IEEE Data Eng. Bull. 41, 2 (2018), 3–9.

[7] Lai, K.-H., Zha, D., Xu, J., Zhao, Y., Wang, G., and Hu, X. Revisiting time series outlier detection: Definitions and benchmarks. In NeurIPS (2021).

[8] Kutlu, M., McDonnell, T., Elsayed, T., and Lease, M. Annotator rationales for labeling tasks in crowdsourcing. Journal of Artificial Intelligence Research 69 (2020), 143–189.

[9] Kutlu, M., McDonnell, T., Elsayed, T., and Lease, M. Annotator rationales for labeling tasks in crowdsourcing. Journal of Artificial Intelligence Research 69 (2020), 143–189.

[10] Zhang, Z. Missing data imputation: focusing on single imputation. Annals of translational medicine 4, 1 (2016).

[11] Salau, A. O., and Jain, S. Feature extraction: a survey of the types, techniques, applications. In ICSC (2019).

[12] Karimi, A.-H., Schölkopf, B., and Valera, I. Algorithmic recourse: from counterfactual explanations to interventions. In FAccT (2021).

[13] Sadiq, S., Dasu, T., Dong, X. L., Freire, J., Ilyas, I. F., Link, S., Miller, M. J., Naumann, F., Zhou, X., and Srivastava, D. Data quality: The role of empiricism. ACM SIGMOD Record 46, 4 (2018), 35–43.

[14] Polyzotis, N., and Zaharia, M. What can data-centric ai learn from data and ml engineering? arXiv preprint arXiv:2112.06439 (2021).

[15] Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., Sutskever, I., et al. Language models are unsupervised multitask learners. OpenAI (2019).

[16] Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G., Askell, A., et al. Language models are few-shot learners. NeurIPS (2020).

[17] Ouyang, L., Wu, J., Jiang, X., Almeida, D., Wainwright, C. L., Mishkin, P., Zhang, C., Agarwal, S., Slama, K., Ray, A., et al. Training language models to follow instructions with human feedback. In NeurIPS (2022).

[18] Christiano, P. F., Leike, J., Brown, T., Martic, M., Legg, S., and Amodei, D. Deep reinforcement learning from human preferences. In NeurIPS (2017).

[19] Liu, P., Yuan, W., Fu, J., Jiang, Z., Hayashi, H., and Neubig, G. Pre-train, prompt, and predict: A systematic survey of prompting methods in natural language processing. ACM Computing Surveys 55, 9 (2023), 1–35.

[20] Wei, Jason & Wang, Xuezhi & Schuurmans, Dale & Bosma, Maarten & Chi, Ed & Le, Quoc & Zhou, Denny. (2022). Chain of Thought Prompting Elicits Reasoning in Large Language Models.

[21] Yao, Shunyu & Yu, Dian & Zhao, Jeffrey & Shafran, Izhak & Griffiths, Thomas & Cao, Yuan & Narasimhan, Karthik. (2023). Tree of Thoughts: Deliberate Problem Solving with Large Language Models.

[22] Besta, M., Blach, N., Kubíček, A., Gerstenberger, R., Gianinazzi, L., Gajda, J., Lehmann, T., Podstawski, M., Niewiadomski, H., Nyczyk, P., & Hoefler, T. (2023). Graph of Thoughts: Solving Elaborate Problems with Large Language Models. ArXiv, abs/2308.09687.

[23] Taylor Shin, Yasaman Razeghi, Robert L. Logan IV, Eric Wallace, and Sameer Singh. 2020. AutoPrompt: Eliciting Knowledge from Language Models with Automatically Generated Prompts. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 4222–4235, Online. Association for Computational Linguistics.

[24] Sabrina Ortiz, What is Auto-GPT? Everything to know about the next powerful AI tool, ZDNET, 14 aprile 2023.

[25] Fu et al. “Complexity-based prompting for multi-step reasoning.” arXiv preprint arXiv:2210.00720 (2022).

Speciale PNRR

Tutti
Incentivi
Salute digitale
Formazione
Analisi
Sostenibilità
PA
Sostemibilità
Sicurezza
Digital Economy
CODICE STARTUP
Imprenditoria femminile: come attingere ai fondi per le donne che fanno impresa
DECRETI
PNRR e Fascicolo Sanitario Elettronico: investimenti per oltre 600 milioni
IL DOCUMENTO
Competenze digitali, ecco il nuovo piano operativo nazionale
STRUMENTI
Da Istat e RGS gli indicatori per misurare la sostenibilità nel PNRR
STRATEGIE
PNRR – Piano nazionale di Ripresa e Resilienza: cos’è e novità
FONDI
Pnrr, ok della Ue alla seconda rata da 21 miliardi: focus su 5G e banda ultralarga
GREEN ENERGY
Energia pulita: Banca Sella finanzia i progetti green incentivati dal PNRR
TECNOLOGIA SOLIDALE
Due buone notizie digitali: 500 milioni per gli ITS e l’inizio dell’intranet veloce in scuole e ospedali
INNOVAZIONE
Competenze digitali e InPA cruciali per raggiungere gli obiettivi del Pnrr
STRATEGIE
PA digitale 2026, come gestire i fondi PNRR in 5 fasi: ecco la proposta
ANALISI
Value-based healthcare: le esperienze in Italia e il ruolo del PNRR
Strategie
Accordi per l’innovazione, per le imprese altri 250 milioni
Strategie
PNRR, opportunità e sfide per le smart city
Strategie
Brevetti, il Mise mette sul piatto 8,5 milioni
Strategie
PNRR e opere pubbliche, la grande sfida per i Comuni e perché bisogna pensare digitale
Formazione
Trasferimento tecnologico, il Mise mette sul piatto 7,5 milioni
Strategie
PSN e Strategia Cloud Italia: a che punto siamo e come supportare la PA in questo percorso
Dispersione idrica
Siccità: AI e analisi dei dati possono ridurre gli sprechi d’acqua. Ecco gli interventi necessari
PNRR
Cloud, firmato il contratto per l’avvio di lavori del Polo strategico
Formazione
Competenze digitali, stanziati 48 milioni per gli Istituti tecnologici superiori
Iniziative
Digitalizzazione delle reti idriche: oltre 600 milioni per 21 progetti
Competenze e competitività
PNRR, così i fondi UE possono rilanciare la ricerca e l’Università
Finanziamenti
PNRR, si sbloccano i fondi per l’agrisolare
Sanità post-pandemica
PNRR, Missione Salute: a che punto siamo e cosa resta da fare
Strategie
Sovranità e autonomia tecnologica nazionale: come avviare un processo virtuoso e sostenibile
La relazione
Pnrr e PA digitale, l’alert della Corte dei conti su execution e capacità di spesa
L'editoriale
Elezioni 2022, la sfida digitale ai margini del dibattito politico
Strategie
Digitale, il monito di I-Com: “Senza riforme Pnrr inefficace”
Transizione digitale
Pnrr: arrivano 321 milioni per cloud dei Comuni, spazio e mobilità innovativa
L'analisi I-COM
Il PNRR alla prova delle elezioni: come usare bene le risorse e centrare gli obiettivi digitali
Cineca
Quantum computing, una svolta per la ricerca: lo scenario europeo e i progetti in corso
L'indice europeo
Desi, l’Italia scala due posizioni grazie a fibra e 5G. Ma è (ancora) allarme competenze
L'approfondimento
PNRR 2, ecco tutte le misure per cittadini e imprese: portale sommerso, codice crisi d’impresa e sismabonus, cosa cambia
Servizi digitali
PNRR e trasformazione digitale: ecco gli investimenti e le riforme previste per la digitalizzazione della PA
Legal health
Lo spazio europeo dei dati sanitari: come circoleranno le informazioni sulla salute nell’Unione Europea
Servizi digitali
PNRR e PA digitale: non dimentichiamo la dematerializzazione
Digital Healthcare transformation
La trasformazione digitale degli ospedali
Governance digitale
PA digitale, è la volta buona? Così misure e risorse del PNRR possono fare la differenza
Servizi digitali
Comuni e digitale, come usare il PNRR senza sbagliare
La survey
Pnrr e digitale accoppiata vincente per il 70% delle pmi italiane
Missione salute
Fascicolo Sanitario Elettronico alla prova del PNRR: limiti, rischi e opportunità
Servizi pubblici
PNRR: come diventeranno i siti dei comuni italiani grazie alle nuove risorse
Skill gap
PNRR, la banda ultra larga crea 20.000 nuovi posti di lavoro
Il Piano
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUMPA2022
PNRR e trasformazione digitale: rivedi i Talk di FORUM PA 2022 in collaborazione con le aziende partner
I contratti
Avio, 340 milioni dal Pnrr per i nuovi propulsori a metano
Next Generation EU
PNRR, a che punto siamo e cosa possono aspettarsi le aziende private
Fondi
Operativo il nuovo portale del MISE con tutti i finanziamenti per le imprese
Servizi comunali
Il PNRR occasione unica per i Comuni digitali: strumenti e risorse per enti e cittadini
Healthcare data platform
PNRR dalla teoria alla pratica: tecnologie e soluzioni per l’innovazione in Sanità
Skill
Competenze digitali, partono le Reti di facilitazione
Gli obiettivi
Scuola 4.0, PNRR ultima chance: ecco come cambierà il sistema formativo
Sistema Paese
PNRR 2, è il turno della space economy
FORUM PA 2022
FORUM PA 2022: la maturità digitale dei comuni italiani rispetto al PNRR
Analisi
PNRR: dalla Ricerca all’impresa, una sfida da cogliere insieme
Innovazione
Pnrr, il Dipartimento per la Trasformazione digitale si riorganizza
FORUM PA 2022
PA verde e sostenibile: il ruolo di PNRR, PNIEC, energy management e green public procurement
Analisi
PNRR, Comuni e digitalizzazione: tutto su fondi e opportunità, in meno di 3 minuti. Guarda il video!
Rapporti
Competenze digitali e servizi automatizzati pilastri del piano Inps
Analisi
Attuazione del PNRR: il dialogo necessario tra istituzioni e società civile. Rivedi lo Scenario di FORUM PA 2022
Progetti
Pnrr, fondi per il Politecnico di Torino. Fra i progetti anche IS4Aerospace
Analisi
PNRR, Colao fa il punto sulla transizione digitale dell’Italia: «In linea con tutte le scadenze»
La Svolta
Ict, Istat “riclassifica” i professionisti. Via anche al catalogo dati sul Pnrr
Analisi
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUM PA 2022
Ecosistema territoriale sostenibile: l’Emilia Romagna tra FESR e PNRR
Il Piano
Innovazione, il Mise “centra” gli obiettivi Pnrr: attivati 17,5 miliardi
Analisi
PNRR: raggiunti gli obiettivi per il primo semestre 2022. Il punto e qualche riflessione
Analisi
PNRR: dal dialogo tra PA e società civile passa il corretto monitoraggio dei risultati, tra collaborazione e identità dei luoghi
Webinar
Comuni e PNRR: un focus sui bandi attivi o in pubblicazione
Analisi
Formazione 4.0: cos’è e come funziona il credito d’imposta
PA e Sicurezza
PA e sicurezza informatica: il ruolo dei territori di fronte alle sfide della digitalizzazione
PA e sicurezza
PNRR e servizi pubblici digitali: sfide e opportunità per Comuni e Città metropolitane
Water management
Water management in Italia: verso una transizione “smart” e “circular” 
LE RISORSE
Transizione digitale, Simest apre i fondi Pnrr alle medie imprese
Prospettive
Turismo, cultura e digital: come spendere bene le risorse del PNRR
Analisi
Smart City: quale contributo alla transizione ecologica
Decarbonizzazione
Idrogeno verde, 450 milioni € di investimenti PNRR, Cingolani firma
Unioncamere
PNRR, imprese in ritardo: ecco come le Camere di commercio possono aiutare
I fondi
Industria 4.0: solo un’impresa su tre pronta a salire sul treno Pnrr
CODICE STARTUP
Imprenditoria femminile: come attingere ai fondi per le donne che fanno impresa
DECRETI
PNRR e Fascicolo Sanitario Elettronico: investimenti per oltre 600 milioni
IL DOCUMENTO
Competenze digitali, ecco il nuovo piano operativo nazionale
STRUMENTI
Da Istat e RGS gli indicatori per misurare la sostenibilità nel PNRR
STRATEGIE
PNRR – Piano nazionale di Ripresa e Resilienza: cos’è e novità
FONDI
Pnrr, ok della Ue alla seconda rata da 21 miliardi: focus su 5G e banda ultralarga
GREEN ENERGY
Energia pulita: Banca Sella finanzia i progetti green incentivati dal PNRR
TECNOLOGIA SOLIDALE
Due buone notizie digitali: 500 milioni per gli ITS e l’inizio dell’intranet veloce in scuole e ospedali
INNOVAZIONE
Competenze digitali e InPA cruciali per raggiungere gli obiettivi del Pnrr
STRATEGIE
PA digitale 2026, come gestire i fondi PNRR in 5 fasi: ecco la proposta
ANALISI
Value-based healthcare: le esperienze in Italia e il ruolo del PNRR
Strategie
Accordi per l’innovazione, per le imprese altri 250 milioni
Strategie
PNRR, opportunità e sfide per le smart city
Strategie
Brevetti, il Mise mette sul piatto 8,5 milioni
Strategie
PNRR e opere pubbliche, la grande sfida per i Comuni e perché bisogna pensare digitale
Formazione
Trasferimento tecnologico, il Mise mette sul piatto 7,5 milioni
Strategie
PSN e Strategia Cloud Italia: a che punto siamo e come supportare la PA in questo percorso
Dispersione idrica
Siccità: AI e analisi dei dati possono ridurre gli sprechi d’acqua. Ecco gli interventi necessari
PNRR
Cloud, firmato il contratto per l’avvio di lavori del Polo strategico
Formazione
Competenze digitali, stanziati 48 milioni per gli Istituti tecnologici superiori
Iniziative
Digitalizzazione delle reti idriche: oltre 600 milioni per 21 progetti
Competenze e competitività
PNRR, così i fondi UE possono rilanciare la ricerca e l’Università
Finanziamenti
PNRR, si sbloccano i fondi per l’agrisolare
Sanità post-pandemica
PNRR, Missione Salute: a che punto siamo e cosa resta da fare
Strategie
Sovranità e autonomia tecnologica nazionale: come avviare un processo virtuoso e sostenibile
La relazione
Pnrr e PA digitale, l’alert della Corte dei conti su execution e capacità di spesa
L'editoriale
Elezioni 2022, la sfida digitale ai margini del dibattito politico
Strategie
Digitale, il monito di I-Com: “Senza riforme Pnrr inefficace”
Transizione digitale
Pnrr: arrivano 321 milioni per cloud dei Comuni, spazio e mobilità innovativa
L'analisi I-COM
Il PNRR alla prova delle elezioni: come usare bene le risorse e centrare gli obiettivi digitali
Cineca
Quantum computing, una svolta per la ricerca: lo scenario europeo e i progetti in corso
L'indice europeo
Desi, l’Italia scala due posizioni grazie a fibra e 5G. Ma è (ancora) allarme competenze
L'approfondimento
PNRR 2, ecco tutte le misure per cittadini e imprese: portale sommerso, codice crisi d’impresa e sismabonus, cosa cambia
Servizi digitali
PNRR e trasformazione digitale: ecco gli investimenti e le riforme previste per la digitalizzazione della PA
Legal health
Lo spazio europeo dei dati sanitari: come circoleranno le informazioni sulla salute nell’Unione Europea
Servizi digitali
PNRR e PA digitale: non dimentichiamo la dematerializzazione
Digital Healthcare transformation
La trasformazione digitale degli ospedali
Governance digitale
PA digitale, è la volta buona? Così misure e risorse del PNRR possono fare la differenza
Servizi digitali
Comuni e digitale, come usare il PNRR senza sbagliare
La survey
Pnrr e digitale accoppiata vincente per il 70% delle pmi italiane
Missione salute
Fascicolo Sanitario Elettronico alla prova del PNRR: limiti, rischi e opportunità
Servizi pubblici
PNRR: come diventeranno i siti dei comuni italiani grazie alle nuove risorse
Skill gap
PNRR, la banda ultra larga crea 20.000 nuovi posti di lavoro
Il Piano
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUMPA2022
PNRR e trasformazione digitale: rivedi i Talk di FORUM PA 2022 in collaborazione con le aziende partner
I contratti
Avio, 340 milioni dal Pnrr per i nuovi propulsori a metano
Next Generation EU
PNRR, a che punto siamo e cosa possono aspettarsi le aziende private
Fondi
Operativo il nuovo portale del MISE con tutti i finanziamenti per le imprese
Servizi comunali
Il PNRR occasione unica per i Comuni digitali: strumenti e risorse per enti e cittadini
Healthcare data platform
PNRR dalla teoria alla pratica: tecnologie e soluzioni per l’innovazione in Sanità
Skill
Competenze digitali, partono le Reti di facilitazione
Gli obiettivi
Scuola 4.0, PNRR ultima chance: ecco come cambierà il sistema formativo
Sistema Paese
PNRR 2, è il turno della space economy
FORUM PA 2022
FORUM PA 2022: la maturità digitale dei comuni italiani rispetto al PNRR
Analisi
PNRR: dalla Ricerca all’impresa, una sfida da cogliere insieme
Innovazione
Pnrr, il Dipartimento per la Trasformazione digitale si riorganizza
FORUM PA 2022
PA verde e sostenibile: il ruolo di PNRR, PNIEC, energy management e green public procurement
Analisi
PNRR, Comuni e digitalizzazione: tutto su fondi e opportunità, in meno di 3 minuti. Guarda il video!
Rapporti
Competenze digitali e servizi automatizzati pilastri del piano Inps
Analisi
Attuazione del PNRR: il dialogo necessario tra istituzioni e società civile. Rivedi lo Scenario di FORUM PA 2022
Progetti
Pnrr, fondi per il Politecnico di Torino. Fra i progetti anche IS4Aerospace
Analisi
PNRR, Colao fa il punto sulla transizione digitale dell’Italia: «In linea con tutte le scadenze»
La Svolta
Ict, Istat “riclassifica” i professionisti. Via anche al catalogo dati sul Pnrr
Analisi
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUM PA 2022
Ecosistema territoriale sostenibile: l’Emilia Romagna tra FESR e PNRR
Il Piano
Innovazione, il Mise “centra” gli obiettivi Pnrr: attivati 17,5 miliardi
Analisi
PNRR: raggiunti gli obiettivi per il primo semestre 2022. Il punto e qualche riflessione
Analisi
PNRR: dal dialogo tra PA e società civile passa il corretto monitoraggio dei risultati, tra collaborazione e identità dei luoghi
Webinar
Comuni e PNRR: un focus sui bandi attivi o in pubblicazione
Analisi
Formazione 4.0: cos’è e come funziona il credito d’imposta
PA e Sicurezza
PA e sicurezza informatica: il ruolo dei territori di fronte alle sfide della digitalizzazione
PA e sicurezza
PNRR e servizi pubblici digitali: sfide e opportunità per Comuni e Città metropolitane
Water management
Water management in Italia: verso una transizione “smart” e “circular” 
LE RISORSE
Transizione digitale, Simest apre i fondi Pnrr alle medie imprese
Prospettive
Turismo, cultura e digital: come spendere bene le risorse del PNRR
Analisi
Smart City: quale contributo alla transizione ecologica
Decarbonizzazione
Idrogeno verde, 450 milioni € di investimenti PNRR, Cingolani firma
Unioncamere
PNRR, imprese in ritardo: ecco come le Camere di commercio possono aiutare
I fondi
Industria 4.0: solo un’impresa su tre pronta a salire sul treno Pnrr

Articoli correlati

Articolo 1 di 3