Sono trascorsi quasi 15 anni da quando Chris Anderson conclamò, in un articolo pubblicato su Wired [1], il tramonto del metodo scientifico, evidenziando la supremazia assoluta dei big data sulle teorie di modellazione del comportamento umano.
Veniva predetto che il monitoraggio di grandi quantità di dati avrebbe soppiantato ogni tipo di teoria sulla previsione e distribuzione dei comportamenti e delle tendenze di una popolazione.
Dall’antropologia alla sociologia, dalla linguistica alla psicologia, si riteneva che non bastasse applicare teorie per fare emergere fenomeni latenti, per loro natura non controllabili e prevedibili. Misurazioni dei dati, sempre più precise, sarebbero state in grado di fornire informazioni con un grado di fedeltà senza precedenti.
“Con una quantità sufficiente di dati, i numeri parlano da soli” (Anderson, 2008 Wired).
La rivoluzione del dataismo
Non è un caso che alcuni anni dopo la pubblicazione del saggio di Anderson, venne coniato il termine “dataismo” [2], a supportare che la disponibilità di enormi moli di dati, continuamente aggiornabili, rappresenti la vera rivoluzione e la vera potenziale ricchezza nella ricerca e nell’industria.
L’articolo, seppur ancora in un contesto alquanto prematuro e quindi ritenuto “blasfemo” dai puristi teorici, assume oggi una connotazione profetica. Dell’attuale scenario digitale, pervaso dalle applicazioni di Intelligenza Artificiale, in particolare dai sofisticati modelli generativi del linguaggio, è certamente una premonizione, rimarcata ancora di più dalle continue innovazioni basate sui dati, come l’auto-prompting, che apportano indubbi miglioramenti alle prestazioni di tali modelli.
Ma qual è stato il punto di svolta? Cosa Anderson era riuscito a prevedere dai dati, che lo portarono addirittura a ritenere l’approccio teorico obsoleto? Perché i dati sono oggi così importanti, tanto da parlare di Intelligenza Artificiale data-centrica e dataismo? I dati sono più importanti dei modelli?
I dati sono il vero specchio del reale
Diversi episodi, nel corso di importanti eventi storici, hanno evidenziato l’originalità di certi comportamenti della popolazione, molto diffusi, e considerati atipici e fuori da ogni possibile previsione.
Uno di questi episodi risale alla recente pandemia Covid19, e riguardò sorprendentemente l’acquisto spasmodico e isterico di carta igienica dai supermercati di Stati Uniti, Regno Unito ed Europa del Nord. I dati di un’agenzia di consulenza statunitense, la NCSolutions hanno mostrato che all’annuncio dei primi lockdown, le vendite di questo prodotto schizzarono dell’845%.
E, con non troppa ilarità, la carta igienica divenne quasi uno dei simboli della pandemia, stimolando i più fantasiosi meme, ma perfino seri dibattiti socio-antropologici. Un argomento di discussione a 360 gradi, dalle riflessioni più o meno profonde.
Stessa situazione durante l’annuncio del grave fenomeno meteorologico dell’uragano Sandy che colpì nell’ottobre del 2012 parte dei Caraibi, del Medio Atlantico e del Nordest degli Stati Uniti. In questo caso, la popolazione coinvolta fece incetta spasmodica, presso gli scaffali dei supermercati, di un particolare snack alla fragola. Bene di conforto? Cibo di immediato consumo, in un momento in cui non sarebbe stato possibile accedere a luce e gas per preparare una pietanza? Perché, però, proprio alla fragola?
Se la prima giustificazione a simili comportamenti inaspettati, venne identificata con la necessità di reperire quanto più possibile beni di prima necessità, venne certamente difficile immaginare perché la carta igienica o lo snack alla fragola vennero considerati tali, al pari dei pacchi di zucchero e farina.
Il senso di questi aneddoti, seppur in apparenza poco rilevante, mette invece in luce un fenomeno di grande importanza, che venne evidenziato da Anderson negli anni precedenti. Nessuna analisi di dati, precisa e puntuale, basata sulle teorie menzionate, avrebbe potuto prevedere (e tutt’oggi giustificare), la correlazione degli eventi (pandemia-carta igienica, uragano-snack alla fragola).
Perché una pandemia avrebbe fatto ritenere la carta di vitale importanza? Perché l’uragano Sandy avrebbe fatto preferire un particolare snack alla fragola a tutti gli altri snack disponibili?
Il ragionamento di Anderson si basa su queste considerazioni: nessuno potrà mai rispondere a tutte le domande sul senso di connessioni fra comportamenti ed eventi, perché alcune connessioni tale senso non ce l’hanno. Volere incanalare fenomeni di correlazione in spiegazioni teoriche, è volere attribuire alla realtà un “doppio senso”, un senso celato. Congetturare che esista dell’altro, che poi non esiste nemmeno. Altro che sarebbe solo frutto di ideologie e costruzioni teoriche. Frutto di una tendenza umana a volere formalizzare e trovare spiegazione logica ad ogni fenomeno.
Lo schematismo latente del reale
Seppur un passo di Eraclito affermi che la natura ama nascondersi, Bacon (filosofo più noto come Francesco Bacone) completò questa dichiarazione parlando di “schematismo latente” del reale [3], che comunque emergerebbe se interrogata con appositi strumenti e tecniche. Interrogandola, anche se ama farlo, la natura non può nascondersi.
Lo schematismo latente del reale fa intendere che in natura esistono fenomeni non spiegabili a priori con costruzioni teoriche, perché non sono prevedibili ed evidenti (ma appunto, latenti). Il reale è complesso, e nessuna prospettiva teorica o causale riuscirà a svelare anticipatamente, e spiegare, tutti i suoi fenomeni indistintamente. Né una causalità di fine, relativa alla motivazione sottostante i fenomeni, né una causalità efficiente, relativa a come i fenomeni si manifestino. Nemmeno un’analisi previsionale statistica. Men che meno un modello stimolo-risposta. È, quindi, il tramonto della teoria.
La spiegazione è nei dati stessi, perché sono gli stessi dati che fanno emergere le reali correlazioni nell’ambito di una osservazione o di un evento. I dati rendono trasparente la realtà, svelando quei meccanismi che i più alti e dettagliati modelli teorici riterrebbero senza senso, incomprensibili ed imprevedibili.
Basterebbe ormai sapere “parlare con i dati”, impostare le giuste domande sull’esistenza di correlazioni, per verificare la loro presenza nel reale, e farla emergere.
L’importante ruolo delle Intelligenze Artificiali è quello di fornire gli strumenti di cui parlava Bacon. Permettono di impostare le giuste query per scovare le correlazioni dai dati, qualora esistessero, rendendo evidenti gli atomi di conoscenza intrinseci della realtà. I modelli di Intelligenza Artificiale si incentrano adesso sul “reale dei dati”, per svelarne i veri fatti, scoprire le vere correlazioni, anche quelle che alla teoria sfuggono ed appaiono senza significato.
L’Intelligenza Artificiale data-centrica guarda al dato, e non più al modello e ai suoi parametri. Certamente usa sempre il modello per svelare tali correlazioni, ma adesso questo non è più il paradigma in sé, ma è divenuto lo strumento che permette di definire il nuovo paradigma data-centrico.
Non serve quasi più riaddestrare un modello affinché i suoi parametri riflettano quanto più possibile la distribuzione dei dati di esempio. Sono i dati stessi a “guidare” le previsioni, fissati i parametri del modello.
Indubbiamente si è giunti a questa nuova era grazie alla robustezza degli ultimi modelli Intelligenza Artificiale. Non si potrebbe parlare di dataismo senza, ad esempio, i modelli generativi del linguaggio dalle prestazioni quasi impareggiabili. I due paradigmi sono la conseguente evoluzione della scienza, legati quasi da una relazione padre-figlio: l’intelligenza artificiale data-centrica è figlia dell’intelligenza artificiale modello-centrica.
I paradigmi dell’Intelligenza artificiale e la loro complementarietà
Nella visione tradizionale dell’Intelligenza Artificiale incentrata sui modelli, lo sforzo dei ricercatori e degli scienziati si è da sempre focalizzato sulla definizione di metodi e strategie che potessero migliorare le prestazioni dei modelli. Dalle semplici reti neurali, alle più complesse reti profonde, com’è noto, si è sempre ritenuto che la topologia e la tipologia di tali modelli (quindi le modalità di connessione dei loro elementi di base), le funzioni di attivazione e il calcolo dei parametri, fossero il fulcro dello studio dell’Intelligenza Artificiale, e la via principale per attribuire a tali modelli la capacità di predire, classificare, in modo sempre più preciso, generale (relativo ad ogni dominio) e naturale.
Tale paradigma incentrato sul modello è considerato “data-driven”, ovvero guidato dai dati, proposti come esempi negli insiemi di addestramento.
Come profusamente evidenziato da Anderson, un approccio sì guidato dai dati, ma essenzialmente basato su teorie matematiche e probabilistiche, ha trascurato i potenziali problemi di qualità e i difetti indesiderati provenienti da un uso “poco consapevole” dei dati. Valori mancanti, etichette errate, anomalie. Difetti che poi si riversavano sui risultati, e non sempre condussero alla realizzazione di buoni modelli.
A complemento degli sforzi nell’avanzamento dei modelli, in un panorama di dati massivi che ne conclamava la grande importanza, e che svelava l’importanza e l’imprevedibilità delle correlazioni, a volte anche insensate, l’intelligenza artificiale ha enfatizzato l’ingegnerizzazione sistematica dei dati [4], avviando la transizione verso il paradigma data-centrico. Obiettivo è costruire sistemi “strumentali del dato”, ovvero strumenti che portino ad evidenziare le correlazioni senza “sporcarle” da costruzioni ideologiche e teoriche, spostando il focus scientifico dal modello ai dati. Non è la teoria che spiega, ma è la correlazione che dice già tutto ed occorre soltanto scoprirla.
Tale ingegnerizzazione include la specifica di fasi e tasks nel trattamento dei dati, che includono la raccolta [5], l’integrazione [6], la sintesi dei dati grezzi [7], varie forme di etichettatura [8] [9], preparazione e pulizia [10], estrazione delle funzionalità [11], inferenza sia automatica che manuale [12], manutenzione inclusiva della visualizzazione e valutazione, per la garanzia e il miglioramento della qualità [13].
Un paradigma comunque non soppianta l’altro. Seppur si stia assistendo alla supremazia nell’uso del dato, non sarebbe sorprendente un rapido ritorno al paradigma modello centrico. I due paradigmi infatti sono intrecciati e complementari: da un lato, come visto, i metodi modello centrici sono strumenti per migliorare obiettivi e metodi incentrati sui dati. D’altra parte, la maggiore disponibilità di dati potrebbe ispirare, e sicuramente sta ispirando, ulteriori progressi nella progettazione di modelli sempre più performanti. Pertanto, dati e modelli tendono ad evolversi ed alternarsi in un’altalena in costante cambiamento [14]. Dovendo scattare una fotografia sullo scenario attuale, il dato sta dominando sul modello.
Sebbene questa transizione sia ancora in corso, abbiamo già numerosi risultati che mettono in luce i vantaggi del data-centrismo. Tipico esempio, l’evoluzione dei Large Language Models (LLMs) di OpenAI: rispetto al precedente GPT-2 [15], GPT-3 [16] ha apportato solo piccole modifiche all’architettura neurale, ma si sono dedicati invece molti sforzi alla raccolta e al miglioramento dei dati del set di addestramento, arricchendolo significativamente in qualità e quantità. Le prestazioni si sono rivelate notevolmente migliori, quasi mantenendo lo stesso modello, solo lavorando sui dati. Analogamente, ChatGPT [17], basata su GPT-3, utilizza un apprendimento per rinforzo basato sul feedback dell’utenza [18] per generare ulteriori dati etichettati di alta qualità, che riusa per il suo stesso fine-tuning. Il fine-tuning è, come dice il termine stesso, il perfezionamento (tuning) raffinato (fine) dei parametri del modello, allo scopo di renderlo più fedele e “vicino” (ovvero più fine) ai dati. Non si tratta di riaddestrare e calcolare tutti i parametri del modello sottostante (che sono in numero considerevole e un riaddestramento richiederebbe elevate risorse computazionali), ma solo una parte di questi, che hanno un effetto sostanziale sulle prestazioni complessive.
Ma la vera svolta è l’approccio del prompt engineering [19], che ha riscontrato un successo significativo concentrandosi esclusivamente sulla regolazione degli input di dati, ed eludendo perfino il fine-tuning.
Come i dati guidano le inferenze: il prompting
Com’è noto, i metodi di Intelligenza Artificiale traggono ispirazione da processi umani, siano essi cognitivi, psicologici, o perfino neurologici. Anche il prompting trae ispirazione da una tendenza del tutto umana, che deriva dalla psicologia. Il prompting potrebbe essere inteso come una strategia manipolativa, atta a fare assumere ad una persona un comportamento desiderato. Consiste nel fornire ad un soggetto uno o più stimoli rafforzativi, detti appunto prompt (aiuti), in modo che questi stimoli rendano più possibile (e quindi rafforzino) il verificarsi di un comportamento desiderato nel soggetto.
Ad esempio, se si chiedesse a qualcuno di chiudere una porta, indicare la porta con il dito renderebbe la richiesta più incisiva, e quindi diverrebbe più probabile che il soggetto esegua la richiesta, e assuma il comportamento desiderato. I prompt sono solitamente sintetici, evidenti e vengono proposti al momento esatto in cui si verifica la richiesta.
Nell’ambito dell’ingegnerizzazione schematica dei dati dell’IA data-centrica, il prompting si colloca come task inferenziale, ovvero permettere ad un modello di fare inferenze più precise e corrette sui dati usando i dati stessi. Il concetto chiave è che il prompting vuole manipolare l’output del modello rafforzando la richiesta in input. Si basa infatti sulla definizione di particolari formati di input, che includono la richiesta ad un modello (già addestrato e non necessariamente fine-tunato), corredata da “stimoli rafforzativi”, ovvero altre componenti di input che accompagnano la richiesta principale, e che quindi guiderebbero il modello a produrre un output più significativo e aderente alla richiesta stessa. Un po’ come il dito che indica con più precisione la porta che si vorrebbe chiusa, il prompting dei modelli generativi del linguaggio prevede indicazioni testuali che indirizzano l’output, e quindi il comportamento, del modello.
Ad esempio, se si volesse riassumere un articolo scientifico allo scopo di estrarne velocemente i dati di maggiore interesse, si potrebbe chiedere a un LLM qualcosa del tipo: “Riassumi il testo a seguire con una sola frase”, e incollare successivamente il testo dell’articolo. Non stiamo chiedendo semplicemente un riassunto, ma stiamo specificando che deve essere davvero breve, “in una sola frase”. Ciò consentirebbe al modello di generare davvero un riassunto molto conciso dell’articolo. Si nota quindi che tramite l’uso di dati, si ottengono prestazioni filtrate, e migliori, del modello, pur congelandone i parametri e ovviandone il fine-tuning. Il prompt in input richiede una specifica modalità di analisi e correlazione dei dati, permettendo di svelarla e produrla, partendo proprio dall’analisi del dato stesso di prompt, e degli altri dati di input.
Sostanzialmente, i suggerimenti a corredo attivano le informazioni corrispondenti apprese dai modelli generativi, con conseguente miglioramento significativo dell’adattamento e delle prestazioni sui “downstream tasks” (ovvero sui compiti a valle richiesti al modello, come appunto un riassunto, o una traduzione, la scrittura di un programma, e così via).
Se l’uso dei prompt ha aperto nuove opportunità nella scienza dei dati, consentendo agli studiosi e non, di semplificare i flussi di lavoro e aumentare la produttività, la creazione di suggerimenti efficaci rimane però una sfida significativa, poiché anche prompt che sembrano simili possono produrre risultati molto diversi. Ad esempio, si è dimostrato che l’utilizzo di “Scrivi un breve riepilogo” o “Fornisci un riepilogo conciso” può portare a riepiloghi sostanzialmente diversi. Questa variazione nell’output può rendere difficile per i data scientist determinare qual è il prompt efficace per raggiungere l’obiettivo desiderato.
I prompt efficaci sono quindi un fattore critico, e nel corso degli ultimi anni sono stati proposti vari approcci allo scopo di raggiungere la strategia ottimale per la scrittura di prompt.
L’evoluzione del prompting
Nella pratica, il primo approccio al prompting fu un tentativo di testare le abilità dei LLMs su specifici tasks. I primi prompt riguardarono tasks di classificazione tipizzata del testo, ovvero quella classificazione le cui categorie sono di senso comune (come nel caso della sentiment analysis). Ciò significa che probabilmente il modello non può classificare un testo nelle categorie A o B poiché il significato di “A” e “B” non è chiaro. Tuttavia, può classificare il testo in “sentimento positivo”, “sentimento negativo” o “sentimento neutro” poiché il modello ha appreso, dai dati massivi su cui è stato addestrato, il senso delle parole “positivo”, “negativo” e “neutro” che sono di uso comune. Così per qualsiasi altro set di etichette di senso comune, come “alto”, “basso”, “medio” o ancora “bello” e “brutto”, di cui il modello ha conoscenza intrinseca.
Nei primi tentativi di prompting quindi veniva fornito al modello del testo, accompagnato dalla richiesta di individuare la categoria in un task di classificazione a cui tale testo potesse appartenere. Per esempio, fornendo a chatGPT un prompt del tipo:
“Testo: il film Oppenheimer mi ha spaventato moltissimo. Sentimento: ”
Il chatbot risponde: “il sentimento espresso nel testo è la paura”.
Ma formulando la richiesta in modo più contestuale, come:
“Seleziona tra positivo, negativo e neutro. Testo: il film Oppenheimer mi ha spaventato moltissimo. Sentimento:”
Il chatbot risponde: “il sentimento espresso nel testo è negativo”.
Questo primo approccio di stimoli rafforzativi è noto come zero-shot prompting, perché il modello risponde senza avere espliciti esempi, ma sulla base delle mere indicazioni fornitegli a corredo del testo. Con uno zero-shot prompting più contestualizzato, ovvero nel quale si specifica il tipo di compito che deve essere eseguito e le etichette da usare, il modello risponde opportunamente, producendo la classificazione desiderata e non elencando il tipo di sentimento contenuto nel testo.
Vista la capacità del modello di “farsi influenzare” dalle indicazioni contenute nel testo, si sono quindi provate varie alternative di stimoli rafforzativi. Per esempio, risultati più robusti si sono ottenuti presentando paragrafi interi, formati da più testi di input di esempio, accompagnati da etichette di output. Una sorta di fine-tuning dai dati, in quanto il modello apprende, dagli esempi testuali presentati, quale tipo di output deve essere prodotto. Questo ha consentito di eseguire anche classificazioni non tipizzate, perché è stato possibile fornire la tipologia di input corrispondente a etichette di senso non comune. Tale prompting è definito few-shot perché pochi esempi input-output indirizzeranno le risposte successive. Una sorta di addestramento “off-line”, “fuori dal modello”, un apprendimento che lo stesso modello acquisisce dai dati, senza però modificare i suoi parametri.
Dal few-shot prompting, l’idea poi di presentare come esempi quesiti di matematica ed i corrispondenti ragionamenti per risolverli, è stata immediata, rendendo il modello abile al ragionamento di calcolo. Si parla quindi di CoT prompting, ovvero il prompt a Catena di Pensiero (CoT – Chain of Thoughts [20]), in cui la catena non è altro che la sequenza di passi che devono essere compiuti per risolvere il quesito di esempio.
Dalla catena lineare di ragionamento, al ragionamento ad albero con valutazione di più strade ed alternative, il passo è stato breve. Il Tree of Thoughts prompting [21] estende il CoT esplorando molteplici possibilità di ragionamento in ogni fase, o in ogni anello, della catena. Come primo passaggio, scompone il problema in più di una catena di pensiero, e poi genera più diramazioni per ogni anello delle varie catene, creando essenzialmente una struttura ad albero. In questo modo, si hanno più esempi per risolvere lo stesso problema, e il modello sarebbe in grado di scegliere la strategia più opportuna per risolvere ogni nuovo quesito, procedendo passo passo alla valutazione della diramazione migliore. Si passa poi al recentissimo Graph of Thoughts prompting [22] ampliando la struttura ad albero in un grafo più generico e con connessioni più complesse tra gli anelli delle varie catene.
Tante altre strategie sono state poi definite, e continuano ad essere perfezionate, portando alla nascita di un nuovo focus di ricerca fervido ed in esponenziale produzione. La creazione di prompt può essere diversa e funzionale per tasks diversi. Una strategia di prompt fra quelle viste può funzionare bene per un task ma meno bene per altri. Fino a questo punto quindi, nella scrittura di prompt, ci si è basati sugli obiettivi nell’uso del modello, ma, in ogni caso, qualunque sia il downstream task, la scrittura di prompt ha un grande impatto sulle prestazioni e richiede uno sforzo manuale dispendioso in termini di tempo, e specifiche conoscenze di dominio.
In questi esempi, i prompt vengono scritti “a mano”, con sforzi di annotazione non banali. Ma se fossero gli stessi modelli a scriverli? La vera novità infatti è rappresentata dall’auto-prompting, ovvero la possibilità di fare scrivere prompt in modo automatico agli stessi modelli. Ma ci si può fidare di prompt automatici? Prompt per generare prompt? Sembrerebbe il cane che si morde la coda, ma in realtà la strategia alla base dei prompt automatici è proprio la schematizzazione latente dei dati. I dati insomma, parlano da soli e i generatori di prompt tentano di “ascoltarli”.
LLMs sempre più auto-referenziali e aumentati: il dato il cuore di tutto
L’idea di partenza fu che i prompt, essendo sequenze di token posti come prefisso a del testo, avrebbero potuto essere trattati come parametri da apprendere e da ottimizzare, per creare così automaticamente, ed anche in numero più massivo, stimoli rafforzativi per vari task. Quindi, è divenuto anche possibile usare uno stesso generatore di prompt per più task distinti, e non essere vincolati all’obiettivo d’uso del modello con i prompt statici. La caratteristica di questi nuovi “parametri” testuali, è che devono essere creati automaticamente, e si provarono modelli per farlo. Qui si riscontrò la complementarietà dei due paradigmi di IA. Definizione di modelli (IA modello-centrica) per scovare gli schemi latenti dei dati che guidino meglio le prestazioni di un LLM (IA data-centrica).
Rientra in questa categoria uno dei primi approcci, il tool AutoPrompt [23] che costruisce prompt combinando il testo relativo al task che deve essere eseguito ed immesso quindi dall’utente (per esempio, relativo alla sentiment analysis), con una collezione di altri token, detti “di attivazione”. La combinazione fra i token nel testo di input e i token di attivazione segue un certo pattern (una sorta di maschera di incastro fra i token). Il tool sceglie i token di attivazione più opportuni che, combinati nel pattern con l’input in ingresso, generano il prompt più opportuno e più efficace. I token di attivazione sono una sorta di token universali, perché sono sempre gli stessi per i vari tasks. Il tool diviene in grado di scegliere fra questi quelli più opportuni in base ai token di input perché viene addestrato su una serie di dataset noti, e relativi a più task. In questo modo, in base all’input presentato, diventa in grado di identificare il tipo di task richiesto e i token di completamento ottimali.
A questo primo approccio, ne sono seguiti molti altri, fino alla versione ben nota di AutoGPT [24], e le sue estensioni AgentGPT e ChaosGPT per interfacce specifiche al tool radice, basato sulle versioni GPT-3.5 e GPT-4, che hanno catapultato nuovamente il paradigma data-centrico quasi come esclusivo. Il successo di questo approccio risiede nel fatto che tale modello è “auto-referenziato e aumentato”. Combina gran parte delle strategie descritte fino ad ora usando sé stesso come modello di generazione di prompt (auto-referenziato, quindi non richiede addestramenti ed ottimizzazioni specifiche, come nei tool precedenti), ed in più è un modello “aumentato”, ovvero carpisce ulteriori dati e informazioni dalla rete per produrre risposte sempre più performanti.
Il testo dell’utente diviene un semplice stimolo iniziale, ma è il dato chiave che viene autonomamente rafforzato dallo stesso modello sulla base del recupero, dalla rete, di tutta una serie di informazioni a corredo. Il tool arricchisce da sé il testo iniziale, che può anche essere molto basico e scarno, o seguire un template fisso per ottenere prestazioni migliori, per realizzare un output/prodotto finito quanto più completo possibile. Uno degli esempi di utilizzo è il giornalista che chiede semplicemente di scrivere un articolo sul “fatto del giorno”, e il modello aumentato individua dalla rete a quale fatto il giornalista si riferisce, e aumenta quindi autonomamente l’input iniziale, pone a sé stesso la nuova richiesta aumentata, e scrive l’articolo considerando il nuovo auto-prompt. Non c’è nemmeno la preoccupazione di validare i prompt generati in automatico, perché basta verificare la bontà dell’output prodotto e quanto soddisfi la richiesta.
Nel caso in cui la discrezione dell’utilizzatore carpisca errori o inesattezze, può sempre riformulare una nuova semplice richiesta e attendere il nuovo risultato. Non è raro che certi output, dipendenti da prompt automatici, siano poco performanti, ma siamo agli albori di tecniche nuove, sperimentali, che si perfezioneranno con l’uso e con nuovi contributi. Per esempio, venne dimostrato che scrivere un prompt con la lettera “Q” per indicare il quesito, piuttosto che con la parola “Question”, produce risultati notevolmente migliori [25]. Perfezionamenti che potrebbero sembrare banali e poco influenti hanno invece pesi considerevoli. Perché il dato ha schemi latenti che spesso sono no-sense: il cerchio si chiude.
Conclusioni
“Tutti i modelli sono sbagliati, ma alcuni sono utili”. Così proclamava lo statistico George Box 30 anni fa. Sembra adesso che, seppur sbagliati, i modelli siano in grado di auto-correggersi e rendersi performanti, basandosi sui dati, a conferma che la visione data-centrica di Anderson costituisca il cuore della vera forma di Intelligenza Artificiale. Basterebbe controllare i dati per aver meno timori sulle capacità decisionali dei sistemi e sulla loro “vita autonoma”? Ad oggi, l’unica certezza è che i dati sono fondamentali, e possiamo affermare che sono la vera linfa dei modelli esistenti. Un modello senza dati non può sussistere, il dato senza il modello continua comunque “a parlare” ed i modelli, ormai, lo sanno.
Bibliografia
[1] Cfr. C. Anderson, The end of theory: the data deluge makes the scientific method obsolete: https://www.wired.com/2008/06/pb-theory/
[2] Approfondimento disponibile al link: https://www.leurispes.it/viviamo-nellera-del-dataismo-significato-e-caratteristiche/
[3] http://www.thelatinlibrary.com/bacon/
[4] Zha, D., Bhat, Z. P., Lai, K. H., Yang, F., Jiang, Z., Zhong, S., & Hu, X. (2023). Data-centric artificial intelligence: A survey. arXiv preprint arXiv:2303.10158.
[5] Bogatu, A., Fernandes, A. A., Paton, N. W., and Konstantinou, N. Dataset discovery in data lakes. In ICDE (2020).
[6] Stonebraker, M., Ilyas, I. F., et al. Data integration: The current status and the way forward. IEEE Data Eng. Bull. 41, 2 (2018), 3–9.
[7] Lai, K.-H., Zha, D., Xu, J., Zhao, Y., Wang, G., and Hu, X. Revisiting time series outlier detection: Definitions and benchmarks. In NeurIPS (2021).
[8] Kutlu, M., McDonnell, T., Elsayed, T., and Lease, M. Annotator rationales for labeling tasks in crowdsourcing. Journal of Artificial Intelligence Research 69 (2020), 143–189.
[9] Kutlu, M., McDonnell, T., Elsayed, T., and Lease, M. Annotator rationales for labeling tasks in crowdsourcing. Journal of Artificial Intelligence Research 69 (2020), 143–189.
[10] Zhang, Z. Missing data imputation: focusing on single imputation. Annals of translational medicine 4, 1 (2016).
[11] Salau, A. O., and Jain, S. Feature extraction: a survey of the types, techniques, applications. In ICSC (2019).
[12] Karimi, A.-H., Schölkopf, B., and Valera, I. Algorithmic recourse: from counterfactual explanations to interventions. In FAccT (2021).
[13] Sadiq, S., Dasu, T., Dong, X. L., Freire, J., Ilyas, I. F., Link, S., Miller, M. J., Naumann, F., Zhou, X., and Srivastava, D. Data quality: The role of empiricism. ACM SIGMOD Record 46, 4 (2018), 35–43.
[14] Polyzotis, N., and Zaharia, M. What can data-centric ai learn from data and ml engineering? arXiv preprint arXiv:2112.06439 (2021).
[15] Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., Sutskever, I., et al. Language models are unsupervised multitask learners. OpenAI (2019).
[16] Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G., Askell, A., et al. Language models are few-shot learners. NeurIPS (2020).
[17] Ouyang, L., Wu, J., Jiang, X., Almeida, D., Wainwright, C. L., Mishkin, P., Zhang, C., Agarwal, S., Slama, K., Ray, A., et al. Training language models to follow instructions with human feedback. In NeurIPS (2022).
[18] Christiano, P. F., Leike, J., Brown, T., Martic, M., Legg, S., and Amodei, D. Deep reinforcement learning from human preferences. In NeurIPS (2017).
[19] Liu, P., Yuan, W., Fu, J., Jiang, Z., Hayashi, H., and Neubig, G. Pre-train, prompt, and predict: A systematic survey of prompting methods in natural language processing. ACM Computing Surveys 55, 9 (2023), 1–35.
[20] Wei, Jason & Wang, Xuezhi & Schuurmans, Dale & Bosma, Maarten & Chi, Ed & Le, Quoc & Zhou, Denny. (2022). Chain of Thought Prompting Elicits Reasoning in Large Language Models.
[21] Yao, Shunyu & Yu, Dian & Zhao, Jeffrey & Shafran, Izhak & Griffiths, Thomas & Cao, Yuan & Narasimhan, Karthik. (2023). Tree of Thoughts: Deliberate Problem Solving with Large Language Models.
[22] Besta, M., Blach, N., Kubíček, A., Gerstenberger, R., Gianinazzi, L., Gajda, J., Lehmann, T., Podstawski, M., Niewiadomski, H., Nyczyk, P., & Hoefler, T. (2023). Graph of Thoughts: Solving Elaborate Problems with Large Language Models. ArXiv, abs/2308.09687.
[23] Taylor Shin, Yasaman Razeghi, Robert L. Logan IV, Eric Wallace, and Sameer Singh. 2020. AutoPrompt: Eliciting Knowledge from Language Models with Automatically Generated Prompts. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 4222–4235, Online. Association for Computational Linguistics.
[24] Sabrina Ortiz, What is Auto-GPT? Everything to know about the next powerful AI tool, ZDNET, 14 aprile 2023.
[25] Fu et al. “Complexity-based prompting for multi-step reasoning.” arXiv preprint arXiv:2210.00720 (2022).