Intelligenza Artificiale

Training AI: i metodi efficaci per evitare distorsioni



Indirizzo copiato

Nel campo dell’intelligenza artificiale, affrontare le distorsioni richiede dati vari e aggiornati, e l’integrazione dell’intelligenza umana. Approcci diversificati contribuiscono al miglioramento della tecnologia, affrontando sfide come l’accuratezza, la riduzione dei bias, e la scalabilità. Vediamoli nel dettaglio

Pubblicato il 9 feb 2024

Andrea Viliotti

Innovation Strategist



Artificial,Intelligence,Illustration.,Artificial,Intelligence,And,Machine,Learning,Concept.,Digital

Una delle sfide più rilevanti nel campo dell’intelligenza artificiale è il fenomeno delle “distorsioni AI“, una terminologia che potrebbe richiamare la trama di un romanzo di Isaac Asimov, ma che descrive in realtà un problema serio e complesso nell’ambito dell’AI.

Queste distorsioni AI si manifestano quando i sistemi di intelligenza artificiale generano risultati inesatti o ingannevoli. Un esempio può essere un sistema di riconoscimento di immagini che confonde una mela con una pera, o un assistente virtuale che fornisce risposte inadeguate.

Sebbene possano sembrare errori trascurabili, questi possono avere effetti gravi in settori cruciali, come la diagnosi medica o la guida autonoma, comportando importanti implicazioni etiche e legali.

La principale causa di questi errori è spesso legata alla qualità dei dati utilizzati per l’addestramento dei sistemi AI. Dati scarsi, distorti o non aggiornati possono indurre l’AI a riprodurre questi stessi errori, compromettendo la fiducia nelle sue applicazioni.

Per affrontare efficacemente il problema delle distorsioni AI, è essenziale un approccio proattivo nella gestione dei dati. Ciò include una selezione accurata e una continua validazione dei dati, per garantire che essi rappresentino correttamente una realtà in costante mutamento. Per esempio, un sistema di raccomandazione per il commercio online necessita di aggiornamenti periodici con dati che riflettano un’ampia gamma di preferenze dei consumatori, per mantenere la sua efficienza e pertinenza.

Un altro aspetto fondamentale è la diversità e inclusività dei dati. Un sistema AI addestrato con dati provenienti da un’area geografica ristretta o da un gruppo demografico specifico può risultare parziale e non rappresentativo. Immaginiamo un assistente vocale che non riconosce vari accenti a causa di un training basato su un set di dati ristretto.

Inoltre, la collaborazione tra diverse discipline è cruciale per migliorare la qualità dei dati. Integrando competenze da campi come la linguistica, la sociologia e l’etica, si possono creare soluzioni AI tecnicamente valide, eticamente accettabili e socialmente consapevoli.

Dopo aver messo in luce il problema delle distorsioni AI e l’importanza di dati di alta qualità per un efficace addestramento, è fondamentale esplorare le varie metodologie di training AI. Tecniche come Human-In-The-Loop (HITL), Reinforcement Learning (RL) e Federated Learning presentano vantaggi e svantaggi specifici.

È cruciale analizzare queste metodologie per capire come contribuiscano a sviluppare sistemi AI più solidi, etici ed efficienti, e come possano essere utilizzate per affrontare le sfide poste dalle distorsioni AI e da altre problematiche correlate.

Human-In-The-Loop (HITL) Training

L’ascesa dell’intelligenza artificiale sta inaugurando un’epoca in cui la sinergia tra umani e macchine assume un’importanza sempre maggiore. Un esempio emblematico di questa interazione è l’adozione dell’approccio Human-In-The-Loop (HITL) nel processo di addestramento dell’AI. Questo metodo, che incorpora l’intelligenza e l’esperienza umane nel ciclo di apprendimento dell’AI, costituisce un cambiamento significativo nell’ottimizzazione dei modelli di intelligenza artificiale.

Prendiamo in considerazione un sistema di riconoscimento facciale impiegato per la sicurezza negli aeroporti. Con l’implementazione dell’HITL, gli operatori umani possono intervenire, esaminando e correggendo gli output dell’AI in caso di errori di identificazione. Questo meccanismo non soltanto incrementa la precisione del sistema, ma contribuisce anche a minimizzare i pregiudizi, rendendo il riconoscimento più equo e affidabile.

Un vantaggio chiave dell’HITL è la sua efficacia nell’aumentare l’accuratezza dell’AI. L’apporto umano permette un’affinazione più specifica e precisa dei modelli. Inoltre, il monitoraggio umano è cruciale per attenuare i bias. Ad esempio, in un sistema di reclutamento basato sull’AI, la revisione umana può assicurare che i criteri di selezione siano liberi da pregiudizi involontari.

Tuttavia, emergono anche delle sfide. La questione della scalabilità rappresenta un ostacolo notevole, dato che l’intervento umano diretto può limitare la velocità ed efficienza dell’addestramento su larga scala. In aggiunta, gli esperti coinvolti possono soffrire di affaticamento a causa del bisogno di monitoraggio e feedback costanti. Infine, esiste il pericolo che un’eccessiva dipendenza dal giudizio umano possa introdurre errori soggettivi nel processo di addestramento.

Per affrontare queste sfide e massimizzare i benefici dell’HITL, è essenziale perfezionare l’interazione tra umani e macchine. Ciò comporta lo sviluppo di interfacce intuitive che facilitino il lavoro degli esperti, oltre all’utilizzo di tecniche AI che assistano e alleggeriscano il carico di lavoro umano. Un esempio potrebbe essere un sistema AI che seleziona preventivamente i casi più critici per la revisione umana, riducendo così il carico complessivo di lavoro.

L’HITL si afferma come un approccio imprescindibile nell’ambito dell’addestramento AI, proponendo un’integrazione ideale tra intelligenza umana e potenza di calcolo automatizzata. Attraverso un’implementazione e ottimizzazione mirate, l’HITL può indirizzare lo sviluppo di sistemi AI più accurati, etici e responsabili, pronti a rispondere alle sfide e alle opportunità del mondo contemporaneo.

Approcci di Reinforcement Learning (RL)

Immagina un agente AI come un esploratore che si avventura in un territorio inesplorato. Il suo scopo è imparare a orientarsi in questo ambiente, ottimizzando le proprie azioni per massimizzare le ricompense. Questo rappresenta l’essenza del Reinforcement Learning (RL): un metodo di apprendimento basato su tentativi ed errori, in cui ogni azione comporta una ricompensa o una penalità, indirizzando così l’agente AI verso decisioni più vantaggiose.

Un esempio pratico di RL si osserva nei giochi di strategia come gli scacchi o il Go, dove l’AI valuta ogni mossa ponderando le ricompense (ad esempio, vincere la partita) e le penalità (perdere pezzi o la partita stessa). Lo stesso concetto si estende a settori più vasti, come la robotica, in cui un robot apprende a muoversi in un ambiente, evitando ostacoli e conseguendo obiettivi specifici.

Il fascino del RL risiede nella sua autonomia. Una volta definiti l’ambiente e le regole, l’agente AI intraprende un percorso di esplorazione e apprendimento autonomo. A differenza dell’Human-In-The-Loop (HITL), dove l’intervento umano è essenziale nel processo di apprendimento, nel RL l’essere umano funge più da architetto, impostando le basi e poi lasciando che l’AI sviluppi la propria competenza.

L’RL si applica in situazioni dove è possibile simulare un ambiente e stabilire obiettivi chiari. Si pensi, per esempio, a un sistema di guida autonoma che deve apprendere a muoversi in città intricate. In questo contesto, l’AI, utilizzando il RL, impara a prendere decisioni in tempo reale, ottimizzando il tragitto ed evitando impedimenti.

Questo metodo offre un vantaggio notevole: consente agli agenti AI di adattarsi a situazioni nuove e inaspettate, imparando dalle esperienze passate. Tuttavia, richiede ambienti di simulazione avanzati e una profonda comprensione delle dinamiche in atto.

Mentre l’HITL pone l’essere umano al centro del processo di apprendimento, il RL enfatizza l’autonomia dell’AI, mettendo in luce la flessibilità e la capacità di adattamento di queste tecnologie in evoluzione.

Approcci di Reinforcement Learning (RL) con feedback umano (RLHF) in Large Language Model (LLM)

L’approccio di Reinforcement Learning con feedback umano (RLHF) implementato da OpenAI rappresenta un avanzamento significativo nel campo dell’intelligenza artificiale, in particolare per i modelli linguistici. Questa metodologia, adottata in modelli come InstructGPT e utilizzata anche nell’addestramento delle varie versioni di ChatGPT, ha prodotto risultati notevoli in termini di sicurezza, utilità e allineamento con le intenzioni degli utenti. A differenza di versioni precedenti, come GPT-3, i modelli basati su RLHF sono stati perfezionati grazie al feedback diretto umano, risultando più accurati, veritieri e meno propensi a generare contenuti inappropriati. Questo processo implica la valutazione e l’adattamento continuo delle risposte del modello, grazie all’intervento dei valutatori umani, elevando così la qualità e la sicurezza delle interazioni AI-utente. Le diverse iterazioni di ChatGPT, da ChatGPT-3 a versioni più recenti, dimostrano l’evoluzione e il miglioramento di questa tecnologia, mirando a modelli sempre più affidabili e in linea con le necessità e le aspettative degli utenti.

Immaginiamo un assistente virtuale che non solo comprende meglio le istruzioni, ma risponde anche in modo più sicuro e attendibile. Questo è l’obiettivo dei modelli InstructGPT derivanti dal processo RLHF. In questo contesto, il ruolo dei valutatori umani è fondamentale. Agiscono come “insegnanti” per il modello AI, fornendo esempi concreti di comportamento adeguato in situazioni specifiche. Il processo inizia con i valutatori che mostrano al modello le risposte appropriate a vari input, illustrando le aspettative in diverse circostanze. Successivamente, valutano le risposte generate dal modello, individuando quelle più accurate e conformi alle istruzioni fornite.

Questa valutazione non si limita alla scelta della “migliore” risposta, ma include anche una classificazione dettagliata delle risposte basata sulla loro esattezza e rilevanza. Questi feedback vengono poi utilizzati per affinare e migliorare ulteriormente il modello, insegnandogli a comprendere e seguire le istruzioni con maggiore precisione e sicurezza. In altre parole, il modello apprende a interpretare e a rispondere alle richieste in modo più efficace e attendibile, basandosi sull’esperienza e sulle indicazioni fornite dai valutatori umani.

Un aspetto notevole di questo processo è che i modelli InstructGPT di dimensioni più ridotte (come quello da 1.3B parametri) sono stati preferiti dai valutatori a un modello GPT-3 molto più ampio (175B parametri), nonostante avessero più di 100 volte meno parametri. Questo evidenzia come l’RLHF non solo aumenti la sicurezza e l’affidabilità dei modelli, ma riesca anche a mantenere o addirittura superare le capacità di GPT-3 in termini di prestazioni, come dimostrato dalle valutazioni accademiche nel campo del Natural Language Processing (NLP).

I modelli InstructGPT sono ora diventati i modelli linguistici predefiniti disponibili sull’API di OpenAI, segnando una tendenza chiara verso il miglioramento continuo della sicurezza e dell’affidabilità dei modelli AI. Questo approccio getta le basi per un futuro in cui i modelli di intelligenza artificiale sono non solo più potenti, ma anche più allineati con le necessità e le intenzioni degli utenti umani.

L’RLHF di OpenAI è un esempio eccellente di come l’integrazione umana nel processo di apprendimento automatico possa portare a modelli AI più sicuri, efficaci e allineati con le aspettative umane, rappresentando un progresso significativo nel campo dell’intelligenza artificiale e aprendo nuove strade per lo sviluppo di tecnologie AI più responsabili e utili.

RLHF in Large Multimodal Models (LMMs)

Nel corso del 2023, il settore dell’intelligenza artificiale ha testimoniato un significativo avanzamento grazie all’introduzione del modello LLaVA-RLHF, un vero e proprio landmark nel panorama dell’AI. Caratterizzato dall’inedita fusione tra visione e linguaggio, questo modello ha rivoluzionato il modo di interagire con differenti tipi di input, quali testo e immagini, ottimizzando tale interazione mediante il feedback umano. La sua capacità di interpretare e analizzare il mondo in modo complesso e multimodale rappresenta un chiaro esempio dell’evoluzione dell’intelligenza artificiale.

Immaginate un assistente virtuale che non si limita a comprendere il testo delle vostre richieste, ma è anche in grado di analizzare immagini o video. Il LLaVA-RLHF segna un passo cruciale verso questa realtà, potenziando la capacità dell’intelligenza artificiale di processare e rispondere a una varietà di stimoli sensoriali in maniera coesa e precisa.

L’impiego del Reinforcement Learning from Human Feedback (RLHF) nei Large Multimodal Models (LMMs) ha condotto a progressi notevoli. Questi modelli, che amalgamano dati eterogenei come testo, immagini e audio, hanno raggiunto una maggiore precisione e coerenza grazie all’RLHF. La loro abilità di interpretare in modo accurato informazioni complesse e variegate è fondamentale in settori come quello sanitario, dove una corretta lettura di immagini diagnostiche e annotazioni mediche può risultare salvavita.

I benefici e le sfide dell’RLHF nei LMMs

Tra i benefici dell’RLHF nei LMMs si annoverano un miglior allineamento tra differenti tipi di dati, che rende i modelli più versatili e affidabili, e una riduzione significativa dei costi legati all’annotazione manuale, dato che i modelli sono in grado di auto-ottimizzare tale allineamento.

Ciononostante, si presentano alcune sfide: la gestione di feedback umani contraddittori richiede avanzati processi di validazione e moderazione, mentre la scalabilità e l’efficienza rappresentano questioni cruciali, soprattutto in ottica di implementazione su larga scala. Per preservare l’efficacia dei LMMs è necessaria un’evoluzione e un aggiornamento costanti dei modelli.

Prospettando il futuro, i Large Multimodal Models con RLHF si stanno consolidando come strumenti imprescindibili nell’ambito dell’intelligenza artificiale, migliorando l’interoperabilità e l’efficacia dei modelli. Man mano che questo settore si evolve è imperativo continuare a sviluppare metodiche di training che non solo accrescano precisione e coerenza, ma tengano conto anche di efficienza, scalabilità e questioni etiche. Questo approccio olistico all’addestramento dell’AI è cruciale per sfruttare a pieno le potenzialità di queste tecnologie avanzate, aprendo la strada a un futuro in cui l’intelligenza artificiale sarà ancora più integrata e funzionale nella nostra quotidianità.

Supervisione del processo vs. del risultato

In un’epoca in cui l’intelligenza artificiale guida sempre più ambiti della nostra vita, diventa essenziale comprendere e fidarsi delle decisioni prese da queste tecnologie emergenti. OpenAI ha introdotto un concetto rivoluzionario in questo contesto: la supervisione del processo nell’addestramento dell’AI. Questo approccio si distingue per l’attenzione non solo ai risultati finali, ma anche al “come” e al “perché” delle decisioni prese dall’intelligenza artificiale, offrendo una visione chiara del suo ragionamento interno.

Per esemplificare, pensiamo a un medico che utilizza un sistema AI per diagnosticare malattie. Con la supervisione del processo, l’AI non si limita a fornire una diagnosi, ma espone anche il percorso logico che ha condotto a tale conclusione. Questa pratica non solo accresce la trasparenza, ma rafforza anche la fiducia del medico nella tecnologia, favorendo un’integrazione più efficace tra intelligenza umana e artificiale.

La supervisione del processo rappresenta una significativa deviazione dagli approcci tradizionali, focalizzati esclusivamente sui risultati. L’obiettivo qui è comprendere e influenzare il processo attraverso cui l’AI elabora informazioni e giunge a conclusioni. Questo cambiamento di paradigma è cruciale per promuovere trasparenza e intelligibilità, aspetti fondamentali per costruire un rapporto di fiducia tra l’AI e gli utenti.

I vantaggi di questo metodo sono numerosi. Innanzitutto, incrementa la trasparenza, offrendo agli utenti una maggiore comprensione delle decisioni dell’AI. In secondo luogo, facilita l’identificazione e la correzione di errori o pregiudizi nel ragionamento dell’AI, prevenendo influenze negative sui risultati finali. Infine, la possibilità di seguire il percorso logico dell’AI intensifica la fiducia degli utenti nelle sue capacità decisionali.

Nonostante ciò, esistono delle sfide. La supervisione del processo richiede un’analisi più approfondita dei meccanismi interni dei modelli AI, aumentando la complessità del training. Inoltre, vi è il rischio di sviluppare sistemi eccessivamente complessi, che potrebbero non essere efficaci in contesti reali e variabili.

Per bilanciare questi vantaggi e sfide, è necessario un approccio equilibrato, che integri la supervisione del processo con altri metodi di training, come l’apprendimento supervisionato e il reinforcement learning. L’obiettivo è sviluppare sistemi AI che siano non solo avanzati e trasparenti, ma anche efficaci ed efficienti in scenari realistici.

La supervisione del processo è un passo fondamentale verso lo sviluppo di un’intelligenza artificiale più responsabile e comprensibile. Questo metodo promette di consolidare la fiducia e la collaborazione tra umani e macchine, aprendo la strada a un futuro in cui la tecnologia AI sarà non solo potente, ma anche pienamente integrata e accettata nella società.

Federated Learning

L’apprendimento federato (Federated Learning, FL) sta emergendo come una tecnologia fondamentale nel settore sanitario, rivoluzionando il modo in cui gestiamo e salvaguardiamo i dati medici. In un contesto in cui i sistemi sanitari accumulano enormi quantità di dati, il FL si propone come una soluzione efficace per lo sviluppo di modelli statistici accurati e robusti, affrontando nel contempo questioni cruciali quali la governance e la privacy dei dati.

Per comprendere il funzionamento del FL, consideriamo diversi ospedali che raccolgono dati sensibili dei pazienti. Diversamente dal tradizionale scambio di dati, il FL consente a ciascun ospedale di conservare i propri dati in sicurezza all’interno delle proprie infrastrutture. Il nucleo del FL è rappresentato da un modello AI che si sposta virtualmente tra gli ospedali, apprendendo da ciascun set di dati senza che questi siano trasferiti o esposti esternamente. In questo modo, i dati sensibili dei pazienti rimangono all’interno dell’istituto, preservando la loro privacy.

Il modello AI, una volta appreso da un ospedale, passa virtualmente al successivo, accumulando conoscenze mentre garantisce la riservatezza dei dati individuali. Questo ciclo si ripete per tutti gli ospedali coinvolti. Il risultato è un modello AI formatosi su dati variegati provenienti da molteplici fonti, senza compromettere la sicurezza dei dati di ciascuna.

Nel settore dei record sanitari elettronici, l’efficacia del FL è già stata dimostrata. Ad esempio, è stato impiegato per identificare pazienti con caratteristiche cliniche simili, prevedere ricoveri per eventi cardiaci, mortalità e durata dei soggiorni in terapia intensiva. Progetti come il Trustworthy Federated Data Analytics e la Joint Imaging Platform del German Cancer Consortium hanno facilitato ricerche decentralizzate in Germania nel campo della diagnostica per immagini, sfruttando la potenza dell’apprendimento federato.

Ciononostante, l’implementazione del FL nel settore sanitario presenta alcune sfide. La qualità e l’eterogeneità dei dati sono fattori determinanti per l’efficacia dei modelli sviluppati. Gli algoritmi di FL, che presuppongono una distribuzione uniforme dei dati tra i partecipanti, possono incontrare difficoltà a causa delle variazioni nei metodi di raccolta dati e nelle caratteristiche delle popolazioni pazienti. Inoltre, la gestione della privacy e della sicurezza dei dati è di fondamentale importanza, data la sensibilità delle informazioni sanitarie. Queste sfide richiedono infrastrutture IT avanzate e una collaborazione stretta tra le varie istituzioni sanitarie.

In conclusione, il Federated Learning rappresenta un’innovazione significativa nella gestione dei dati sanitari, offrendo un metodo per potenziare la cura dei pazienti e facilitare la ricerca medica, garantendo nel contempo la massima privacy e sicurezza dei dati. Questa tecnologia non solo apporta benefici immediati al settore sanitario, ma apre anche nuovi orizzonti per la ricerca e l’innovazione in campo medico.

StableRep dal MIT CSAIL

StableRep, un’iniziativa pionieristica del MIT CSAIL, rappresenta una delle frontiere più promettenti nel campo dell’intelligenza artificiale. Questo progetto segna un passo avanti significativo nel training AI, grazie all’uso di immagini sintetiche generate da modelli testo-immagine. Il metodo impiegato, noto come “multi-positive contrastive learning”, consente ai modelli AI di apprendere concetti complessi attraverso un contesto ricco e variato, apportando un livello di comprensione più profondo nel processo di apprendimento.

Immaginiamo di avere accesso a una vasta biblioteca di immagini che coprono ogni possibile scenario, tutte generate artificialmente ma con un realismo stupefacente. StableRep rende questo scenario realtà, fornendo immagini sintetiche di alta qualità per l’addestramento dell’AI, eliminando i costi e le risorse necessarie per acquisire immagini reali. Questo approccio non solo migliora la qualità del training, ma favorisce anche una maggiore generalizzazione dei modelli, consentendo loro di applicarsi a un più ampio spettro di scenari e contesti.

Benefici e sfide di StableRep

Uno dei principali vantaggi di StableRep è la sua potenziale capacità di mitigare i bias presenti nei set di dati. I set di dati tradizionali utilizzati per l’addestramento AI possono contenere pregiudizi involontari, ma l’uso di immagini sintetiche offre la possibilità di creare dati più bilanciati e rappresentativi.

Tuttavia, StableRep presenta anche delle sfide. La produzione di immagini sintetiche di alta qualità può essere un processo oneroso e lento, influenzando l’efficienza del training. Inoltre, c’è il rischio che, se non adeguatamente gestite, queste immagini possono involontariamente esacerbare i bias esistenti nei modelli di generazione.

Nel futuro, StableRep si profila come un elemento chiave nel panorama del training AI. Il suo successo sarà determinato dall’efficienza nel generare immagini e dalla gestione attenta del rischio di bias. Integrando StableRep con altre metodologie di addestramento, come l’apprendimento supervisionato e il reinforcement learning, si potrebbe dar vita a un approccio di training AI ancora più robusto e versatile. Questa evoluzione promette di espandere le modalità attraverso le quali l’AI apprende e interpreta il mondo, offrendo soluzioni sempre più efficaci e affidabili per una vasta gamma di applicazioni.

FunSearch di Google DeepMind

FunSearch, una realizzazione di Google DeepMind, rappresenta un significativo progresso nel campo dell’intelligenza artificiale, introducendo un approccio innovativo per lo sviluppo di programmi AI. Questa metodologia, che fonde in modo unico algoritmi evolutivi con Large Language Models (LLMs), è incentrata sulla generazione e valutazione di idee ad alto rendimento, convertite in programmi informatici. Il processo inizia con l’utente che inserisce una descrizione del problema in codice, che viene poi eseguita e valutata automaticamente, segnando un’evoluzione significativa nella programmazione AI.

Immaginate un contesto in cui potete articolare un problema complesso in codice e un sistema AI non solo comprende la questione, ma produce anche soluzioni innovative, valutandole per voi. Questa è l’essenza di FunSearch. Il sistema utilizza un approccio iterativo ed evolutivo, sfruttando le capacità dei modelli di linguaggio per perfezionare ed elevare le idee di programmazione più promettenti.

Un aspetto fondamentale di FunSearch è l’impiego di una variante specifica del codice, denominata Codey, che si basa sul modello PaLM 2 di Google. Codey è capace di generare nuovi frammenti di codice all’interno di un framework esistente, elaborando soluzioni per problemi matematici specifici. Il sistema poi valuta se le soluzioni create sono migliorative rispetto a quelle preesistenti, in un ciclo di ottimizzazione costante.

I benefici di FunSearch sono numerosi. Il sistema è in grado di generare automaticamente soluzioni innovative per questioni complesse di matematica e informatica, con un metodo iterativo che garantisce un perfezionamento e un avanzamento continui delle idee. Tuttavia, si incontrano anche delle sfide: gestire la complessità dei problemi e delle relative soluzioni richiede un’analisi meticolosa e una valutazione rigorosa. Inoltre, nonostante l’autonomia del processo, è essenziale un intervento umano per orientare e convalidare il processo, specialmente in situazioni di problemi nuovi e intricati.

Guardando al futuro, FunSearch si prospetta come uno strumento pionieristico nel settore dell’AI. Con la sua metodologia evolutiva e la capacità di generare idee innovative, questo approccio potrebbe apportare progressi significativi nella soluzione di problemi complessi e nella creazione di nuove soluzioni in ambito matematico e informatico. Il continuo sviluppo e implementazione di FunSearch promette di spalancare nuovi orizzonti nella programmazione AI, potenzialmente rivoluzionando il modo in cui affrontiamo le sfide più complesse del mondo digitale.

KnowNo da Google DeepMind e Princeton University

KnowNo, un’iniziativa congiunta di Google DeepMind e Princeton University, rappresenta un’era di innovazione nell’ambito dell’interazione tra intelligenza artificiale e robotica. Questo progetto segna un importante passo avanti nell’evoluzione della comprensione robotica, insegnando ai robot a riconoscere l’incertezza e a sollecitare chiarimenti dagli umani quando necessario. L’obiettivo di KnowNo è di dotare i robot di un livello di comprensione analogo al senso comune umano, un traguardo ambizioso e a lungo ricercato nel campo dell’intelligenza artificiale.

Pensiamo, ad esempio, a un robot situato in una cucina, davanti a un tavolo con diverse ciotole. Se deve scegliere una ciotola specifica, ma le istruzioni sono ambigue, invece di procedere in modo incerto, il robot, grazie a KnowNo, è in grado di quantificare questa incertezza e di decidere di chiedere chiarimenti. Questo processo si avvale di modelli linguistici di grandi dimensioni (LLMs) per valutare e interpretare le sfumature del linguaggio umano in contesti complessi.

Le applicazioni pratiche di KnowNo sono già state sperimentate con successo su bracci robotici simulati e su dispositivi robotici reali, dimostrando che i robot possono operare in modo più sicuro e affidabile quando sono capaci di richiedere aiuto umano in situazioni ambigue.

Al centro di KnowNo vi è un algoritmo sofisticato che elabora diverse azioni possibili basandosi sulle istruzioni ricevute, attribuendo a ciascuna un grado di probabilità. Questo approccio, definito “conformal prediction”, permette ai robot di riconoscere quando le istruzioni sono troppo incerte per agire in modo sicuro, inducendoli a richiedere assistenza. Attualmente, i ricercatori stanno ampliando questo metodo a sfide più complesse, come la percezione attiva in ambienti domestici, in cui i robot devono utilizzare previsioni per individuare oggetti.

L’innovazione portata da KnowNo apre nuove prospettive nell’interazione tra intelligenza artificiale e robotica, preannunciando sviluppi entusiasmanti nel settore. Con la capacità di misurare l’incertezza e di richiedere assistenza, i robot superano le limitazioni delle rigide regole della programmazione tradizionale, potendo così navigare in ambienti dinamici e imprevedibili con un livello di adattabilità e intelligenza inedito. Questo progetto non solo incrementa la sicurezza e l’efficacia dei robot, ma rappresenta anche un passo avanti verso una comprensione più profonda e umanizzata del mondo circostante.

Neuromorphic Computing

Il Neuromorphic Computing si sta affermando come una frontiera innovativa nel campo dell’intelligenza artificiale, puntando a ridurre il consumo energetico e ad aumentare l’efficienza dei sistemi AI. Un balzo significativo in questa direzione è stato compiuto dai ricercatori Víctor López-Pastor e Florian Marquardt del Max Planck Institute for the Science of Light a Erlangen, in Germania. Hanno introdotto un metodo rivoluzionario per addestrare l’intelligenza artificiale con maggiore efficienza, sfruttando processi fisici anziché le consuete reti neurali artificiali digitali.

Immaginiamo un futuro in cui i computer non sono più limitati dalla struttura lineare e sequenziale dei sistemi digitali tradizionali, ma funzionano in maniera analoga al cervello umano. In questo contesto, il sistema neuromorfico, che si ispira all’interazione tra neuroni e sinapsi nel cervello umano, processa le informazioni in parallelo, con componenti che operano sia come processori sia come unità di memoria. Questo modello neuromorfico ha il potenziale di ridurre drasticamente sia il consumo energetico sia i tempi necessari per l’addestramento AI.

Marquardt e López-Pastor hanno sviluppato ulteriormente questa idea, elaborando il concetto di una macchina fisica autoapprendente. A differenza delle reti neurali artificiali tradizionali, che si basano su feedback esterni, questa macchina ottimizza autonomamente i propri parametri attraverso un processo fisico, comportando un significativo risparmio energetico e una riduzione dei tempi di calcolo. Il processo fisico impiegato deve essere al contempo reversibile e sufficientemente complesso per gestire trasformazioni elaborate tra i dati di input e i risultati.

Un esempio concreto di questo processo fisico è rappresentato dall’uso di circuiti fotonici, che elaborano le informazioni utilizzando onde luminose sovrapposte. Questi componenti funzionano come interruttori e celle di memoria, offrendo un approccio innovativo alla gestione delle informazioni in un computer neuromorfico.

Attualmente, la ricerca si sta orientando verso lo sviluppo di un computer neuromorfico ottico, coniugando teoria e applicazione pratica. L’obiettivo è realizzare il concetto di macchina fisica autoapprendente, un passo che potrebbe rivoluzionare il campo dell’intelligenza artificiale. Le implicazioni di questa tecnologia sono enormi, con potenziali applicazioni in svariati settori, dalla medicina alla robotica, offrendo un nuovo paradigma di calcolo efficiente e all’avanguardia.

RetNet e BitNet da Microsoft

Le recenti innovazioni di Microsoft nel settore dell’intelligenza artificiale si concretizzano in due nuove architetture: RetNet e BitNet. Queste tecnologie sono destinate a trasformare il modo in cui i computer elaborano e interpretano il linguaggio umano, una delle principali sfide nell’ambito dell’AI.

Iniziamo con RetNet. Questa architettura rappresenta un progresso significativo rispetto ai modelli “Transformer“, finora considerati come pilastri nei grandi modelli linguistici. Il punto di forza di RetNet risiede nella sua capacità di eseguire addestramenti in parallelo, ottimizzando i costi e mantenendo elevate prestazioni. In pratica, RetNet introduce un metodo innovativo per la gestione delle sequenze di dati, adattandosi a vari metodi di calcolo. La sua caratteristica più notevole è la capacità di gestire il parallelismo e la rappresentazione ricorrente dei dati, accelerando il processo di addestramento e riducendo i costi di implementazione. Questa sinergia tra efficienza e rapidità rende RetNet un potenziale sostituto dei modelli Transformer in futuro.

D’altra parte, BitNet si concentra su un problema fondamentale: l’impatto ambientale dei grandi modelli di linguaggio. I modelli AI tradizionali richiedono un considerevole consumo energetico, sollevando questioni ambientali. BitNet, invece, è una versione più efficiente dal punto di vista energetico. Sfrutta una tecnica denominata “BitLinear”, che consente l’addestramento di modelli con pesi a 1 bit, a differenza dei tradizionali 8 bit o più. Questo metodo non solo garantisce prestazioni competitive, ma riduce anche in modo significativo il consumo energetico e l’utilizzo della memoria. Inoltre, BitNet può essere scalato efficacemente per gestire modelli linguistici di dimensioni maggiori, mantenendo un’elevata efficienza energetica.

RetNet e BitNet rappresentano passi avanti cruciali nella ricerca AI. Mentre RetNet potrebbe rivoluzionare il modo in cui addestriamo i modelli linguistici di grandi dimensioni, combinando efficienza, velocità e riduzione dei costi, BitNet offre una soluzione per diminuire l’impatto ambientale di questi modelli, senza comprometterne le prestazioni. Queste innovazioni sono essenziali per lo sviluppo di modelli AI più efficienti e sostenibili, in un’era in cui la consapevolezza ambientale e la richiesta di alte prestazioni sono sempre più preponderanti.

Microscaling (MX) Alliance

L’Alleanza Microscaling (MX), una partnership tra giganti del settore tecnologico come Microsoft, AMD, Arm, Intel, Meta, NVIDIA e Qualcomm, rappresenta un progetto all’avanguardia nel settore dell’intelligenza artificiale. Questa alleanza si pone l’obiettivo ambizioso di creare e standardizzare formati di dati AI a precisione ridotta, specificatamente a 6 e 4 bit, un processo denominato microscaling. Questa tecnologia, frutto di anni di ricerca e sviluppo, mira a superare i limiti dei formati tradizionali a 8 bit, come FP8 e INT8, e a facilitare l’uso del training e dell’inferenza AI in formato a singola cifra.

Il microscaling offre un’architettura AI non solo più efficiente e veloce, ma anche più accessibile grazie alla semplificazione dei dati. La specifica iniziale MX introduce quattro formati di dati (MXFP8, MXFP6, MXFP4 e MXINT8), che sono compatibili con gli stack AI esistenti e flessibili nell’implementazione sia su hardware che su software. Questi formati si prestano a un’ampia gamma di applicazioni reali, come grandi modelli di linguaggio, visione artificiale e sistemi di raccomandazione, e consentono il pre-training di Large Language Models (LLM) a precisioni di 6 e 4 bit, senza modificare le tecniche di training tradizionali.

L’Alleanza MX ha inoltre rilasciato la specifica Microscaling Formats (MX) v1.0 come uno standard aperto e senza licenza attraverso la Open Compute Project Foundation (OCP). Questo è un passo decisivo per promuovere l’adozione su larga scala dei formati MX e getta le basi per future innovazioni nel campo dei formati a precisione ridotta. Questo approccio non solo accelera i progressi nell’AI, ma promuove anche l’apertura, la trasparenza e uno sviluppo responsabile delle applicazioni AI.

L’Alleanza Microscaling (MX) si configura come un’importante iniziativa collaborativa tra leader dell’industria, volta a standardizzare formati di dati AI più efficienti e innovativi. Questo sforzo non solo mira a migliorare l’efficienza e la scalabilità, ma incoraggia anche l’innovazione e la collaborazione in tutto l’ecosistema AI, aprendo la strada a un futuro in cui l’intelligenza artificiale sarà più accessibile, efficiente e sostenibile.

AI Delta Learning

AI Delta Learning, un’avanguardistica iniziativa sviluppata da Mercedes-Benz AG in collaborazione con l’Università di Stoccarda, sta portando il concetto di auto autonome a un nuovo livello di efficienza e adattabilità. Questa tecnologia consente a un’intelligenza artificiale di gestire un’auto con precisione eccezionale, adattandosi rapidamente a qualsiasi cambiamento delle condizioni stradali.

Il fulcro di AI Delta Learning è l’apprendimento trasferibile. Questa metodologia innovativa permette agli algoritmi AI di adattarsi velocemente a nuovi scenari senza necessità di un riaddestramento completo. Questo processo è analogo all’esperienza di un pilota esperto che impara a guidare un nuovo tipo di veicolo con poche modifiche. L’obiettivo del progetto è sfruttare le conoscenze pregresse per affrontare situazioni stradali mai incontrate prima, riducendo così il tempo e i costi necessari per lo sviluppo di veicoli autonomi su larga scala.

Una delle principali sfide nello sviluppo dell’intelligenza artificiale è la necessità di raccogliere enormi quantità di dati per operare efficacemente in diversi scenari, un processo costoso e lungo. AI Delta Learning mira a superare questa difficoltà sviluppando moduli AI in grado di rispondere affidabilmente a situazioni impreviste. Ad esempio, un’auto potrebbe imparare a riconoscere e adattarsi a un cantiere stradale temporaneo, anche se non ha mai incontrato prima una situazione simile.

Questo progetto non solo conserva le conoscenze acquisite, ma le utilizza anche come fondamento per nuovi apprendimenti. Ciò permette ai veicoli autonomi di navigare in modo sicuro e affidabile nel complesso ambiente dei trasporti, rimanendo al passo con le innovazioni e i cambiamenti continui nel settore della mobilità. AI Delta Learning si basa su tre pilastri fondamentali: l’apprendimento trasferibile, la formazione e l’adattabilità dei veicoli, assicurando che la nuova generazione di algoritmi AI sia pronta per un impiego esteso nei veicoli autonomi.

Un aspetto particolarmente interessante del progetto è l’utilizzo di dati simulati, provenienti dall’industria dei videogiochi e dei film, per insegnare ai modelli AI a interpretare il mondo reale. I ricercatori stanno esplorando modi per rendere queste immagini simulate quasi indistinguibili da quelle reali, integrando continuamente nuove informazioni nel modello AI senza perdere di vista le conoscenze già acquisite.

AI Delta Learning non rappresenta solo un passo avanti significativo nella guida autonoma, ma segna anche una svolta nel modo in cui l’intelligenza artificiale apprende e si adatta. Questo progetto apre nuove prospettive per la trasformazione nel mondo dei trasporti e della mobilità.

Considerazioni sul training dell’intelligenza artificiale

Nel contesto del training dell’intelligenza artificiale, la selezione di set di dati vari e aggiornati supera il ruolo di una semplice raccomandazione, diventando essenziale per prevenire inesattezze e distorsioni nel processo di apprendimento AI. Assimilando un sistema AI a un apprendista, la sua formazione con esempi limitati o obsoleti ne ostacola la comprensione completa della diversità e complessità del mondo reale. Oltre alla qualità dei dati, è fondamentale l’impiego di metodologie di apprendimento innovative e all’avanguardia per l’AI. Ognuna di queste tecniche di training apporta un contributo distintivo al perfezionamento dell’intelligenza artificiale, superando sfide come l’aumento dell’accuratezza, la riduzione dei bias, l’incremento della scalabilità e l’integrazione dell’intelligenza umana nel processo di apprendimento.

Il training Human-In-The-Loop (HITL) pone l’intelligenza umana al cuore del ciclo di apprendimento dell’AI, riducendo efficacemente i bias e migliorando la precisione. Questo approccio è paragonabile alla relazione tra un artigiano e il suo apprendista, dove l’artigiano guida, orienta e corregge, garantendo un apprendimento accurato. Tuttavia, proprio come un artigiano può istruire solo un numero limitato di apprendisti, HITL presenta limitazioni di scalabilità e una certa dipendenza dal giudizio umano.

Il Reinforcement Learning (RL) e il RL con Feedback Umano (RLHF) si basano su un approccio di apprendimento tramite tentativi ed errori, analogo a un bambino che impara a camminare. L’aggiunta del feedback umano in RLHF perfeziona ulteriormente questo processo, simile al ruolo di un allenatore che fornisce consigli durante l’allenamento di un atleta.

La Supervisione del Processo si concentra non solo sul risultato finale, ma anche su come l’AI prende decisioni. Questo è paragonabile a esaminare il meccanismo interno di un orologio per comprenderne il funzionamento, non solo per leggere l’ora.

Il Federated Learning consente la costruzione di modelli AI robusti preservando la privacy dei dati, un aspetto cruciale in ambiti delicati come il settore sanitario. Immaginiamo una rete di ospedali che condividono conoscenze senza scambiarsi dati sensibili dei pazienti.

Innovazioni come StableRep, FunSearch e KnowNo stanno esplorando nuove frontiere. StableRep utilizza immagini sintetiche per il training, offrendo una nuova prospettiva nel training AI. FunSearch combina la potenza dei Large Language Models con la ricerca di soluzioni, mentre KnowNo rappresenta un progresso nell’interazione tra robot e umani, insegnando ai robot a riconoscere l’incertezza e a richiedere assistenza.

Il Neuromorphic Computing, ispirato al cervello umano, promette di ridurre il consumo energetico e di incrementare l’efficienza dei sistemi AI, spostando l’approccio dal tradizionale computing digitale a un modello più organico ed efficiente dal punto di vista energetico.

Le architetture AI come RetNet e BitNet di Microsoft rappresentano nuovi paradigmi: RetNet unisce il parallelismo nell’addestramento a costi di inferenza ridotti, mentre BitNet mira a ridurre l’impatto ambientale dei grandi modelli linguistici.

La Microscaling (MX) Alliance mira a standardizzare formati di dati AI a precisione ridotta per rendere l’AI più accessibile ed efficiente, promuovendo un’innovazione aperta e collaborativa.

Infine, AI Delta Learning si focalizza sull’apprendimento trasferibile, permettendo ai sistemi AI di adattarsi rapidamente a nuovi contesti, analogamente a dotare un software della capacità di imparare a guidare un’auto autonoma in un ambiente urbano inedito senza riaddestramento.

Conclusioni

Ognuna di queste tecniche apporta un contributo unico al miglioramento dell’AI, affrontando sfide diverse come l’accuratezza, la riduzione dei bias, la scalabilità, la gestione dei dati e l’integrazione dell’intelligenza umana. La scelta della tecnica più adatta dipende dal contesto specifico e dagli obiettivi del sistema AI in sviluppo.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2