Un nuovo modello chiamato nGPT, presentato da NVIDIA, introduce una particolare innovazione nell’architettura Transformer, ottimizzando l’apprendimento su una superficie “ipersferica”. Questa architettura promette velocità di apprendimento fino a 20 volte superiori rispetto ai modelli tradizionali, con impatti potenzialmente profondi sulla performance dei modelli di intelligenza artificiale, in base al contesto di utilizzo.
Normalized Transformer
nGPT: così Nvidia cambia tutto nell’apprendimento AI
NVIDIA presenta nGPT, un’innovativa architettura Transformer che promette di accelerare fino a 20 volte l’apprendimento dei modelli AI attraverso l’ottimizzazione su superficie ipersferica. Nonostante i potenziali vantaggi, l’overhead computazionale dell’80% per contesti lunghi solleva dubbi sulla sua applicabilità pratica su larga scala
Esperto di AI Security

Continua a leggere questo articolo
Argomenti
Canali
EU Stories - La coesione innova l'Italia