Non credo vi siano dubbi sul fatto che i grandi modelli come GPT, Gemini, sono qui per restare ed evolversi. Questi mega modelli sono ingegnerizzati per essere eseguiti su grandi infrastrutture di calcolo e con richieste significative sia di capacità computazionale che di energia. Ad ogni rilascio questi modelli vengono addestrati con quantità sempre maggiori di informazioni e il grande numero di parametri consente al modello di trattenere molti dati oltre ad esibire una certa capacità di ragionamento.
Small Language Models
L’AI si rimpicciolisce: perché il futuro è degli small language models
I modelli di intelligenza artificiale stanno diventando più piccoli e accessibili. Gli Small Language Models (SLM) possono essere eseguiti su dispositivi personali, riducendo la necessità di grandi infrastrutture. Sebbene presentino limitazioni rispetto ai Large Language Models (LLM), gli SLM offrono promettenti applicazioni verticali e un’efficienza energetica migliorata
Università di Pisa

Continua a leggere questo articolo
Canali
EU Stories - La coesione innova l'Italia