Il clamore suscitato dai modelli di intelligenza artificiale LLM come ChatGPT o Google Bard ha inevitabilmente spinto tutti a prevedere il futuro e soprattutto cercare di capire quanto questi modelli possano essere miniaturizzati all’interno di chip in modo che i dispositivi che usiamo tutti i giorni possano esibire comportamenti autonomi e, auspicabilmente, intelligenti. Si tratta di una questione centrale al funzionamento dell’AI, già oggi vi sono poche entità capaci di addestrare i grandi modelli ed eseguirli, rendendoli accessibili agli utenti attraverso API e un modello di pagamento capace di coprire i costi di servizi energivori che, nel caso di ChatGPT 3.5, si stima costi oltre 700.000 dollari al giorno.
l’analisi
Chip iper-specializzati per l’IA generativa: ecco i trend
Il raggiungimento dei limiti fisici di miniaturizzazione nella produzione di chip non potrà che incoraggiare la specializzazione dei chip per poter utilizzare meglio i transistor che si possono miniaturizzare al loro interno. È quindi lecito attendere annunci di chip sempre più specializzati per i modelli di AI generativa
Università di Pisa

Continua a leggere questo articolo
Argomenti
Canali
EU Stories - La coesione innova l'Italia