L’attività che i cosiddetti Large Language Model (LLM) come ChatGPT vanno facendo viene quotidianamente antropomorfizzata e trasformata in attività senziente, e gli strafalcioni in cui sistematicamente incorre vengono chiamati allucinazioni, come se quanto ci viene proposto da un LLM avesse una qualche relazione, sia pur negativa, con la verità.
intelligenza artificiale
Non sottovalutiamo gli errori di ChatGPT: corriamo rischi molto seri
Gli strafalcioni di ChatGPT danno la sensazione di star ascoltando uno studente che si è presentato all’esame senza aver aperto libro e ripete frasi che sembrano qualcosa ma non vogliono dire nulla. Ma non vanno minimizzati, perché i rischi sono molti e gravi
Dipartimento di Ingegneria Civile ed Ingegneria Informatica, Università di Tor Vergata

Continua a leggere questo articolo
Argomenti
Canali
EU Stories - La coesione innova l'Italia