Ogni volta che alle macchine viene chiesto di fare qualcosa che richiede l’intelligenza degli esseri umani, come giocare o usare il linguaggio, c’è qualcosa che non va. Sebbene sia ancora un tabù smorzare l’entusiasmo sui mirabolanti risultati ottenuti dai sistemi di IA generativa come ChatGPT nei test progettati per identificare alcune abilità cognitive negli esseri umani, comincia a farsi strada anche una fronda di ricercatori niente affatto convinta che le macchine possano “prendere il sopravvento” sull’uomo.
l’analisi
L’IA non è una persona, ce lo dicono nuovi test
L’idea che i test cognitivi o accademici sviluppati per gli esseri umani siano in grado di misurare accuratamente le capacità dei LLM deriva dalla tendenza a attribuire caratteristiche umane ai modelli e ad allineare la loro valutazione con gli standard umani. Ma questa supposizione potrebbe essere sbagliata, vediamo perché
Legal & Data Protection Specialist at Fondazione IRCCS Casa Sollievo della Sofferenza

Continua a leggere questo articolo
Argomenti
Canali
EU Stories - La coesione innova l'Italia