I modelli linguistici di grandi dimensioni (LLM) e altre forme di IA generativa possono raggiungere livelli di prestazione straordinariamente vicini a quelli degli esseri umani per compiti basati su testo o immagini. Superano ampiamente il test di Turing, in cui una conversazione tramite messaggistica istantanea permette di valutare l’intelligenza dell’interlocutore. Nei loro momenti peggiori, gli LLM producono risultati che assomigliano in modo impressionante a quelli umani. Quando funzionano bene, sembrano quasi dei superuomini.
Molte aziende stanno cercando di capire quali attività siano più adatte all’IA e come integrare l’IA generativa nei flussi di lavoro.
Indice degli argomenti
LLM e il concetto di “sciocchezze”
Secondo Michael Townsen Hicks, James Humphries e Joe Slater, autori di ChatGPT is bullshit, gli LLM presentano caratteristiche simili a quelle degli esperti nel “raccontare sciocchezze”. Il filosofo Harry Frankfurt definisce questo concetto nel suo saggio “On Bullshit” affermando che consiste nel fare affermazioni per convincere, senza preoccuparsi della loro veridicità. Un “bullshitter” dirà ciò che ritiene necessario per raggiungere il suo obiettivo, indipendentemente dal fatto che sia vero o falso. Potrebbe persino non preoccuparsi di sapere se ciò che dice sia coerente.
Potenzia il tuo business con Big Data e AI: Insight 2025 dall'Osservatorio del Politecnico di Milano
Gli LLM, infatti, talvolta generano “allucinazioni“, ovvero producono informazioni false. Per alcuni sostenitori dell’intelligenza artificiale, i miglioramenti futuri ridurranno o elimineranno questo problema, ma non comprendono appieno come funzionano gli LLM e potrebbero consigliare erroneamente gli utenti sulle possibili applicazioni. Nonostante il sorprendente successo degli LLM, è essenziale sapere che il loro funzionamento si basa su statistiche e non sulla verità assoluta.
L limiti dei Large Language Model nella distinzione tra verità e allucinazioni
La maggior parte delle “statistiche fittizie” generate dagli LLM sembrano corrette perché coincidono con la realtà così come è generalmente percepita. Tuttavia, mentre gli utenti di questi strumenti possono mettere in discussione le informazioni ricevute, gli LLM non ne sono capaci. Gli esseri umani possono confrontare le risposte degli LLM con un modello di verità generale e, quando c’è una corrispondenza, tutto funziona. Ma quando le affermazioni divergono dalla realtà, emergono le cosiddette “allucinazioni”. Il problema è che l’LLM non distingue tra una verità e un’allucinazione, poiché il suo meccanismo di trasformazione non fa questa distinzione.
Per questo motivo, eliminare del tutto le allucinazioni è estremamente difficile, se non impossibile. Gli LLM, quindi, non sono una soluzione universale, ma nemmeno inutili. Il loro valore risiede in un’utilità peculiare e poco familiare, sollevando una domanda fondamentale: quali attività possono essere affidate a un sistema che “dice sciocchezze”?
Large Language Model nel contesto della cybersecurity
L’uso degli LLM nella cybersecurity è oggetto di numerosi dibattiti. Da un lato, alcuni vedono con favore l’idea di strumenti di IA che operano in background su interazioni non umane. D’altro canto, è lecito chiedersi se sia utile integrare un “racconta schiocchezze” in un team di sicurezza.
L’uso degli LLM dovrebbe essere limitato a situazioni in cui il testo generato serve solo a presentare informazioni già verificate. Tuttavia, rispetto al potenziale degli LLM, questo approccio può sembrare limitante. Un certo grado di conservatorismo può comunque garantire che il livello di “sciocchezze” non causi problemi. Inoltre, è importante distinguere tra LLM e IA: la sicurezza informatica può beneficiare dell’IA senza dover necessariamente ricorrere ai grandi modelli di linguaggio.
Large Language Model come strumenti di attacco e difesa
Una delle principali preoccupazioni riguarda il rischio che esperti “bullshitter” possano attaccare aziende attraverso tecniche come l’ingegneria sociale. Un LLM potrebbe generare informazioni plausibili ma false, favorendo attacchi informatici o alterando dati in modo credibile, ma fuorviante.
Allo stesso tempo, alcuni ritengono che LLM addestrati alla difesa possano contrastare quelli utilizzati dagli attaccanti. Tuttavia, gli LLM possono generare “sciocchezze”, ma non rilevarle efficacemente. Se potessero farlo, sarebbe possibile affiancare due LLM, uno che produce risposte e uno che rileva le affermazioni ingannevoli. In alternativa, si potrebbe adottare un approccio simile agli honeypot, creando dati ingannevoli per confondere gli attaccanti. Tuttavia, tali strategie rischiano di confondere anche chi opera all’interno dell’azienda.
La vulnerabilità dei LLM e il loro futuro
I LLM rappresentano una nuova vulnerabilità nella sicurezza informatica? Paradossalmente, potrebbero non costituire un rischio significativo se vengono integrati in processi consapevoli della loro tendenza a “raccontare sciocchezze”. Se i sistemi sono progettati tenendo conto di questo aspetto, potrebbero essere sufficientemente robusti per resistere a eventuali attacchi mirati contro gli stessi LLM.
Nel mondo degli LLM, è essenziale capire come sfruttare al meglio questa tecnologia e, al tempo stesso, affrontarne le implicazioni per la sicurezza. In passato, nessuno si era mai chiesto “quali ruoli potrebbero essere affidati a un eccellente racconta storie”. Oggi, questa domanda diventa cruciale per determinare il miglior utilizzo possibile dei modelli linguistici di grandi dimensioni.