Tra i più grandi problemi dell’Intelligenza Artificiale vi è quello delle allucinazioni, vera spina nel fianco degli utilizzatori di questa tecnologia. La tendenza a “inventare risposte” e a ripeterle con sicurezza, con il solo fine di soddisfare il più possibile gli utenti, mina l’affidabilità dei modelli di Intelligenza Artificiale (soprattutto LLM, ossia i “modelli linguistici di grandi dimensioni” atti a produrre testi, audio e video). Questo è un problema ricorrente che riguarda tutti i modelli, quindi ChatGpt di OpenAI, Llama di Meta, Google Gemini, DeepSeek ecc. (nessuno escluso).
Indice degli argomenti
L’approccio di Amazon al ragionamento automatico
Nel tentativo, quantomeno, di frenare il verificarsi di allucinazioni, Amazon si rivolge al “ragionamento automatico” per fornire una prova matematica che le allucinazioni dei modelli di Intelligenza Artificiale possono essere fermate, almeno in alcuni casi. Secondo alcuni analisti, ove Amazon (nello specifico Amazon Web Services o AWS) riuscisse nel suo intento potrebbe sbloccare accordi con le aziende in materia di Intelligenza Artificiale per un valore di milioni di dollari.
Dall'on prem al cloud, perché la modernizzazione applicativa è d'obbligo. Scopri gli esempi pratici
Cos’è il ragionamento automatico
In parole povere, il ragionamento automatizzato –area dell’informatica dedicata alla comprensione dei diversi aspetti del ragionamento al fine di creare dei programmi che permettano ai sistemi di ragionare in modo parzialmente o addirittura completamente automatico – mira a utilizzare prove matematiche per assicurare che un sistema si comporti o meno in un certo modo. È in qualche modo simile all’idea che i modelli di Intelligenza Artificiale possano “ragionare” attraverso i problemi; solo che, in questo caso, viene utilizzato per verificare che i modelli stessi forniscano risposte accurate.
Il ragionamento automatico e l’intelligenza artificiale simbolica
Il ragionamento automatico è un ramo dell’Intelligenza Artificiale che fa parte della cosiddetta Intelligenza Artificiale “simbolica”, ossia l’uso della logica matematica per codificare la conoscenza nei sistemi di Intelligenza Artificiale in modo strutturato e utilizza un processo decisionale basato su regole per raggiungere le conclusioni.
È diversa dall’apprendimento automatico (Machine Learning), che consiste nell’insegnare a una macchina a dedurre modelli da grandi quantità di dati.
L’impegno di AWS nel ragionamento automatico
AWS sta cercando di porre in essere un “ragionamento automatizzato” per fornire una prova matematica delle allucinazioni dei modelli di Intelligenza Artificiale.
A dimostrazione della sua fiducia nel ragionamento automatizzato, Amazon ha assunto la maggior parte degli esperti specializzati in questo campo negli ultimi dieci anni, poiché crede che la matematica e l’Intelligenza Artificiale possono fornire una sorta di garanzia, o prova matematica, che un programma o un software funziona nel modo previsto.
Applicazioni del ragionamento automatico nella sicurezza informatica
La prima applicazione del ragionamento automatizzato per AWS è stata la sicurezza informatica, dove la tecnologia ha aiutato a dimostrare la correttezza della crittografia dell’azienda per i clienti commerciali. Il che è anche un po’ il succo del successo di AWS con la sua sterminata clientela.
Lo strumento di AWS per le allucinazioni dell’Intelligenza Artificiale, chiamato Automated Reasoning Checks[1], mira a fornire “garanzie di verità ai clienti”.
La sfida dell’accuratezza per AWS
Per AWS, offrire un’Intelligenza Artificiale “accurata” alle aziende è una sfida. È assolutamente importante che l’Intelligenza Artificiale dia risposte corrette quando le aziende devono dimostrare che i loro investimenti tecnologici stanno generando profitti.
Per utilizzare lo strumento di AWS, i clienti devono innanzitutto impostare una serie di criteri che fungano da “verità assoluta”. Potrebbe trattarsi della guida interna di un’azienda sui benefici per i dipendenti o delle informazioni sui prodotti per il personale del servizio clienti.
Utilizzo di automated reasoning checks nei settori regolamentati
Alcune aziende stanno utilizzando Automated Reasoning Checks per aiutare a fermare le allucinazioni in settori regolamentati come quello farmaceutico e delle scienze biologiche. Quando si commercializzano nuovi farmaci, per esempio, i clienti devono assicurarsi di non incorrere nelle normative che regolano ciò che può essere pubblicizzato. Senza i controlli automatici del ragionamento, l’Intelligenza Artificiale potrebbe essere incline ad aiutare i clienti a raggiungere l’obiettivo di generare pubblicità, senza rispettare i requisiti normativi.
Limitazioni del ragionamento automatico
Tuttavia, al di là delle aree in cui è possibile definire chiaramente le politiche o le regole, lo strumento di ragionamento automatico di AWS è più limitato. Per le aziende è meglio considerare il ragionamento automatizzato come un componente di un approccio multiplo per aiutare a eliminare le allucinazioni: una sorta di lavoro più impegnativo “a monte”, ma meno impegnativo quando succede qualcosa di indesiderato e l’applicazione espone i dati aziendali o fa un’offerta a un cliente che costa milioni di dollari.
Strumenti aggiuntivi per ridurre le allucinazioni
Per ridurre al massimo le allucinazioni, le aziende dovrebbero anche utilizzare strumenti come la “retrieval-augmented generation” (RAG)[2], che è un metodo per collegare i modelli di Intelligenza Artificiale con fonti di dati esterne. Così come possono utilizzare il “fine-tuning”, un metodo per personalizzare un modello linguistico di grandi dimensioni con dati privati o aziendali.[3]
Gli approcci dei concorrenti di Amazon
Anche i concorrenti di Amazon, come Google, offrono strumenti che mirano a ridurre la probabilità di allucinazioni per i clienti aziendali. Google Cloud ha ampliato le capacità del suo Vertex AI (piattaforma di apprendimento automatico che consente di addestrare, personalizzare e distribuire modelli linguistici di grandi dimensioni da utilizzare nelle applicazioni basate sull’Intelligenza Artificiale), migliorando in modo significativo la capacità della piattaforma di generare risposte più accurate e affidabili. Questi progressi mirano a mitigare le allucinazioni dell’Intelligenza Artificiale e ad elevare la qualità complessiva delle applicazioni e degli agenti generativi.
Innovazioni di Google nel recupero dinamico
Uno dei punti forti riguarda l’introduzione del recupero dinamico per “grounding” con Google Search: questa funzione innovativa consente a Gemini, il modello linguistico avanzato di Google, di decidere in modo intelligente se basare le richieste degli utenti su Google Search o se affidarsi alle sue conoscenze intrinseche.
Questo approccio aiuta a bilanciare la qualità delle risposte con l’efficienza dei costi, in quanto l’utilizzo di Google Search comporta costi di elaborazione aggiuntivi. Gemini prende questa decisione in base alla sua comprensione del fatto che le informazioni richieste sono probabilmente statiche, in lento cambiamento o in rapida evoluzione. Per esempio, per le domande sui film recenti, Gemini utilizza Google Search per ottenere le informazioni più recenti. Al contrario, per domande generiche come “Qual è la capitale della Francia?”, Gemini fornisce una risposta dalla sua base di conoscenze esistenti, senza bisogno di “chiedere all’esterno”.
Questo approccio dinamico non solo migliora l’accuratezza delle risposte, ma ottimizza anche l’utilizzo delle risorse.
Modalità ad alta fedeltà e integrazione di dataset di terze parti
Google Cloud sta introducendo anche una modalità “ad alta fedeltà” per il grounding, attualmente in fase sperimentale. Questa modalità si rivolge a settori come la sanità e i servizi finanziari, dove precisione e affidabilità sono fondamentali. Inoltre, Google abiliterà presto modelli di grounding con dataset di terze parti, collaborando con fornitori di dati specializzati. Questa funzione consentirà alle aziende di integrare informazioni altamente specifiche e autorevoli nei loro modelli di Intelligenza Artificiale, aumentando ulteriormente l’accuratezza e la pertinenza delle risposte generate.
Strumenti di Google per l’integrazione di dati privati
Per le aziende che intendono basare i propri modelli di Intelligenza Artificiale su dati privati, Google Cloud offre Vertex AI Search e una suite di API (interfaccia di programmazione delle applicazioni, ossia un insieme di definizioni e protocolli per la creazione e l’integrazione di applicazioni software) per la Retrieval Augmented Generation (RAG). Questi strumenti aiutano le aziende a creare flussi di lavoro RAG personalizzati, a costruire motori di ricerca semantici o a migliorare le capacità di ricerca esistenti.[4]
Ma è possibile eliminare del tutto le allucinazioni? È una domanda da un milione di dollari. Certo, non riusciremo mai a risolverlo al cento per cento; tuttavia, è possibile costruire strumenti che forniscano risposte corrette con un’alta probabilità di “contenuto minimo” di allucinazioni.[5]
Note
[1] Prevent factual errors from LLM hallucinations with mathematically sound Automated Reasoning checks (preview). AWS. https://aws.amazon.com/it/blogs/aws/prevent-factual-errors-from-llm-hallucinations-with-mathematically-sound-automated-reasoning-checks-preview/
[2] Potenziare l’IA Generativa con la Retrieval Augmented Generation (RAG). Digital4. https://www.digital4.biz/executive/retrieval-augmented-generation-cosa-e-come-potenzia-gen-ai/
[3] Can AWS really fix AI hallucination? We talk to head of Automated Reasoning Byron Cook. The Register. https://www.theregister.com/2025/01/07/interview_with_aws_byron_cook/
[4] Google Cloud Enhances Vertex AI Grounding Capabilities For Reliable AI Responses. Forbes. https://www.forbes.com/sites/janakirammsv/2024/06/29/google-cloud-enhances-vertex-ai-grounding-capabilities-for-reliable-ai-responses/
[5] Why Amazon is Betting on ‘Automated Reasoning’ to Reduce AI’s Hallucinations. The Wall Street Journal. https://www.wsj.com/articles/why-amazon-is-betting-on-automated-reasoning-to-reduce-ais-hallucinations-b838849e
Innovazione e sicurezza nel digital banking: come guidare la trasformazione