intelligenza artificiale

AI senza allucinazioni? Prendiamo esempio dai motori di ricerca



Indirizzo copiato

Le aziende vogliono sfruttare l’AI generativa, ma la fiducia è cruciale. Integrando tecniche dei motori di ricerca, possiamo sviluppare applicazioni AI accurate e affidabili. Questo approccio migliora l’efficienza e la produttività, garantendo risposte precise in contesti critici. La trasparenza delle fonti e la capacità di dire “non lo so” aumentano la fiducia degli utenti

Pubblicato il 19 ago 2024

Mauro Bonfanti

Regional Vice President Nordics Spain & Italy Snowflake



intelligenza artificiale, manutenzione predittiva e machine learning

Le aziende sono ansiose di poter sfruttare al meglio la potenza dell’AI generativa, ma si trovano ad affrontare la questione della fiducia: come si costruisce un’applicazione di AI generativa che fornisca risposte accurate e che non abbia allucinazioni? Si tratta di un problema su cui il mercato si interroga da tempo, ma abbiamo capito che possiamo imparare molto da una tecnologia già disponibile: la ricerca.

AI affidabile: impariamo dai motori di ricerca

Osservando ciò che i motori di ricerca fanno bene possiamo imparare a sviluppare applicazioni di intelligenza artificiale generativa più attendibili e godere degli immensi miglioramenti in termini di efficienza, produttività e servizio clienti che offre, ma solo se abbiamo la certezza che tali applicazioni forniscano informazioni affidabili e precise.

In alcuni contesti, il livello di accuratezza richiesto all’AI non è particolarmente elevato. Se si sta sviluppando un programma che decide quale pubblicità visualizzare su una pagina web, una soluzione AI mediamente accurata può andare bene. Ma se un cliente interroga un chatbot relativamente all’importo della fattura del mese o se un dipendente chiede conferma sui giorni di ferie residui, la risposta deve essere precisa e senza margine di errore.

I motori di ricerca cercano da tempo di fornire risposte accurate sulla base di estesi set di dati: hanno successo in alcune aree e meno in altre. Prendendo gli aspetti migliori della ricerca e combinandoli con nuovi approcci più adatti all’AI generativa in ambito aziendale, possiamo risolvere il problema della fiducia e liberare la potenza della Gen AI nel mondo del lavoro.

Separare il grano dalla pula

Se c’è un’area in cui i motori di ricerca hanno dimostrato efficacia è nella capacità di analizzare grandi volumi di informazioni e identificare le fonti di maggiore qualità. Ad esempio, esaminando il numero e la qualità dei link che rimandano a una pagina web, i motori di ricerca danno priorità alle pagine web che hanno maggiori probabilità di essere affidabili, così come favoriscono domini noti per la loro attendibilità, come i siti istituzionali, o fonti di notizie autorevoli come la BBC.

In ambito business, le applicazioni di intelligenza artificiale generativa possono emulare queste tecniche di classificazione per restituire risultati affidabili. Dovrebbero privilegiare le fonti di dati aziendali più frequentemente consultate, ricercate o condivise, e favorire fortemente strumenti di cui si conosce l’affidabilità, come i manuali di formazione o i database delle risorse umane.

I Large Language Model sono un interlocutore, non un oracolo

Molti modelli linguistici di grandi dimensioni (LLM) sono stati addestrati sulla base di internet che, come sappiamo, contiene informazioni di tutti i generi. Ciò significa che sono in grado di rispondere a domande su un’ampia varietà di argomenti, ma devono ancora sviluppare i metodi di classificazione più maturi e sofisticati che i motori di ricerca già utilizzano per affinare i loro risultati. Ed è uno dei motivi per cui molti rinomati LLM possono avere allucinazioni e fornire risposte errate.

Uno degli insegnamenti da trarre è che gli sviluppatori dovrebbero pensare ai LLM come a degli interlocutori, piuttosto che una fonte assoluta di verità. In altre parole, i LLM sono in grado di comprendere il linguaggio e formulare delle risposte, ma non devono essere utilizzati come unica fonte di verità. Per risolvere questo problema, molte aziende addestrano i loro LLM sui loro dati e su serie di dati di terze parti, riducendo al minimo la presenza di dati errati. Adottando le tecniche di classificazione dei motori di ricerca e favorendo fonti di dati di qualità, le applicazioni di AI enterprise diventano molto più affidabili.

L’umiltà di dire “non lo so”

La ricerca è diventata molto abile nel comprendere il contesto per risolvere le ambiguità. Se alcuni termini di ricerca possono avere più significati diversi, i motori di ricerca tengono conto di fattori come la posizione geografica e la presenza di certe parole chiave per determinare l’intento dell’utente e fornire la risposta più pertinente.

Tuttavia, quando un motore di ricerca non è in grado di fornire la risposta giusta, perché manca di un contesto sufficiente o semplicemente non esiste una risposta univoca, cercherà di farlo comunque. Ad esempio, se si chiede a un motore di ricerca: “Come sarà lo stato dell’economia tra 100 anni?” o ‘Chi vincerà lo scudetto l’anno prossimo?’ una risposta affidabile potrebbe non essere disponibile. Ma la loro filosofia è quella di fornire una risposta in quasi tutti i casi, anche se manca di affidabilità.

Si tratta però di un approccio inaccettabile per molti casi d’uso aziendali, motivo per cui le applicazioni di AI generativa hanno bisogno di un layer tra l’interfaccia di ricerca e il LLM che studi i contesti possibili e determini a priori se è in grado di fornire una risposta accurata o meno. In assenza di un elevato livello di attendibilità, deve comunicarlo all’utente, riducendo notevolmente la probabilità di una risposta sbagliata, aumentando la fiducia dell’utente e fornendo all’interlocutore la possibilità di aggiungere contesto di modo che l’applicazione possa produrre un risultato affidabile.

Il layer tra l’interfaccia utente e il LLM può anche utilizzare una tecnica chiamata Retrieval Augmented Generation, o RAG, per consultare fonti di dati affidabili esterne.

Mostrare il proprio lavoro

La spiegabilità è un altro aspetto su cui i motori di ricerca presentano debolezze, ma che le applicazioni di intelligenza artificiale generativa devono considerare per aumentare la fiducia dell’utilizzatore. Così come gli insegnanti dicono ai propri studenti di citare le fonti del proprio lavoro, lo stesso devono fare le applicazioni di AI generativa. Rendendo note le fonti utilizzate, gli utenti possono vedere da dove provengono le informazioni ricevute e perché dovrebbero fidarsi. Alcuni LLM pubblici hanno iniziato a fornire questa trasparenza, che dovrebbe essere un elemento fondamentale degli strumenti di AI generativa utilizzati in ambito aziendale.

Tenere gli occhi aperti

Nonostante gli sforzi, sarà difficile costruire applicazioni di AI che commettano pochissimi errori. Tuttavia, i vantaggi sono troppo significativi per rimanere in disparte e sperare che i concorrenti non facciano passi da gigante. Questo impone agli utenti aziendali di avvicinarsi agli strumenti di AI in modo consapevole. Proprio come internet ha cambiato il modo in cui le persone si rapportano alle notizie e alle fonti di informazione, gli utenti devono sviluppare uno scetticismo educato e imparare a cercare i segnali di un’AI affidabile, insistendo sulla spiegabilità, consapevoli delle potenziali distorsioni.

Conclusioni

Abbiamo iniziato un viaggio entusiasmante verso una nuova classe di applicazioni che trasformeranno il nostro lavoro e le nostre carriere in modi che non possiamo ancora prevedere. Ma per offrire valore, queste applicazioni devono essere affidabili e attendibili. I motori di ricerca hanno gettato le basi per ottenere risposte accurate partendo dall’analisi di grandi volumi di dati, ma sono stati progettati per casi d’uso diversi. Prendendo il meglio della tecnologia di ricerca e aggiungendo nuove tecniche per raggiungere una maggiore precisione, sarà possibile scatenare il pieno potenziale dell’AI generativa.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati