Microsoft ha finalmente annunciato l’integrazione della tecnologia di OpenAI alla base di ChatGPT nel proprio motore di ricerca Bing e nel Web browser Edge, primo tra i browser a ricevere funzioni orientate all’interazione in linguaggio naturale. L’annuncio ha interessato i mercati, soprattutto in seguito alla tiepida ricezione del corrispondente annuncio di Google il cui assistente Bard ha mostrato qualche limite nelle risposte fornendo informazioni non corrette. Ci si può però chiedere come mai un errore fatto da un’intelligenza artificiale da Google abbia penalizzato la casa Alphabet portandola a perdere fino al 9% di capitalizzazione, mentre l’impiego della stessa tecnologia di ChatGPT, nota per non essere perfetta, in Bing abbia portato a il titolo di Redmond ad una crescita del 3%.
Molti giornalisti del settore hanno paragonato questo passaggio analogo all’avvento di Google alla fine degli anni ’90, e probabilmente l’impressione generale è che Microsoft sia in qualche modo più avanti di Google su questa tecnologia mostrando un piccolo vantaggio dopo oltre 15 anni dalla sua genesi. Si tratta di un’impressione che ha portato Kevin Roose a dichiarare dalle colonne del New York Times di aver cambiato il proprio motore di ricerca predefinito per la prima volta nella sua vita da Google a Bing.
Come funziona l’integrazione di ChatGpt in Bing e i vantaggi
Ma ci si può chiedere in cosa possa consistere l’integrazione tra un’intelligenza artificiale generativa come ChatGPT (forse qui nella versione 4.0, non disponibile direttamente al pubblico, che accede solo alla 3.5) e un motore di ricerca. La prima in fondo ci ha rapidamente abituato a sorprendenti conversazioni anche se con inesattezze nelle informazioni e non sempre aggiornatissime, mentre la seconda rappresenta lo strumento essenziale per districarsi nell’oceano di informazioni che l’umanità ha accumulato in poco più di 30 anni.
Una prima idea è già disponibile on-line sul motore Bing, anche se si tratta di esempi non interattivi a meno che non si sia tra i fortunati che saranno ammesso nell’anteprima della tecnologia. Cliccando su uno degli esempi di prova si ottiene il risultato ordinario di una ricerca e a fianco una sintesi dei risultati commentati dall’intelligenza artificiale.
Il testo è annotato con collegamenti in modo da poter verificare le fonti usate dall’intelligenza artificiale per sintetizzare la risposta.
La verifica delle fonti è sicuramente un aspetto importante per poter valutare un’affermazione, e si tratta di un elemento che manca in ChatGPT. È normale quindi chiedersi come sia possibile che la base di conoscenza dell’AI sia dichiaratamente vecchia di oltre un anno ma possa restituire informazioni più fresche appena indicizzate dal motore di ricerca.
Possiamo cercare risposte nell’API di ChatGPT, ovviamente l’integrazione tra OpenAI e il motore di ricerca di Microsoft sarà più sofisticata, ma alcune informazioni si possono dedurre dalle funzioni che l’AI mette a disposizione per realizzare applicazioni basate sui suoi servizi.
Un servizio per poter funzionare non può accontentarsi della capacità di dialogo dell’AI, è necessario informare il sistema delle informazioni rilevanti per svolgere un certo compito, come ad esempio una base di conoscenza specifica che vada ad arricchire la conoscenza generica dell’AI generativa. Inoltre è naturale voler fornire informazioni accurate e il rischio che la conoscenza accumulata possa confondere le informazioni fornendo risposte errate.
Indicizzazione di risultati, complementare a base di conoscenza del training
L’API di OpenAI offre la funzione degli embeddings, ovverosia la possibilità di caricare dati contenuti in file all’interno del sistema. Il sistema non userà questi file per apprendere nuova conoscenza, si limiterà bensì a memorizzarli e ad indicizzarli proprio come fa un motore di ricerca. Una volta caricati i file nel sistema (complessivamente lo spazio complessivo disponibile per caricare file è di 1GB) è possibile effettuare una ricerca per trovare i documenti più rilevanti proprio come fa un motore di ricerca Full Text come Google o Bing.
La documentazione invita il programmatore ad utilizzare questa funzione per trovare informazioni rilevanti ad una particolare richiesta, ed usare il file più affine nel prompt di ChatGPT per produrre la risposta.
Questa sembra la naturale funzione di una AI generativa che supporta il processo di ricerca come una sorta di bibliotecario che effettua una ricerca interna e poi organizza i risultati più rilevanti una raccolta ragionata per aiutarci a soddisfare il nostro bisogno informativo.
Questo processo ha due vantaggi rispetto ad aggiungere nuove informazioni addestrando l’AI:
- l’indicizzazione e la ricerca offrono accesso ad informazioni più rapidamente e
- soprattutto non diluiscono il proprio contenuto in un’unica base di conoscenza dove le informazioni si confondono.
Ci sono ancora errori
Ciononostante è sempre possibile che il nostro assistente bibliotecario virtuale possa trarre conclusioni errate e fornire di conseguenza risposte errate. Per questo motivo la demo di Microsoft ai giornalisti è stata mediata da assistenti e la tecnologia sarà rilasciata in anteprima a pochi utenti in modo da verificare la qualità di risposte prima di renderla disponibile a tutti.
Sicuramente la user experience proposta da Microsoft e già pubblicamente disponibile convince nella capacità di mantenere il riferimento bibliografico che ha portato a ciascuna affermazione consentendo a noi di verificare la sorgente ed eventuali interpretazioni errate da parte dell’assistente.
Le prossime settimane mostreranno le vere potenzialità dell’incontro di queste due tecnologie, ma le oscillazioni in borsa di Alphabet hanno mostrato come la posta in gioco sia altissima.