Google e Microsoft, attraverso le recenti presentazioni di Bard e Prometheus, hanno dimostrato di essere i principali protagonisti di quello che sembra essere il percorso verso una nuova esperienza di ricerca online. Un’esperienza che per l’utente potrebbe trasformarsi in un dialogo sotto forma di chat con un assistente virtuale che distilla i risultati in un’unica risposta e consente il perfezionamento della ricerca attraverso domande di follow-up.
Vorrei disambiguare subito la prima domanda che probabilmente nasce da questo concetto, anche perché diventa utile per capire meglio la natura di questi sistemi. Si tratta di qualcosa di molto simile all’attuale risultato in primo piano di Google? No, perché mentre il risultato in primo piano viene estratto dalla pagina di uno dei risultati che derivano dalla richiesta dell’utente, la risposta di questi chatbot viene prodotta da un modello di linguaggio (Language Model o LM) distillando le informazioni dei principali risultati della ricerca. Il cofano è simile, ma il motore è completamente diverso.
Intelligenza artificiale applicata al linguaggio: come funziona e quali rischi comporta
L’interrogativo principale, tuttavia, riguarda l’impatto che avranno i chatbot sulla ricerca, sul mondo SEO e sul business che gravita intorno alla SERP (la pagina dei risultati dei motori).
Il possibile impatto dei Chatbot basati sull’AI nel traffico verso i siti web
Di certo gli editori stanno esprimendo preoccupazione nei confronti di questa modalità di consultare i risultati, soprattutto perché temono che gli utenti avranno sempre meno bisogno di proseguire l’approfondimento cliccando su un risultato. Google non ha contribuito a rassicurarli mostrando una demo di Bard priva di riferimenti verso le fonti o comunque di menzioni degli editori. L’integrazione di Bing, al contrario, comprende questi elementi in modo evidente. Ed è la stessa direzione presa da altri motori di ricerca conversazionali che in questo periodo stanno acquisendo una certa visibilità, come Perplexity.ai, You.com e Neeva AI, che di fatto hanno presentato soluzioni ibride (motore di ricerca e modello di linguaggio) all’avanguardia prima di Google e Microsoft.
La preoccupazione da parte degli editori è una sorta di déjà vu per chi si occupa di SEO da qualche anno. Le stesse riflessioni sono già emerse in passato relativamente alle numerose informazioni presenti direttamente in SERP quando si esegue una ricerca, e ha raggiunto l’apice nei confronti del risultato in primo piano. Ancora una volta ci si interroga sul fatto che se i publisher non otterranno traffico e non riusciranno a monetizzare i loro contenuti, tendenzialmente smetteranno di produrne.
Queste nuove tecnologie porteranno la discussione su un altro livello?
Sia Google che Microsoft hanno sottolineato che il traffico verso i siti web è fondamentale. Lo stesso Satya Nadella, CEO di Microsoft ha affermato che questa nuova interpretazione della ricerca ha senso solo se genera traffico verso chi produce i contenuti, e che la risposta generata dall’AI è soltanto un altro modo di rappresentare i “10 link blu”.
Yusuf Mehdi, CMO di Microsoft ha dichiarato che i riferimenti che vengono aggiunti dopo le risposte di Bing servono proprio a questo, anche se Caitlin Roulston, direttore della comunicazione di Microsoft, ha rifiutato di condividere i dati dei clic sui link di approfondimento effettuati durante il periodo di test. Il che potrebbe essere sensato, visto che, probabilmente, la maggior parte dei test degli utenti si sono fermati a mettere alla prova le risposte del chatbot.
Nadella si è espresso anche in merito alla SEO, dicendo che ci saranno nuovi stimoli verso la creazione di contenuti più autorevoli che garantiscano la presenza del risultato tra quelli considerati dalla risposta generata dall’AI.
Dove c’è ricerca c’è SEO
Sono abbastanza convinto che l’accelerazione che ha portato il rilascio al pubblico di ChatGPT ci abbia disorientato e stimolato ansia, facendoci perdere di vista la storia delle evoluzioni della SEO e della SERP.
Io sono abbastanza convinto che i siti web continueranno a esistere, anzi miglioreranno e la SEO continuerà ad essere importante. La nuova modalità di ricerca non andrà a sostituire quella che conosciamo, ma ci darà delle possibilità in più.
Che senso avrebbe, ad esempio cambiare un sistema veloce ed affidabile come l’attuale risposta agli intenti che vengono definiti “know simple”? Nessuno, probabilmente.
Dove, invece, diventerebbe davvero utile? Nelle ricerche più complesse, dove vengono richieste più informazioni all’interno di una domanda. Nell’esempio che segue, ho chiesto “What is GPT-3 and what are its parameters?”. La prima immagine è la risposta di Perplexity. Come vediamo risponde a entrambi i focus, indicando le fonti per approfondire.
La seconda, è la risposta di Google; in questo caso, ciò che otteniamo non può essere efficace allo stesso modo, perché per esserlo dovrebbe esistere un contenuto estremamente preciso e “cucito” su una domanda così specifica.
In generale, possiamo dire che se le ricerche diventano più lunghe di 6-7 parole, i risultati perdono di efficacia. Problema che non si verifica per i modelli di linguaggio, che, basandosi sui risultati del motore di ricerca, sono molto più abili a comporre una risposta pertinente e completa.
Diventa subito chiaro, quindi, che di certo una parte di clic in SERP verrà assorbita da nuove modalità di offrire risposte dirette, ma come cambierebbe il bilancio se valutassimo le sessioni di ricerca e non le ricerche singole? Forse sarebbe più attuale chiedersi quante sessioni di ricerca si completano in un sito web, invece di chiedersi quante ricerche non producono clic su un risultato. Le nuove modalità di ricerca, infatti, introducono anche nuove ricerche e nuovi modi di perfezionarle.
È il nostro brand a produrre le risposte in SERP alle domande degli utenti? È nostro il link che porterà l’utente a chiudere la sessione di ricerca in una pagina web per la conversione? Perché è lì che dobbiamo arrivare con la nostra strategia: ad essere il riferimento per gli utenti nel nostro settore di riferimento, accompagnandolo in ogni fase della sessione di ricerca. Come si ottiene questo? Attraverso lo studio degli utenti, dei loro bisogni e del mercato, e lavorando in modo che nei contenuti dei nostri progetti vengano riconosciute esperienza, competenza, autorevolezza, affidabilità (EEAT – Experience, Expertise, Authoritativeness, Trustworthiness).
Per questo motivo, come dico spesso, finché esisterà la ricerca, la SEO giocherà sempre un ruolo fondamentale.
Le ricerche transazionali
Le considerazioni fatte fino a questo momento sono più facilmente riconducibili a ricerche informative, per le quali il completamento della sessione di ricerca, per quelle più semplici, potrebbe avvenire in SERP. Come cambiano se ci riferiamo a query più commerciali?
Per quello che abbiamo visto fino ad oggi, gli assistenti alla ricerca basati sull’AI non consentono di acquistare prodotti e/o servizi. Di conseguenza, il traffico che dal motore di ricerca si trasferisce ai siti web potrebbe variare come descritto in precedenza, ma potrebbe anche portare con sé un tasso di conversione maggiore perché gli utenti potrebbero soddisfare buona parte del loop valutazione/esplorazione (in riferimento al modello Messy Middle) in SERP attraverso la chat per arrivare al sito web in una zona del customer journey più vicina alla conversione.
Grazie al miglioramento della qualità del traffico, chi si occupa di SEO potrebbe anche riuscire a misurare meglio l’impatto delle azioni messe in atto e a produrre delle previsioni più accurate.
Ma per ottenere tutto questo, torniamo ad un concetto espresso in precedenza: sono le nostre fonti a generare le risposte? Siamo il riferimento per gli utenti? Queste sono le domande sulle quali dovremo riflettere e sulle quali probabilmente concentreremo l’azione SEO in futuro.
Conclusioni
Stiamo dando per scontato che la ricerca online si evolverà verso soluzioni ibride, composte dall’unione tra il motore di ricerca (che seleziona i migliori risultati in base alla pertinenza, alla qualità e all’autorevolezza e affidabilità della fonte) e un modello di linguaggio (che amalgama le informazioni in risposte per l’utente).
Io credo che questo tipo di soluzione possa creare delle esperienze straordinarie, ma è fondamentale che venga risolto il problema legato alle “allucinazioni”, ovvero alla generazione di contenuti corretti nella forma, ma basati su concetti che si discostano dalla realtà.
“Scaling neural network models – making them bigger – has made their faux writing more and more authoritative-sounding, but not more and more truthful.” (Il ridimensionamento dei modelli di rete neurale, rendendoli più grandi, ha reso la loro finta scrittura sempre più autorevole, ma non sempre più veritiera) – Gary Marcus.
Sarà un problema risolvibile? Sì, ma la variabile “tempo” giocherà un ruolo determinante perché le persone potrebbero perdere la fiducia in sistemi che non sempre distillano le informazioni con affidabilità.