Google ha recentemente annunciato l’avvio di una politica anti-spam completamente rinnovata e progettata, almeno in parte, per lasciare il clickbait generato dall’intelligenza artificiale fuori dai risultati del più celebre dei motori di ricerca.
L’annuncio di Google
L’annuncio, pubblicato sul Google Search Central Blog, il blog aziendale della società con sede a Mountain View, in California, lo scorso 5 marzo presentava un aggiornamento più complesso rispetto ai soliti aggiornamenti principali, in quanto prevede modifiche a più sistemi principali; inoltre, segna un’evoluzione nel modo in Google identifica l’utilità dei contenuti.
Un aggiornamento pensato, quindi, per migliorare la qualità della ricerca mostrando meno contenuti che sembrano creati unicamente per attirare clic e più spazio ai contenuti ritenuti utili dagli utenti.
“Sembra che sarà uno dei più grandi aggiornamenti nella storia di Google”, dice Lily Ray, direttore senior del SEO presso l’agenzia di marketing newyorkese Amsive.
La strategia anti-clickbait
Per l’azienda di Mountain View il cambiamento ridurrà del 40% i “contenuti di bassa qualità e non originali” nei risultati di ricerca. Si concentrerà sulla riduzione di ciò che l’azienda chiama “abuso di contenuti su scala”, cioè la produzione massiva di contenuti di bassa qualità o non originali, realizzati unicamente per manipolare il posizionamento nei risultati di ricerca tramite l’uso di intelligenza artificiale per creare titoli e/o notizie clickbait, “acchiappa click”, ma prive di contenuti realmente utili per gli utenti.
Ma l’upgrade di Google non si limiterà “solo” a questo. Il più celebre dei motori di ricerca penalizzerà anche i siti web noti e ricchi di ottimi contenuti (e verficati) ma che ospitano anche contenuti di bassa qualità o clickbait, forniti da terze parti, con l’obiettivo di sfruttare indebitamente – secondo Google – la fiducia che gli utenti hanno nel sito ospitante.
Google considera ora i contenuti clickbait come spam ed incoraggia i proprietari dei siti web – soprattutto quelli più autorevoli – a supervisionare maggiormente i contenuti pubblicati pena il declassamento nei risultati di ricerca.
La trasparenza e la qualità dei contenuti diventano quindi fattori determinanti per mantenere la fiducia degli utenti e un posizionamento favorevole nei risultati di ricerca.
Non solo spam e clickbaiting: lotta anche al domain squatting
Questo approccio notevolmente più aggressivo nella lotta allo spam nelle ricerche mira anche al fenomeno del “domain squatting”, una pratica che consiste nell’acquistare domini di siti web con nomi riconosciuti per trarre profitto dalla loro reputazione, spesso sostituendo il giornalismo originale con articoli generati dall’intelligenza artificiale progettati per manipolare il posizionamento nei motori di ricerca. Questo tipo di comportamento è antecedente al boom dell’intelligenza artificiale, ma con l’avvento di strumenti di IA generativa, come ChatGPT ad esempio, è diventato sempre più facile produrre un numero infinito di articoli per manipolare le classifiche di Google (e non solo).
L’esempio del redivivo “The Hairpin”
Wired, la rivista mensile nota come “la Bibbia di Internet”, ha spiegato che l’amato blog femminile indie “The Hairpin” chiuso nel 2018 ha ripreso a pubblicare ed è pieno di articoli generati dall’intelligenza artificiale progettati per attirare il traffico dei motori di ricerca.
Il nuovo proprietario, il dj serbo Vujo è stato attratto da The Hairpin grazie all’ottima reputazione del blog e dei suoi eccellenti backlink. Vujo è stato in grado di acquistare The Hairpin perché i suoi proprietari originali hanno lasciato scadere il suo dominio.
L’esempio di The Hairpin è una pratica assai diffusa su internet e che Google ha deciso di bloccare classificando i contenuti come quelli che oggi popolano il blog come spam.
Il problema della reputazione sulla qualità delle ricerche
Un problema, quello della reputazione sulla qualità delle ricerche, che unito al cambio di abitudini con nuovi strumenti come TikTok, che per la generazione Z è (anche) un motore di ricerca o Reddit usati anche per le ricerche sul web, che è in cima alle preoccupazioni di Google. Per Gareth Boyd, esperto SEO di Forte Analityca, società di marketing digitale, il clickbaiting, i contenuti condivisi nel web (sito o post su blog) o sui social network, che hanno lo scopo di attrarre il maggior numero di utenti per aumentare le visite ad un sito e generare così notorietà, ma soprattutto rendite pubblicitarie, è stato un grosso problema per Google negli ultimi anni.
Un recente studio condotto da ricercatori dell’Università di Lipsia, dell’Università di Bauhaus-Weimar e del Centro per l’Analisi Dati Scalabili e Intelligenza Artificiale ha messo in evidenza come nelle ricerche di prodotto le pagine meglio posizionate su Google sono piene di link affiliati e presentano testi di qualità inferiore con un chiaro vantaggio per i produttori di contenuti di basso livello.
C’è da dire che Google ha risposto ufficialmente allo studio spiegando come questo ha preso in considerazione solo i contenuti relativi alle recensioni dei prodotti e non riflette la qualità complessiva e l’utilità della ricerca per i miliardi di query che vengono effettuate ogni giorno.
Clickbaiting, il dietrofront del marketing e della comunicazione
Allargando lo sguardo c’è stato un momento nel quale gli uffici marketing delle aziende e dei loro brand hanno creduto e/o valutato tecniche di clickbaiting per ottenere risultati immediati, ma ben presto – soprattutto quelle più strutturate – hanno acquisito consapevolezza di come le informazioni che diffondono o che vengono associate al loro brand possano influenzare la percezione del pubblico (audience) nei loro confronti.
Il mondo del marketing e della comunicazione – che sono sempre più integrati – già da alcuni anni ha visto uno spostamento delle strategie verso una visione a lungo termine delle relazioni con il pubblico attraverso messaggi efficaci, coinvolgimenti autentici e un approccio più sostenibile e incentrato sul consumatore o acquisito o potenziale.
Così questo fenomeno appare più rilevante per l’industria mediatica e giornalistica che per il resto delle aziende e i loro brand.
La disinformazione digitale minaccia alla società umana secondo il WEF
La diffusione virale della disinformazione digitale è diventata così grave che il World Economic Forum la considera tra le principali minacce alla società umana come spiegato da Petter Törnberg dell’Università di Amsterdam.
All’inizio del 2016 Microsoft aprì su Twitter un profilo controllato dall’intelligenza artificiale. Era in grado di imparare basandosi sui tweet degli altri utenti. Nell’arco di poche ore, sollecitato dai contenuti altrui, arrivò a negare l’Olocausto spiega Francesco Nicodemo, esperto di comunicazione, nel suo libro “Disinformazia”.
L’obiettivo di Google è quello di creare un ecosistema digitale in cui la trasparenza e la qualità dei contenuti siano valorizzate e premiate. Ciò non solo migliora l’esperienza degli utenti, ma promuove anche un ambiente digitale più affidabile e informativo per tutti.
Il fenomeno dei siti “made for advertising”
Intanto la società di ricerca sui media Ebiquity ha rilevato che i suoi clienti, nel periodo compreso tra gennaio 2020 e maggio 2022, hanno speso circa 115 milioni di dollari in quello che l’industria pubblicitaria chiama “made for advertising”, ovvero siti web nati con il solo scopo di massimizzare i profitti degli annunci, a scapito dei contenuti di qualità e della user experience.
Un danno economico rilevante per l’industria pubblicitaria ed anche per le aziende e i loro brand che scelgono questa strategia investendo risorse per generare un traffico che non ha un impatto positivo sull’attività delle aziende e dei brand.
Alcune voci che arrivano da oltreoceano però vedono nella nuova strategia di Google un modo per offrire un vantaggio competitivo ai contenuti realizzati dall’Intelligenza Artificiale che provengono dai servizi a pagamento di Big G rispetto a quelli realizzati dai competitor.
Attraverso l’aggiornamento delle proprie policy, quindi, Mountain View proverebbe a recuperare il gap dovuto ai continui problemi incontrati dai suoi sistemi di intelligenza artificiale generativa rispetto alla concorrenza (ChatGPT su tutti).
I prossimi step
Intanto Google ha dato i 60 giorni di preavviso per dare il tempo ai siti web di adeguarsi alla nuova policy prima di essere declassati. Toccherà adesso soprattutto all’industria dei media, ma anche alle aziende ed ai loro brand che ancora avevano all’interno delle loro strategie strumenti clickbait (acchiappaclic) adeguarsi con rapidità
Sicuramente la svolta di Mountain View, a dire il vero non è la prima volta, ma questa volta sembra esserci molta più decisione, ha generato interesse e curiosità. Alcuni esperti SEO mostrano un cauto ottimismo sul fatto che questi cambiamenti potrebbero ripristinare l’efficacia della ricerca di Google riportando le cose nel modo in cui erano prima.