Nelle redazioni di certi media oggi occorre avere coraggio per sostenere che il linguaggio SEO (Search Engine Optimization) – quando diventa la bussola principale o prevalente nel lavoro di chi informa – è una minaccia per il giornalismo. Ovviamente, come tutti i mezzi che usiamo, è pericoloso per il modo in cui troppi lo utilizzano, dato che si fanno diventare i motori di ricerca una specie di Oracolo di Delfi 4.0.
Infatti, va precisata una circostanza a proposito della Search Engine Optimization: non si basa su una fonte disinteressata. Gli algoritmi che fanno funzionare i motori di ricerca (così come quelli che governano i social network) vengono realizzati da esseri umani, i loro proprietari, molto ricchi e potenti. Dunque la scelta dei contenuti da indicizzare avviene sulla base di decisioni legate a interessi economici e politici.
Le recenti proposte normative dell’Europa (Digital Markets Act in primis), l’inchiesta dell’antitrust UE su presunte distorsioni del motore di ricerca Google, la causa antitrust del Dipartimento di Giustizia Usa di ottobre e anche la nuova causa americana posta sulle stesse basi dovrebbero essere sufficienti per farci dubitare dell’oggettività di questi algoritmi.
Condizionati dalla SEO
Ciononostante, oggi troppi giornalisti, direttori ed editori si fanno condizionare dalle regole della SEO, contravvenendo non solo alle regole del giornalismo “di una volta” ma anche al buon senso. Ma ancora più grave il rischio di essere condizionati – in modo piuttosto subdolo – dalle “entità” che governano i motori di ricerca (e che, per inciso, si sono sostituiti a quegli stessi media nel governo della comunicazione globale).
Così può capitare di sentirsi dire: “Questo pezzo non va bene perché i suoi contenuti non vengono indicizzati abbastanza dai motori di ricerca”. Ovviamente non bisogna prendersela con chi svolge con la legittima professione di “esperto di linguaggio Seo”. Perché in effetti va studiato e conosciuto: per farne un buon uso e anche per potersi difendere da eventuali manipolazioni. Però non deve diventare il direttore che decide quello che va pubblicato.
Nei media, tuttavia, la ribellione contro la dittatura degli algoritmi si leva di rado, un po’ per timore di essere sostituiti da qualcuno più malleabile, un po’ perché qualche redattore non si rende conto di essere pilotato da un direttore virtuale. Tra chi ha tirato fuori questo discorso c’è la giornalista Guia Soncini: ha puntato il dito contro certi capi rapiti dalla lettura di manuali per la SEO.
Scrive: “Dicono, quei manuali, un sacco di robe orribili. Che bisogna cominciare con la parola del giorno, e poi la virgola. Lockdown, virgola. Stati generali, virgola. Premio Strega, virgola. Che quella parola bisogna ripeterla molte volte nel corso dell’articolo, perché l’algoritmo… per capire che l’articolo parla di Trump deve trovare ogni tre parole il nome Trump; non ‘l’inquilino della Casa Bianca’, non ‘il presidente degli Usa’… Insomma, nel magico mondo del SEO il New Yorker dovrebbe essere introvabile su Google, e letto da nessuno. Con quei pezzi lunghi, con quella impostazione che se la prende comoda, che ti racconta cose, mica ti gonfia a quaranta righe una notizia da due ripetendo molte volte lo stesso nome acciocché venga indicizzato per bene”.
Cos’è, esattamente, la SEO
Per capire cosa sia la SEO – acronimo di Search Engine Optimization – proviamo a immaginare uno chef che – invece di basarsi sui prodotti di stagione e sulle proprie caratteristiche professionali (riferimenti, formazione, creatività, conoscenze, esperienze, capacità e competenze) – fa decidere il menù del giorno a uno strumento disponibile online: questo gli “spiega” ciò che, secondo un algoritmo scritto da chissà chi, la gente gradirebbe mangiare. Forse il suo ristorante diventerebbe il punto di riferimento per onnivori tecnologici e solitari, in grado di farlo diventare ricco consumando cibi precotti. Di certo, starebbero alla larga i buongustai e anche coloro che, pur possedendo meno cognizioni gastronomiche, desiderano mangiare decentemente.
Ebbene, se prendete un giornalista e lo costringete a scrivere quello che gli suggerisce un algoritmo, avrete la versione mediatica dello chef. Con la differenza che l’esistenza di quel tipo di cuoco è (almeno, lo speriamo…) un’ipotesi teorica e provocatoria. Mentre i giornalisti in balìa degli algoritmi – più o meno consensualmente – esistono già: parecchi sono troppo sottomessi, volenti o nolenti, al linguaggio SEO.
Ma cos’è, esattamente, la Search Engine Optimization?
Al centro c’è soprattutto Google: è controllato da una holding californiana, Alphabet, che ha avuto un fatturato di 46 miliardi di dollari solo negli ultimi tre mesi del 2019, con un utile di 10,67 miliardi derivanti soprattutto da un’immane mole di inserzioni pubblicitarie a livello globale (per farsi un’idea: il suo fatturato annuale è maggiore del Pil della maggioranza degli Stati che sono sul pianeta).
Google trends come fonte di ispirazione dei giornalisti?
Lo sfogo della Soncini fa sorridere. Ma anche no. Dipende dai punti di vista. Perché si rischia che, invece di cercare le notizie, il giornalista (o chi, pur senza l’iscrizione all’Ordine, scrive qualcosa da vendere come notizia) consideri come prevalente fonte di ispirazione Google Trends (significa “tendenze di ricerca”): questo strumento fornisce i trend topic online (“termini di tendenza sul web”), che spesso diventano il fulcro di ogni discussione in qualsiasi redazione (incluse quelle di grandi testate) prima ancora della notizie vere. Guarda caso, il servizio è fornito dal più ricco e usato motore di ricerca, già citato.
Cliccando Google Trends, si intravede quello su cui puntano 3 miliardi e mezzo di utenti che, in tutto il mondo, svolgono 4,5 miliardi di ricerche quotidiane. L’analisi, offerta anche in italiano, si può raffinare e circoscrivere. Spontaneamente, la home page ci fa sapere subito che cos’è di tendenza. Per esempio, alle 14,40 del 3 dicembre 2020 in Italia vinceva le ricerca su “Lombardia zona gialla” (1°, con più di 100.000 quesiti online), seguita da quella (più di 20.000) dedicata alla storia del fidanzamento tra Francesco Rutelli e Barbara Palombelli (2°) e dalla scomparsa di Giscard d’Estaing (3 °); poi – con più di 10.000 visualizzazioni – ecco storie varie: dal cashback natalizio (4° posto) ai rapporti di Paolo Brosio con la morosa di 22 anni (6°), dal Barcellona (7°), che non paga gli stipendi ai calciatori, fino al nuovo Dpcm governativo con le misure natalizie anti-Covid (solo al 10° posto). Nel giro di poco tempo le indicizzazioni possono cambiare. Per scrivere un pezzo online di successo in quel momento si sarebbe dovuta dare la seguente notizia: “Mentre vagavano nella zona gialla della Lombardia, Francesco Rutelli e Barbara Palombelli si sono commossi pensando al loro fidanzamento, incuranti della sorte di Giscard d’Estaing”.
Non è tutto SEO quel che luccica
Viene di nuovo da sorridere, certo. Invece è una questione terribilmente seria. Per capire meglio, è interessante andare su l sito di Valentino Mea, molto professionale, che offre consulenza Seo e Google Ads (un software che permette di inserire spazi pubblicitari all’interno delle pagine di ricerca di Google), Propone una guida. Titolo: “SEO per Giornalisti: regole pratiche per il Giornalismo Online”. Esordisce spiegando che “la SEO per giornalisti è fondamentale per scrivere articoli che vengono trovati e per far arrivare da Google un numero maggiore di lettori interessati sui propri articoli. Questo si traduce in più soldi in pubblicità, più abbonamenti, maggiore forza del marchio”. Poi: “Fare il giornalista oggi non è facile: mentre una volta il grosso del lavoro era andare a cercare le notizie, adesso sono le notizie che vengono a cercare te e arrivano a ondate che non è semplice cavalcare senza farsi sommergere”. Ancora: “Tra le variabili che influiscono sul ciclo di vita delle notizie c’è anche Google che, in base alle ricerche effettuate dagli utenti, decide se mettere in evidenza un certo topic (argomento, ndr) e se mantenerlo in SERP (Search Engine Results Page, “pagina dei risultati del motore di ricerca”, ndr) più o meno a lungo”. Infine: “Se vuoi essere supportato in questo difficile compito e imparare a scrivere articoli giornalistici SEO oriented, richiedi pure una consulenza SEO oraria”.
Il fatto che il giornalista SEO-orientato non venga descritto come un cacciatore incallito di notizie, ma una persona che non sa più dove metterle perché ne viene travolta, rende l’idea della piega che potrebbe prendere questa delicata professione. Certo, va ribadito: è bene che un cronista conosca i meccanismi con cui funzionano i motori di ricerca e gli interessi delle aziende che li gestiscono; è pure opportuno che sappia quali sono le chiavi attraverso le quali una notizia può apparire nelle ricerche. Però il redattore, prima di diventare un campione nell’uso degli strumenti della SEO, dovrebbe ricordarsi del “giornalismo di una volta”: quello che si basa sulla fondamentale regola delle 5 W: Who, What, Where, When, Why.
Conclusioni
In altre parole (italiane), il giornalista dovrebbe prima di tutto chiedersi chi c’è dietro quella selezione di cosiddetti topic, cosa fa, dove lo fa, quando e come lo fa (cioè, in funzione di quali interessi). Non dovrebbe mai trasformarsi in uno strumento passivo di quel sistema, né di altri. Purtroppo, invece, allarma la passività con cui molti di coloro che scrivono notizie online – anche su importanti testate – si stanno adattando alle pretese degli algoritmi e dei loro mandanti. Col rischio che le basilari 5 W siano sacrificate, insieme alla professionalità e al diritto/dovere di cronaca, sull’altare di Google Trends.
Perché il dominio di Google sulla search è incontrastabile
L’indice di Google oggi, secondo le stime, si colloca tra i 500 e i 600 miliardi di pagine web, come riporta un recente articolo del New York Times.
Capire come funziona la ricerca di Google è la chiave per capire perché così tante aziende trovano quasi impossibile competere e, di fatto, fanno di tutto per soddisfare le sue esigenze.
Ogni richiesta di ricerca fornisce a Google più dati per rendere più intelligente il suo algoritmo di ricerca. Google ha effettuato così tante ricerche in più rispetto a qualsiasi altro motore di ricerca che ha stabilito un enorme vantaggio rispetto ai concorrenti nel capire cosa cercano i consumatori. Questo vantaggio non fa che aumentare, dato che Google ha una quota di mercato di circa il 90%.
Google indirizza miliardi di utenti verso i siti internet, e i siti web, affamati di quel traffico, creano un diverso insieme di regole per l’azienda. I siti web spesso forniscono un accesso maggiore e più frequente ai cosiddetti web crawler di Google – computer che setacciano automaticamente Internet e scansionano le pagine web – consentendo all’azienda di offrire un indice più ampio e aggiornato di ciò che è disponibile su Internet.
Quando lavorava al sito musicale Bandcamp, Zack Maril, ingegnere del software, si è preoccupato di come il dominio di Google lo avesse reso così essenziale per i siti web.
Nel 2018, quando Google ha detto che il suo crawler, Googlebot, aveva problemi con una delle pagine di Bandcamp, Maril ha fatto della risoluzione del problema una priorità, perché Google era fondamentale per il traffico del sito. Quando altri crawler incontravano problemi, Bandcamp di solito li bloccava.
Maril ha continuato a ricercare i diversi modi in cui i siti web aprivano le porte per Google e le chiudevano per gli altri. L’anno scorso, ha inviato un rapporto di 20 pagine, “Understanding Google”, a una sottocommissione antitrust della Camera e poi ha incontrato gli investigatori per spiegare perché altre aziende non potevano ricreare l’indice di Google.
Un rapporto di quest’anno della sottocommissione della Camera ha citato la ricerca di Maril sugli sforzi di Google per creare una mappa in tempo reale di Internet e su come questo sia “bloccato nel suo dominio”. Mentre il Dipartimento di Giustizia sta cercando di sciogliere gli accordi commerciali di Google che mettono il suo motore di ricerca al centro di miliardi di smartphone e computer, Maril sta esortando il governo a intervenire e a regolare l’indice di Google. Una portavoce di Google si è rifiutata di commentare.
Siti web e motori di ricerca sono simbiotici. I siti web si affidano ai motori di ricerca per il traffico, mentre i motori di ricerca hanno bisogno di accedere ai siti per fornire risultati rilevanti per gli utenti. Ma ogni crawler mette a dura prova le risorse di un sito web in termini di costi di server e di banda, e alcuni crawler aggressivi assomigliano a rischi per la sicurezza che possono abbattere un sito.
Dal momento che avere le loro pagine “crawlate” costa denaro, i siti web hanno un incentivo a lasciare che sia fatto solo dai motori di ricerca che dirigono abbastanza traffico verso di loro. Nell’attuale mondo della ricerca, ciò lascia solo Google e – in alcuni casi – Bing di Microsoft.
Redazione