Nelle ultime settimane mi arrivano molte segnalazioni di licenziamenti di copywriter o fornitori di servizi legati all’ambito della creazione di contenuti. Più specificatamente testi. La motivazione è semplice: “da oggi usiamo ChatGPT”.
I licenziamenti per “colpa” di Chatgpt
Ho assistito personalmente ad una situazione di questo tipo prima di credere alle oltre 10 segnalazioni in privato che ho ricevuto. Il tutto non mi sorprende.
Già a fine 2022 avevo ipotizzato questo comportamento per una serie di evidenze:
- Internet è piena di contenuti di scarsa qualità perché c’è la moda di scrivere contenuti in ottica SEO (che poi vuol dire poco).
- Alcune tecniche inutili come la ripetizione delle chiavi nel testo sono state portate all’estremo, un po’ come il clickbait dove oramai è raro che il titolo rispecchi il contenuto.
- Al momento, questa tipologia di contenuti, di scarsa qualità, riesce a scriverla anche qualsiasi metodo di Intelligenza Artificiale Generativa.
- Chi sa scrivere veramente però è su un’altra categoria. Anche se bisogna ammettere che tanti sedicenti Guru hanno insegnato per anni ad usare le parole chiave come se fossero le parole crociate, rovinando i testi.
In un contesto di questo tipo abbiamo un problema molto importante: le persone che prendono le decisioni su cosa fare hanno poca competenza per prenderle.
Se una persona con molti poteri ha deciso che prima andavano bene gli articoli scritti da esseri umani ma di scarsa qualità tanto dobbiamo solo produrre contenuti per Google…che decisione prenderanno ora? Facile: sostituire la scrittura fatta da persone con semplici copia&revisiona&incolla.
Purtroppo sta avvenendo. E sta avvenendo senza alcuna strategia. Perché usare ChatGPT o simili lo si può fare e si possono ottenere risultati straordinari. Il fenomeno però al quale mi sto riferendo è un altro: una sostituzione senza alcun senso di persone con metodi di AI senza alcuna strategia..
Il meccanismo è il solito. Chi decide non conosce.
Insisto nel dire che ad Open AI sono stati poco responsabili e continuano ad esserlo. Oggi c’è una grande quantità di persone che non è in grado di capire cosa ha in mano con ChatGPT o altri e lo sta usando malissimo. A cascata vedremo una marea di problemi.
Voglio specificare una cosa: una persona competente è in grado di usare l’AI per i testi e per tanti automatismi e per davvero alcuni task importanti. Per alcune cose lo si fa da molti anni. Ma questo è un processo che va fatto con una grande consapevolezza, cultura, formazione.
Invece siamo alle solite.
Boom dell’intelligenza artificiale, quale futuro per i giornalisti
C’è un caso importante e sta avvenendo a CNET raccontato da The Verge: pare che non abbiano preso in considerazione gli errori del passato, dove hanno dovuto far riscrivere parecchi articoli generati con l’AI perché zeppi di errori. Attualmente stanno licenziando il 10% dei giornalisti per sostituirli con l’Intelligenza Artificiale.
Perché è un grave errore sostituire persone con ChatGpt
L’obiettivo però ci fa capire che c’è qualcosa di più: vogliono puntare sull’affiliation marketing (tendenza forte all’estero) e lo faranno puntando su articoli SEO e quindi Google.
Sarà un grave errore.
La situazione di oggi è che purtroppo molte persone stanno usando metodi e strumenti come ChatPGT senza sapere cosa stanno facendo: ChatGPT è pazzesco in alcune cose. Fare riassunti, categorizzare, elaborare informazioni partendo da molti dati. Ma ne fa altre peggio: generare testo affidabile.
Ma la domanda resta: può un’Intelligenza Artificiale scrivere un contenuto con una qualità maggiore di un essere umano?
Licenziando tutte quelle persone e sostituendole con metodi di intelligenza artificiale generativa, davvero miglioreranno il posizionamento su Google?
Prima di tutto specifichiamo una cosa: Google, al momento, ignora se l’articolo è stato scritto da un’AI o un essere umano. Non perché non sia in grado, ma perché non è interessante saperlo. Quindi qualsiasi articolo che state leggendo in giro in questo momento sul fatto che gli articoli scritti con l’AI si posizionano oppure no…ignorateli. Non ci sono sistemi attivi, quindi ogni considerazione è inutile.
Perché avviene? La risposta è disarmante: Google ha da anni sistemi che penalizzano la spam e premiano i contenuti di Qualità. E non ha necessità di saperlo, perché ad oggi, per valutare la qualità questo è un aspetto indifferente. La qualità per Google non viene definita in questo modo.
Che grande equivoco: la qualità che intendiamo noi come esseri umani non è la qualità che premia Google.
E infatti l’aggiornamento delle linee guida di Google Search sui contenuti generati dall’AI spiega nel dettaglio queste cose.
Facciamo qualche passo in più.
Google dichiara che gli automatismi nei testi ci sono da molti anni specialmente nel mondo dell’editoria e che questo non è un problema. Come per dire: guardate che sono anni che conosciamo la tematica, ci lavoriamo, non c’è alcun problema.
Inoltre dice che sarebbe bene indicare il processo che ha portato alla creazione del contenuto. Più per le persone: come giusto che sia.
Ciò che rende tutto questo molto interessante è che hanno anche aggiornato le linee guida per la creazione di contenuti.
Le linee guida Google
Le linee guida indicano una serie di domande da porsi sulla creazione dei contenuti, ma salta all’occhio la categorizzazione in 3 aree ben distinte:
- contenuti e qualità
- competenza di chi scrive
- presenza e produzione
Come per dire: guardate che queste sono cose che noi, con i nostri algoritmi, misuriamo. Inoltre specificano che i contenuti devono essere orientati alle persone e non ai motori di ricerca.
Traducendo una cosa citata sopra: CNET sta sbagliando in partenza. Attenzione a produrre nel vostro piano editoriale tutti articoli che rispondono a domande degli utenti per intercettare le ricerche. Perché lo fanno già tutti, quindi significa arrivare sempre dopo. Come facciamo ad essere i primi se il nostro piano editoriale è composto tutto da articoli pubblicati dopo su domande già conosciute?
Non è questo l’obiettivo di una risorsa autorevole. Almeno, no è solo questo.
Sostituire le persone con l’AI senza alcuna strategia farà crollare i siti nel lungo periodo, perché mancano i principi fondamentali della SEO e della comunicazione.
Ma ora dobbiamo fare l’ultimo passo: la qualità di una risorsa non si basa solo sul testo? Eh no, non sto parlando solo di aggiungere immagini o video o altro.
La qualità per Google si basa e si misura su quanto riesce a soddisfare lo scopo per il quale è creato l’articolo. Questo articolo che stai leggendo ha lo scopo di informarti su cose che non conosci. Se riesco a raggiungerlo posso ambire ad una buona qualità. Ma anche questo, raggiungere lo scopo per il quale è stato creato, è una parte degli algoritmi della qualità.
E non potrei raggiungere la massima qualità raggiungibile: per farlo avrei bisogno di creare una risorsa con uno scopo benefico. Per Google, queste sono le risorse che possono raggiugere il massimo. E che risorse sono? Sono quelle che riescono a fugare ogni dubbio.
Potrei raggiungerlo con questo articolo? Sì, se il CEO di Google rispondesse ad alcune domande riuscirei a creare una risorsa unica nel suo genere, contestualizzata e piena di informazioni anche autorevoli dall’esterno.
E in questo caso è la presenza del CEO di Google a darmi il punteggio, non il testo.
Se non si conosce il termine scopo benefico non si conosce la SEO. Non si conosce la Qualità per Google. Non si può, in sostanza, creare una risorsa di massima qualità.
Vi faccio un piccolo spoiler: cercando su Google.it la ricerca [“chatgpt” “scopo benefico”] che indica a Google di restituire tutte le URL che conosce dove sono menzionate queste due parole insieme…esce solo una risorsa che ne parla, al netto del mondo del nonprofit che usa quella parola con un altro senso.
Esattamente, esce solo l’edizione della mia fastletter.
In pratica sì: nessuno ad oggi ha ancora parlato davvero della qualità dei contenuti creati con ChatGPT, se non per gli esseri umani. Incredibile vero?
Purtroppo non è finita qui.
La Qualità per Google è una cosa molto più complessa. Se volete farvi un’infarinatura potete andare su YouTube e cercare [qualità giorgio taverniti] https://www.youtube.com/results?search_query=qualit%C3%A0+giorgio+taverniti e vi trovate una serie di video. Ascoltateli tutti, così inizierete ad avere confidenza con i termini.
Ad esempio, la qualità si basa anche su:
- Contenuti Pertinenti
- Intenti delle Persone
- Esperienza delle Pagine
- EEAT
Approfondiamo l’ultimo, perché comunque gli altri li trovate facilmente anche su YouTube.
EEAT: esperienza, competenza, autorevolezza e affidabilità.
Scrivere articoli con l’Intelligenza Artificiale Generativa come sta accadendo oggi significa perdere di affidabilità, competenza ed esperienza. E nel lungo periodo, anche di autorevolezza.
Queste parole sono molto importanti nella SEO e nella Qualità, ma non sono raggiungibili per forza nel testo. Anzi, l’esperienza non lo è proprio e l’autorevolezza è basata sui link.
Ma se anche volessimo far finta che la qualità per Google è solo testo, l’approccio delle persone a ChatGPT è sbagliato. Non conoscendo come funzionano questi meccanismi generano pessimi contenuti.
Non è ChatGPT il problema, ma la nostra cultura.
Google vuole informazioni che siano:
- Originali
- Complete
- Interessanti senza essere scontate
- Che citano le fonti
Anche solo questi 4 criteri: se una persona non è competente come li farà a rispettare?
Ricordiamo inoltre un ultimo concetto: la qualità di un sito è data dalla media della qualità dei contenuti per Google.
Attenzione ad abbassarla.
Il nostro obiettivo deve essere studiare l’AI per capire dove può aiutarci, perché è uno strumento. Non a sostituire copywriter.
Bisogna puntare a diventare la fonte del proprio settore. Ma come possiamo farlo se produciamo contenuti non originali che sono dei fari nella notte per chi legge?
Il podcast: