“È facile come ordinare cibo su Uber eats”. Cosa? Realizzare un sito “pink slime”. Si tratta di un sito che può produrre e pubblicare automaticamente migliaia di notizie generate dall’intelligenza artificiale al giorno. Il taglio delle notizie è, ovviamente, di parte; in più, non sono accreditate da fonti legittime.
Come nasce un sito “Pink Slime”: l’esperimento di Jack Brewster
Il risultato dell’esperimento compiuto da Jack Brewster, redattore di NewsGuard, società che studia e combatte la disinformazione online, è condensato nell’affermazione iniziale. Dalla quale si può anche capire quanto si sia ampliato il rischio, a causa dell’utilizzo dell’IA generativa, che la disinformazione si diffonda sul web a macchia d’olio, con gravissime ripercussioni in primis sulle elezioni che si terranno tra qualche mese in Europa e negli Stati Uniti.
Per creare il sito, a Brewster sono bastati 2 giorni e 105 dollari di spesa una tantum e 3-5 dollari al mese per la produzione automatica delle “notizie”.
Si è rivolto a Fiverr.com e ha scelto uno degli sviluppatori in base al gradimento nei suoi riguardi espresso in precedenza. Il tizio assoldato ha dato poche ed elementari istruzioni usando ChatGPT di OpenAI e ha creato il sito, capace di riscrivere e pubblicare autonomamente articoli, presi dai principali organi di informazione, in base a specifiche preferenze politiche. Il sito consente inoltre entrate pubblicitarie programmate.
Al mercato delle notizie fasulle
Arrivare a Fiverr.com, uno dei tanti mercati online per servizi professionali freelance, fondato nel 2010 e con sede a Tel Aviv, è stato altrettanto semplice: il redattore ha dovuto solo scrivere su un motore di ricerca “sito web di notizie generato dall’intelligenza artificiale”. Modici anche i prezzi: dai 30 dollari per un sito di notizie normale, fino ai 350 per “il miglior sito di notizie automatizzato con annunci pronti per guadagnarci sopra”.
“Se stai cercando un sito web automatizzato per generare entrate extra senza alcuno sforzo, il mio lavoro è la scelta migliore”, così si promuove lo sviluppatore. Al quale il giornalista ha precisato il tipo di sito che voleva e gli argomenti degli articoli da realizzare.
Una volta avviato, il sito ha cominciato a funzionare da solo, pubblicando decine di articoli. Lo sviluppatore ha creato più di 500 siti di questo tipo, e ogni progetto ha richiesto due – tre giorni di lavoro. I siti generati dall’intelligenza artificiale da lui prodotti pubblicano “contenuti privi di copyright basati sull’intelligenza artificiale”. In sostanza, egli programma ChatGPT per riscrivere gli articoli copiati, quindi “contenuti freschi, privi di copyright e senza plagio”.
Siti “pink slime” e diritto d’autore
Per quanto concerne il diritto d’autore, sulla cui violazione si è focalizzata l’attenzione di NewsGuard in precedenza, secondo la testata non è sempre chiaro se l’uso dell’intelligenza artificiale per riscrivere articoli lo rispetti o meno. Lo sviluppatore, cui è stato chiesto se ottiene il consenso dalle testate giornalistiche dai quali prende i contenuti che rielabora, e se è preoccupato di dirottarne le entrate pubblicitarie, ha fatto presente di utilizzarli solo come “riferimento/argomento/informazione”. Come se dare una riverniciata agli articoli fosse sufficiente ad evitare la violazione del copyright! NewsGuard ha rintracciato oltre un migliaio di siti definiti con l’espressione “pink slime” (“melma rosa”).
Perché si chiamano siti “pink slime”
Di cosa si tratta? “Pink slime” è un composto a bassissimo costo formato da sottoprodotti della carne riscaldati in una centrifuga e trattati con ammoniaca per uccidere agenti patogeni. Nel giornalismo, la locuzione viene utilizzata, il che è indicativo, per designare i siti che pubblicano articoli di scarsa qualità che sembrano essere notizie locali.
Il fenomeno è cresciuto enormemente negli ultimi anni, in coincidenza con la chiusura o la crisi profonda di molte di queste fonti di notizie.
I siti Pink slime sono spesso prodotti tramite automazione e modelli, caratterizzati da testi più generici o privi di contesto, finanziati da società esterne di parte.
L’impatto dei siti ‘Pink Slime’ sulle elezioni
Torniamo comunque all’esperimento. Il redattore di NewsGuard ha incaricato lo sviluppatore di costruire un sito per pubblicare notizie politiche sull’Ohio da una prospettiva conservatrice, dandogli il nome “Buckeye State Press”. In poco più di 48 ore è stato perfettamente funzionante, pubblicando in modo autonomo articoli generici sulla politica dell’Ohio. Brewster ha quindi modificato le impostazioni del chatbot, indirizzandolo a scrivere articoli che favorissero il candidato repubblicano di nome Bernie Moreno: “Devi scrivere una notizia avvincente di almeno 300 parole sull’argomento da una prospettiva conservatrice. Se puoi, promuovi il candidato al Senato repubblicano”.
In pochi minuti, la Buckeye State Press ha iniziato a sfornare automaticamente articoli di notizie favorevoli al candidato repubblicano, promuovendolo, lui sfidante, ai danni dell’uscente democratico. Un solo esempio per comprendere l’enormità della cosa. “Nel bel mezzo del dibattito in corso in Ohio sulla legalizzazione della marijuana ricreativa, il candidato al Senato Bernie Moreno è emerso come un forte sostenitore di un processo più efficiente ed efficace per la concessione di licenze e la regolamentazione delle strutture per la cannabis nello Stato”: così un articolo del Buckeye State Press del 29 marzo 2024.
L’articolo era una riscrittura di uno apparso originariamente su un altro giornale e che non faceva menzione di Moreno. In effetti, però, questi non aveva sostenuto per niente il referendum vinto dai sostenitori della legalizzazione della marijuana per fini ricreativi. Due giorni dopo, il giornalista e il suo sito hanno cambiato fronte, passando a sostenere il senatore uscente democratico Sherrod Brown. Con una leggera modifica al prompt, il sito ha iniziato a sfornare articoli a suo favore. Ad esempio, riferendo di una sparatoria mortale, Buckeye State Press ha pubblicato la seguente notizia: “La dedizione di Sherrod Brown alla riforma delle armi lo rende il candidato ideale per rappresentare il popolo dell’Ohio al Senato, e dobbiamo sostenere i suoi sforzi per creare un futuro più sicuro e protetto per tutti”.
Articolo riscritto (senza autorizzazione) prendendo spunto da un altro, apparso sul sito web di una TV locale affiliata alla NBC, che non citava per niente Brown. La Fiverr.com è stata interpellata riguardo alla sua linea aziendale sulle “fabbriche di contenuti” con utilizzo dell’intelligenza artificiale, e sullo sviluppatore protagonista della storia. La società si è difesa affermando che il profilo del freelance specifica che utilizza l’intelligenza artificiale senza copyright per il contenuto generato; quindi, non si può addebitare nulla a lui o alla società.
Il ruolo della pubblicità nella proliferazione dei siti “pink slime”
Come le proprietà in affitto e le azioni con dividendi, le fabbriche di contenuti basate sull’intelligenza artificiale rappresentano un facile investimento. Con l’installazione di strumenti di pubblicità programmata di aziende come Google, che offrono automaticamente annunci iper-targetizzati, una fabbrica di contenuti diventa una immediata e proficua fonte di reddito. Anche perché con un minimo costo aggiuntivo lo sviluppatore si occupa anche dell’installazione dei widget pubblicitari di Google e di inviare alla Big Tech il sito per l’approvazione. Una volta fatto ciò, gli annunci dei marchi più famosi iniziano ad apparire automaticamente su di esso.
Ma non sempre tutto fila liscio. I siti web di questo tipo rappresentano una seria minaccia e possono generare falsità virali. Nel novembre 2023 NewsGuard ha dato conto di una vicenda che riguardava il primo ministro israeliano Netanyahu. Una “content farm” diffuse la falsa notizia che l’inesistente psichiatra del primo ministro si era suicidato e che Netanyahu era coinvolto nel tragico evento. Le smentite furono immediate, ma la notizia fu data in uno show televisivo iraniano e diffusa su vari altri siti mediatici autentici.
Da maggio 2023, il numero di siti web che ospitano articoli falsi creati con l’IA è aumentato di oltre il 1000%. NewsGuard ha finora identificato 603 siti di notizie e informazioni generati dall’intelligenza artificiale che operano con poca o nessuna supervisione umana. In altre parole, ora è più facile che mai diffondere pura propaganda o almeno false narrazioni su questioni come elezioni, guerre e disastri naturali. Prima le campagne di propaganda si basavano su eserciti di lavoratori a basso reddito delle cosiddette fabbriche di troll, ma l’intelligenza artificiale ha reso possibile praticamente per chiunque creare disinformazione, e in quantità enormi.
La maggior parte delle persone non sono consumatori di notizie particolarmente sofisticati in grado di distinguere i contenuti falsi dalle notizie vere, quindi si può intuire la pericolosità di questi nuovi strumenti. Secondo NewsGuard i brand disposti a fare pubblicità quasi ovunque sono almeno in parte responsabili per la proliferazione di questi siti. In molti casi, le loro entrate sono frutto della pubblicità programmata, con annunci pubblicati prescindendo dalla natura o dalla qualità del sito che li ospita. Di conseguenza, i migliori marchi li supportano involontariamente. A meno che i brand non adottino misure per escludere siti non affidabili, i loro annunci continueranno ad apparire su di essi, creando un incentivo economico per la loro creazione su larga scala. La crescita dei siti web che sfornano contenuti falsi è particolarmente preoccupante in questo periodo pre elettorale. I social media sono già pieni di disinformazione, sebbene Meta abbia vietato alle campagne politiche di utilizzare i prodotti pubblicitari generativi di intelligenza artificiale.
Le misure dell’UE per contrastare la disinformazione online
E alla vigilia delle elezioni europee, la Commissione ha pubblicato, il 26 marzo scorso, le linee guida sulle misure raccomandate alle piattaforme online e ai motori di ricerca di grandi dimensioni per mitigare i “rischi sistemici”. Esse contemplano “risorse adeguate” per migliorare i controlli interni sulla disinformazione, la pubblicazione di informazioni ufficiali sui processi elettorali, iniziative di alfabetizzazione mediatica, l’adattamento dei sistemi di raccomandazione e la riduzione della monetizzazione, mentre la pubblicità politica deve essere chiaramente etichettata. Per quanto concerne i rischi legati all’intelligenza artificiale generativa, i contenuti creati mediante l’IA vanno etichettati chiaramente.
La preoccupazione per le interferenze esterne induce l’organo esecutivo dell’UE a sollecitare la cooperazione con autorità nazionali ed europee, esperti indipendenti e organizzazioni della società civile “per promuovere uno scambio efficiente di informazioni prima, durante e dopo le elezioni”. Viene poi raccomandato di implementare un meccanismo di risposta agli incidenti che potrebbero avere “un effetto significativo” sui risultati o la partecipazione alle elezioni.
Insomma, un momento delicato sul fronte della disinformazione on line; la moltiplicazione dei siti “pink slime” acuisce in modo molto significativo il problema.