L’intelligenza artificiale spaventa moltissimi content creator, perché permette di generare contenuti in pochissimo tempo e perché permette di crearne tantissimi, anche se, sostanzialmente, di scarsa qualità.
Questa, almeno, è la posizione riportata su alcune testate statunitensi, dal Wall Street Journal al New York Times.
Vero è che la società NewsGuard, che si occupa di effettuare valutazioni sui siti che riportano notizie, ha registrato un aumento esponenziale di siti internet che impiegano la AI per generare contenuti: da 49 di inizio maggio ai 277 di fine giugno.
Negli Stati Uniti (Zscaler) ci si attende un impiego massiccio di AI per generare siti internet che impiegando la disinformazione come “esca” vengano poi utilizzati per fare phishing.
ChatGPT e contenuti dannosi: il vero problema sono i malware
È un fenomeno e potremmo vedere anche in Italia.
Secondo Matteo Greatti, CEO di GFTech, società di sicurezza informatica, il problema c’è ma è molto enfatizzato dal fatto che l’intelligenza artificiale, in questo momento, va molto di moda: “Si sente dire spesso che ChatGPT viene molto utilizzato per lo SCAM, soprattutto perché permette di creare, ad esempio, email di phishing con i testi corretti in tutte le lingue senza che l’hacker attaccante conosca una singola parola della lingua in questione. Questo è effettivamente un problema reale ma, se vogliamo, è la punta dell’iceberg. L’utilizzo dell’AI da parte dei cybercriminali ha portato ad una proliferazione di app per dispositivi mobili, estensioni per i vari browser (piccoli programmi che vengono integrati all’interno del browser per estenderne le funzionalità) o veri e propri malware, tutti prodotti dall’AI senza che l’attaccante conosca minimamente le tecniche di programmazione o simili. Questo, a parere mio, dovrebbe allarmarci molto di più rispetto a quelle che sono le “classiche” truffe che, sebbene portate con un ottimo linguaggio scritto (es. phishing), rimangono pur sempre facilmente evitabili avendo una opportuna preparazione di base (cyber Awareness) che ci permetta di riconoscere il tentativo. Un malware evoluto invece difficilmente può essere attivato o evitato dall’intervento dell’utente e, se fatto bene, può essere distruttivo per le infrastrutture globali (pensiamo ai grandi esempi del passato: MyDoom, Conficker, Sobig) causando miliardi di danni a livello mondiale”.
YouTube e Google
Se su YouTube, è possibile trovare decine di video che offrono consigli su come guadagnare con la tecnologia di OpenAI – spesso legati alla creazione di contenuti spazzatura -, il vero obiettivo è la scalata a Google.
L’idea, infatti, è impiegare l’AI per creare contenuti per blog ed ebook che permettano poi di determinare una migliore indicizzazione su Google.
Alphabet, la holding che gestisce anche Google, ha comunicato di aver avviato programmi per proteggere i suoi risultati di ricerca da spam e manipolazione e che l’utilizzo di contenuti generati dall’intelligenza artificiale per manipolare le classifiche dei risultati di ricerca è una violazione delle politiche antispam di Google.
Di fatto, l’intelligenza artificiale, utilizzata in questo modo, è una seria minaccia proprio per il business di Google, che guadagna sul posizionamento dei contenuti.
Conclusioni
Invadere il web di contenuti generati dall’AI è una moda, ma è una moda che dovrà necessariamente tramontare: i modelli di AI finirebbero per alimentarsi di contenuti generati da essi stessi.
Anche i filtri di motori di ricerca e content creators verranno raffinati e, verosimilmente, anche i social network dovranno adeguarsi.
Nell’Unione europea, la questione sta venendo affrontata in sede legislativa: nell’AI Act è previsto che i contenuti generati con intelligenza artificiale vengano contrassegnati e ne sia resa evidente l’origine non umana.
Nel frattempo possiamo goderci il paradosso dei risultati di Google, scalati dalle stesse intelligenze artificiali che Alphabet ha contribuito a creare.