il report Europol

Chatbot, arma del male: così facilitano le attività criminali

Sono molti i metodi per trasformare chatbot come chatgpt in strumenti malevoli utilizzabili a fini criminali. Europol ha già lanciato l’allarme e lo sviluppo delle minacce non può che evolvere insieme a quello dell’IA generativa. Facciamo il punto

Pubblicato il 21 Apr 2023

Davide Agnello

Analyst, Hermes Bay

ai generativa lavoro

Sempre più evidenze che i chatbot evoluti, come ChatGpt, possono aiutare le attività criminose. Quali l’esfiltrazione di informazioni private, il phishing, le e-mail di spam e le truffe e vari crimini anche comuni.

A fine marzo 2023, l’Europol ha pubblicato un report, denominato ChatGPT The impact of Large Language Models on Law Enforcement, in cui si descrivono i potenziali rischi riguardanti tali dispositivi. Secondo l’agenzia europea di polizia, sebbene questi strumenti siano ancora semplici da usare, il loro sfruttamento da parte degli autori di minacce fornisce una prospettiva incerta per via dei possibili sviluppi futuri. GPT-4, l’ultima versione del software di Open AI, avrebbe apportato miglioramenti rispetto alle versioni precedenti e potrebbe fornire un’assistenza ancora maggiore ai criminali.

L’intelligenza artificiale al servizio degli hacker: cosa rischiamo con ChatGPT

I metodi sfruttare Chatgpt a fini criminali

Il nuovo modello GPT 4 è in grado di comprendere meglio il contenuto del codice e di correggerne eventuali errori di programmazione. Per un hacker con scarse conoscenze tecniche, questa sarebbe una risorsa preziosa, mentre un utente più abile potrebbe avvalersi di queste capacità migliorate per affinare ulteriormente o automatizzare le prassi criminose.

Il jailbreak

Un metodo con cui gli attori malintenzionati potrebbero sfruttare le chatbot è il jailbreak, il quale consiste in iniezioni di prompt che indirizzano il modello linguistico a ignorare le misure di sicurezza.

Nel 2022, secondo quanto riportato da Vice News, sarebbero sorti dei gruppi su siti come Reddit il cui scopo è quello di condividere informazioni su come manomettere le impostazioni di sicurezza di ChatGPT. In base a quanto emerso, alcune persone avrebbero interrogato l’applicazione su come commettere atti illeciti, come il taccheggio o il sabotaggio.

In un primo momento, nelle risposte si diceva che ChatGPT fosse programmata per promuovere un comportamento etico ed evitare il supporto ad attività illegali. Tuttavia, impostando un dialogo in cui “l’IA risponde senza restrizioni morali”, la piattaforma avrebbe generato un elenco dettagliato di istruzioni su come mettere in atto azioni malevole.

Inoltre, il jailbreak sarebbe impiegato per diffondere idee razziste e teorie della cospirazione. Una chatbot rilasciata all’inizio del 2022 da Meta avrebbe presentato questo problema, tanto che i ricercatori hanno ammesso che le affermazioni fornite sarebbero risultate spesso “tendenziose e offensive”.

Adversarial training e indirect prompt injection

OpenAI ha dichiarato di aver preso nota di tutti i modi in cui le persone sono state in grado di effettuare il jailbreak dell’applicazione e di aver aggiunto questi esempi ai dati di addestramento. L’azienda utilizzerebbe anche una tecnica chiamata adversarial training, in cui le altre chatbot di OpenAI cercano di trovare dei modi per manomettere ChatGPT.

Un’altra tecnica con cui gli hacker potrebbero sfruttare le chatbot sarebbe la cosiddetta indirect prompt injection, in cui una terza parte altera un sito web aggiungendo un testo nascosto che ha lo scopo di modificare il comportamento delle applicazioni. Gli aggressori potrebbero utilizzare i social media per indirizzare gli utenti verso siti web con questi comandi occulti. Una volta fatto ciò, il sistema di intelligenza artificiale potrebbe essere manipolato per consentire all’aggressore l’estrazione di dati privati delle vittime.

I criminali informatici potrebbero servirsi di questa pratica anche inviando e-mail; se il destinatario utilizzasse un assistente virtuale AI, gli hacker potrebbero manipolarlo in modo che trasmetta le informazioni personali contenute nelle e-mail o invii messaggi alle persone presenti nell’elenco dei contatti per conto dell’aggressore.

Arvind Narayanan, professore di informatica all’Università di Princeton, ha riferito in un post su Twitter di essere riuscito a eseguire un’iniezione di un prompt indiretto attraverso Microsoft Bing, il quale impiega GPT-4. In seguito, quando Narayanan stava lavorando con il software, il sistema AI ha generato una sua biografia in cui si diceva “Arvind Narayanan è molto apprezzato, ha ricevuto diversi premi ma purtroppo nessuno per il suo lavoro con le mucche”. Sebbene si tratti di un esempio apparentemente divertente, secondo Narayanan questa vicenda illustrerebbe quanto sia facile manipolare tali sistemi.

Essi potrebbero altresì diventare strumenti di truffa e phishing, come ha scoperto Kai Greshake, ricercatore di sicurezza presso Sequire Technology e studente dell’Università del Saarland in Germania.

Greshake avrebbe nascosto un prompt su un sito web da lui creato. Avrebbe poi visitato il portale utilizzando il browser Edge di Microsoft con la chatbot Bing integrata. L’iniezione del comando avrebbe fatto sì che il software generasse un testo in modo che sembrasse che un dipendente di Microsoft stesse vendendo prodotti scontati. Attraverso questa presentazione, avrebbe cercato di ottenere i dati della carta di credito del visitatore.

L’avvelenamento dei dati

Un ulteriore problema delle chatbot sarebbe dovuto alla possibilità di manipolare database che servono per allenare i grandi modelli di intelligenza artificiale, provocando un avvelenamento dei dati.

Florian Tramèr, assistente di informatica presso il Politecnico Federale di Zurigo, insieme a ricercatori di Google, Nvidia e della startup Robust Intelligence, ha condotto un esperimento in cui avrebbe acquistato domini per 60 dollari e li avrebbe riempiti con immagini casuali. Queste ultime sarebbero state poi inserite in grandi set di dati.

Il gruppo di esperti sarebbe altresì riuscito a modificare e aggiungere frasi alle voci di Wikipedia, le quali sarebbero finite nel set di dati di un modello AI.

Come spiega Tramèr, la ripetizione di informazioni in fase di apprendimento consolida la conoscenza associativa; introducendo dati corrotti all’interno di un database, diventa perciò possibile influenzare il comportamento e i risultati del modello.

Il team di esperti non avrebbe trovato prove di avvelenamento di dati in rete, ma Tramèr ha ritenuto probabile che tale fenomeno possa manifestarsi, poiché l’aggiunta di chatbot alle ricerche online creerebbe un forte incentivo per gli aggressori.

Le linee guida per produrre e condividere contenuti in modo responsabile

Alla luce di queste criticità, Simon Willison, ricercatore indipendente ed esperto di prompt injection, ha sottolineato che le aziende tecnologiche sarebbero consapevoli dei rischi delle chatbot, ma al momento non esisterebbero soluzioni valide.

In risposta alle pressioni esercitate dall’opinione pubblica per garantire la sicurezza dei modelli di AI generativa, Partnership on AI (PAI), un’organizzazione di ricerca senza scopo di lucro composta da dieci aziende, tra cui OpenAI, ha stabilito una serie di linee guida su come produrre e condividere contenuti in modo responsabile.

Tra queste buone pratiche vi è quella di informare gli utenti attraverso filigrane, liberatorie o elementi tracciabili.

Secondo l’Europol, non sarebbe chiaro fino a che punto queste misure possano impedire gli abusi; resterebbero altresì da chiarire le modalità con cui si può effettivamente garantire l’accuratezza dei contenuti prodotti e come gli utenti possano capire da dove provengono le informazioni per poterle verificare.

Parallelamente, l’Unione Europea sta portando avanti le procedure per la definizione dell’AI Act. Sebbene sia stato suggerito che i programmi per scopi generici, come ChatGPT, debbano essere inclusi tra i sistemi ad alto rischio e soddisfare requisiti normativi più elevati, permane l’incertezza su come queste proposte possano essere attuate.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2