intelligenza artificiale

Al mercato nero delle IA: la nuova frontiera del crimine informatico



Indirizzo copiato

Modelli linguistici avanzati, tra cui Claude e Llama2, rivoluzionano vari settori, ma la loro manipolazione per scopi illeciti richiede urgenti misure di sicurezza. Ecco i “Malla”, il mercato nero delle applicazioni IA malvagie

Pubblicato il 18 dic 2024

Gabriele Prati

consulente sicurezza informatica



crimine informatico (1)

Nonostante gli sforzi per implementare misure di sicurezza, come filtri e politiche di utilizzo, i modelli linguistici di grandi dimensioni (LLM) – come GPT-3.5 e GPT-4 di OpenAI, Claude di Anthropic e Llama2 di Meta – rimangono vulnerabili ad abusi. Ad esempio, i modelli possono essere “sbloccati” per generare contenuti dannosi attraverso tecniche come il jailbreak dei prompt.

Il Mercato Nero delle Intelligenze Artificiali: ecco i MALLA! #1324

Il mercato nero delle IA malvagie

Questi abusi sono stati osservati nei mercati clandestini, dove criminali sfruttano gli LLM per generare codice malevolo, e-mail di phishing realistiche, e siti web progettati per ingannare le vittime.La capacità degli LLM di automatizzare attività dannose sta democratizzando il crimine informatico. Anche individui con scarse conoscenze tecniche possono ora orchestrare attacchi complessi, ampliando la portata delle minacce.

Nonostante alcune segnalazioni giornalistiche e analisi superficiali sull’uso illecito degli LLM, manca una comprensione approfondita e sistematica del problema. Ci sono stati diversi studi per cercare di colmare questa lacuna esaminando l’ecosistema Malla, ossia il mercato nero delle applicazioni IA malvagie.

Attori e tecniche per aggirare le protezioni degli LLM

Lo scopo è scoprire chi sono i principali attori, quali tecniche utilizzano per aggirare le protezioni e come monetizzano i loro servizi. Questo aiuterà a comprendere meglio l’impatto della minaccia e a proporre misure di contrasto efficaci.

Per riuscire ad esaminare in maniera approfondita l’ecosistema Malla vengono utilizzati strumenti di analisi e misurazione, tra cui tecniche di reverse engineering per scoprire i metodi di sfruttamento.

I Malla spesso utilizzano versioni non censurate degli LLM, che non hanno filtri o restrizioni sui contenuti generati. Questo permette ai modelli di produrre testo dannoso senza limitazioni.

Il modello “Luna AI Llama2 Uncensored”

Un esempio è il modello “Luna AI Llama2 Uncensored”, che viene ampiamente sfruttato per la generazione di codice dannoso.

I criminali usano prompt di jailbreak per aggirare le misure di sicurezza integrate nei modelli LLM pubblici (ad esempio, GPT-3.5). Questi prompt sono progettati per far sì che il modello ignori le sue restrizioni e generi contenuti altrimenti proibiti.

Queste tecniche non solo dimostrano la sofisticatezza dei Malla ma evidenziano anche le vulnerabilità dei modelli attuali. Questo risultato porta l’attenzione verso i fornitori di LLM che dovrebbero migliorare le loro protezioni e implementare metodi più efficaci per prevenire l’abuso.

L’integrazione di prompt aggiornati utilizzati dai malintenzionati può rafforzare i meccanismi di controllo dei contenuti. L’uso di sistemi come l’OpenAI Moderation Endpoint e strumenti di terze parti (es. NeMo Guardrails) è cruciale per monitorare e controllare efficacemente le interazioni con gli LLM.

Strategie più comuni utilizzate dai criminali informatici

I criminali informatici adottano diverse strategie per eludere le misure di sicurezza implementate negli LLM e sfruttarli per scopi illeciti. Le loro motivazioni principali sono il profitto economico e la possibilità di compiere attività dannose in modo più efficiente e su larga scala.

Ecco alcune delle strategie più comuni:

  • Utilizzo di versioni non censurate degli LLM: i criminali spesso utilizzano versioni degli LLM senza filtri o restrizioni sui contenuti generati. Questo permette loro di produrre testo dannoso, come codice malevolo, senza limitazioni. Un esempio è il modello “Luna AI Llama2 Uncensored”;
  • Jailbreak dei prompt: i malintenzionati utilizzano prompt di jailbreak appositamente progettati per aggirare le misure di sicurezza integrate nei modelli LLM pubblici come GPT-3.5. Questi prompt ingannano il modello, inducendolo a ignorare le sue restrizioni e generare contenuti proibiti, come discorsi d’odio o istruzioni per attività illegali;
  • Prompt engineering malevola: la “prompt engineering” è una tecnica che consiste nel formulare i prompt in modo da ottenere i risultati desiderati dall’LLM. I criminali sfruttano questa tecnica per manipolare i modelli e generare contenuti dannosi.

Le motivazioni dietro i MALLA

Le motivazioni che spingono i criminali ad aggirare la sicurezza degli LLM sono molteplici, qui sotto un elenco.

  • Generazione di codice malevolo: gli LLM possono essere utilizzati per generare codice malevolo in modo automatico, consentendo attacchi informatici più sofisticati e su larga scala;
  • Creazione di E-mail di phishing realistiche: gli LLM possono generare e-mail di phishing altamente persuasive e realistiche, aumentando il successo delle campagne di phishing;
  • Sviluppo di siti web fraudolenti: i criminali utilizzano gli LLM per creare siti web progettati per ingannare gli utenti e rubare informazioni personali o finanziarie;
  • Democratizzazione del crimine informatico: la capacità degli LLM di automatizzare attività dannose rende il crimine informatico accessibile anche a individui con scarse competenze tecniche, ampliando la portata delle minacce.
  • Utilizzo di modelli linguistici di grandi dimensioni open-source: Oltre alle versioni non censurate degli LLM, i criminali possono sfruttare i modelli open-source per scopi dannosi. Poiché questi modelli sono pubblicamente disponibili, i criminali possono modificarli e manipolarli per adattarli alle proprie esigenze specifiche, il che potrebbe includere la rimozione delle restrizioni di sicurezza o l’aggiunta di funzionalità dannose. [1]
  • Formazione di modelli personalizzati con dati dannosi: I criminali informatici potrebbero addestrare i propri modelli linguistici di grandi dimensioni utilizzando set di dati contenenti contenuti dannosi, come discorsi di odio, istruzioni per attività illegali o codice dannoso. Ciò consentirebbe loro di creare modelli specializzati nella generazione di output specificamente progettati per scopi illegali o dannosi.
  • Sfruttamento delle vulnerabilità nei sistemi LLM: oi sistemi LLM, come qualsiasi altro software, possono presentare vulnerabilità che i criminali possono sfruttare. Ciò potrebbe includere vulnerabilità nel codice del modello, nell’infrastruttura sottostante o nelle API utilizzate per interagire con il modello. Sfruttando queste vulnerabilità, i criminali potrebbero ottenere un accesso non autorizzato al sistema o manipolare il suo comportamento.
  • Collaborazione e condivisione di tecniche dannose: i criminali informatici spesso collaborano e condividono informazioni e tecniche tra loro. Ciò potrebbe includere la condivisione di prompt di jailbreak, set di dati dannosi o vulnerabilità scoperte nei sistemi LLM. Attraverso la collaborazione, possono migliorare le proprie capacità e sviluppare metodi più sofisticati per aggirare la sicurezza degli LLM.

È fondamentale che i fornitori di LLM migliorino le misure di sicurezza e implementino metodi più efficaci per prevenire gli abusi. L’integrazione di prompt aggiornati utilizzati dai malintenzionati e l’utilizzo di sistemi di monitoraggio come OpenAI Moderation Endpoint e NeMo Guardrails sono essenziali per mitigare i rischi.

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4