i rischi

ChatGPT e l’ascesa dell’IA nella criminalità informatica: i rischi e come difendersi

ChatGPT può essere utilizzato per una varietà di scopi, ma presenta anche potenziali pericoli se utilizzato da individui con intenzioni malevole. Esercitando una certa vigilanza e adottando misure per proteggere le informazioni sensibili si possono ridurre i rischi. Ecco come

Pubblicato il 21 Apr 2023

Beatrice Rubini

Personal Solutions & Cybersecurity – CRIF Executive Director

cybersecurity

L’idea che i malintenzionati possano utilizzare ChatGPT come strumento di phishing per ingannare le persone e indurle a fornire i loro dati personali, come password e numeri di carte di credito, è sempre più preoccupante. La capacità dell’intelligenza artificiale di generare testo che assomiglia al parlato umano, lo rende uno strumento ideale per impersonare aziende e organizzazioni legittime nel tentativo di rubare informazioni personali a vittime ignare.

Getting ChatGPT to Write a Phishing Email For Me

Getting ChatGPT to Write a Phishing Email For Me

Guarda questo video su YouTube

Come ChatGPT aumenta il rischio di phishing

Si consideri che, a partire da una semplice richiesta di testo, ChatGPT potrebbe essere utilizzato per generare un’e-mail o un messaggio che sembra provenire da un noto istituto finanziario come una banca. Come è tipico delle tecniche di phishing, il testo può contenere una falsa richiesta al destinatario di fornire informazioni come il numero di conto e la password. Spesso si cerca di far rivelare alla vittima informazioni personali o finanziarie, come le risposte alle domande di sicurezza. ChatGPT è abbastanza sofisticato da far sì che il testo generato dal modello sia accuratamente realizzato per apparire autentico e affidabile, rendendo più facile per l’autore del reato convincere il destinatario a fornire le proprie informazioni.

Ancora più dannoso è quando ChatGPT viene utilizzato insieme a OpenAI Codex, un altro modello linguistico che è stato addestrato sul linguaggio di programmazione Python utilizzando milioni di repository GitHub, che sono codici pubblicamente disponibili per una varietà di programmi. Da una semplice richiesta di testo, i malintenzionati potrebbero usare di questi strumenti per produrre malware da iniettare in un’e-mail o in un messaggio di phishing, o altro codice dannoso che potrebbe anche tentare di rubare i dati di accesso.

Inoltre, non esiste ancora un modo definitivo per determinare quale testo sia stato generato da strumenti di intelligenza artificiale e quale sia stato prodotto da un essere umano. A differenza dei deepfake e di altre immagini generate con l’IA, il testo non include molti artefatti identificabili. Ad esempio, i generatori di immagini basati sull’IA possono avere difficoltà a disegnare correttamente le mani, per cui è possibile notare un dito in più su alcune immagini. Inoltre, possono avere difficoltà nella resa di oggetti dettagliati come i gioielli. Il testo generato dall’intelligenza artificiale, invece, non presenta lo stesso tipo di problemi. Le e-mail come quelle descritte sopra sono quasi indistinguibili da quelle autentiche di aziende fidate, a parte il fatto che possono chiedere di rivelare informazioni sensibili.

I dati allarmanti sul phishing

Le truffe di phishing sono una preoccupazione crescente nel mondo digitale di oggi, con milioni di individui e organizzazioni che cadono vittime di questi attacchi ogni anno. Secondo i rapporti trimestrali dell’Anti-Phishing Working Group (APWG) sulle tendenze del phishing, il primo trimestre del 2022 è stato “il peggior trimestre per il phishing mai osservato”, con oltre 1.000.000 di attacchi di phishing registrati in un trimestre per la prima volta in assoluto. Il record è stato battuto anche nel terzo trimestre del 2022, con oltre 1.270.000 attacchi registrati in un periodo di tre mesi.

Inoltre, il Verizon 2021 Data Breach Investigations Report ha rilevato che circa il 36% delle violazioni di dati ha riguardato il phishing, ma si noti che questo valore può variare notevolmente tra i diversi settori e industrie. Ad esempio, il Data Breach Investigations Report 2022 evidenzia che nel settore minerario il phishing rappresenta oltre il 60% di tutte le violazioni di dati. Ciò dimostra l’efficacia del phishing come strumento di furto di informazioni personali da parte degli hacker.

Sebbene i singoli individui siano spesso i bersagli degli attacchi di phishing, le aziende tendono a essere prese di mira più frequentemente perché detengono una quantità molto maggiore di dati preziosi. I dati CISCO del 2021 indicano che le aziende più bersagliate sono quelle dei servizi finanziari, che sono vittime del 60% di tentativi di phishing in più rispetto al secondo settore più preso di mira.

L’avvento di strumenti basati sull’intelligenza artificiale come ChatGPT potrebbe significare che il tasso di successo dei tentativi di phishing è destinato ad aumentare e che i messaggi di phishing generati dall’intelligenza artificiale diventeranno più frequenti con il progredire della tecnologia. Secondo uno studio pubblicato dal MIT, il 96% dei leader del settore IT e della sicurezza prevede che in futuro gli attacchi informatici saranno assistiti dall’IA e, in risposta, sta valutando la possibilità di utilizzare l’IA stessa a scopo difensivo.

L’intelligenza artificiale al servizio degli hacker: cosa rischiamo con ChatGPT

Aumenta il rischio per le aziende e gli individui

Per dirla con le parole di Elon Musk, ChatGPT è già ” scary good”, cioè “spaventosamente bravo”. Tanto che, con un numero sufficiente di dati su cui addestrare il modello, è già possibile imitare qualsiasi individuo utilizzando strumenti come ChatGPT allo scopo di ingannare le proprie vittime. I dati necessari per addestrare il modello potrebbero essere presi dalle piattaforme dei social media o da altri scritti attribuiti a quella persona. In teoria, questo modello sarebbe in grado di riconoscere e ricreare le idiosincrasie che utilizziamo consciamente e inconsciamente per identificarci l’un l’altro, e i bad actors potrebbero sfruttarlo per sovvertire la fiducia che abbiamo nelle persone che conosciamo per migliorare le loro strategie di phishing. In effetti, in risposta al commento di Elon Musk, lo stesso CEO di OpenAI, Sam Altman, ha twittato: “Sono d’accordo sull’essere vicini a un’IA pericolosamente forte, nel senso di un’IA che pone, ad esempio, un enorme rischio di cybersicurezza”.

I rischi associati all’abuso di strumenti assistiti dall’intelligenza artificiale sono già abbastanza grandi da indurre alcuni a chiedere ai governi di regolamentare l’uso di questi strumenti. Finora questa tecnologia è avanzata molto più rapidamente delle leggi che ne regolano l’uso. I professionisti sono concordi nel ritenere che il rischio per le aziende e gli individui continuerà ad aumentare con il miglioramento della tecnologia, che attualmente sta avvenendo a passi da gigante.

ChatGPT è stato costruito sul modello di linguaggio GPT-3.5 di OpenAI, a sua volta un miglioramento rispetto al modello GPT-3. Il rilascio del GPT-4 è previsto per il primo trimestre di quest’anno. Nel mese di gennaio sono circolate in rete voci secondo cui la prossima iterazione sarà addestrata su un numero di dati oltre 5.000 volte superiore a quello del suo predecessore, anche se Altman ha smentito queste voci. Questa voce, tuttavia, solleva la preoccupazione che un altro miglioramento sostanziale dello strumento possa aumentare in modo massiccio il rischio per le aziende e i privati, forse al di là di quanto siano attualmente in grado di difendersi.

Come difendersi dai tentativi di phishing assistiti dall’intelligenza artificiale

Per proteggersi da questo tipo di attacchi di phishing, le persone dovrebbero prestare attenzione alle e-mail o ai messaggi che richiedono informazioni personali.

Prima di rispondere a tali richieste, bisogna verificare l’autenticità del mittente e assicurarsi di comunicare con una fonte legittima.

Inoltre, è bene tenere presente che queste e-mail di solito cercano di suscitare un senso di urgenza, ad esempio minacciando che un nostro account potrebbe essere bloccato. Questi sono segni rivelatori di un tentativo di phishing, anche se non sempre, quindi assicuratevi di esaminare attentamente il mittente, il contenuto dell’e-mail e di trattare con cautela qualsiasi link e allegato incorporato.

È inoltre importante che le aziende e le organizzazioni siano consapevoli di questa potenziale minaccia e che istruiscano i propri dipendenti su come individuare le truffe di phishing. Questo può contribuire a ridurre il rischio che le informazioni sensibili finiscano nelle mani di hacker che utilizzano strumenti come ChatGPT per scopi malevoli.

In conclusione, ChatGPT è uno strumento potente che può essere utilizzato per una varietà di scopi, ma presenta anche potenziali pericoli se utilizzato da individui con intenzioni malevole. Esercitando una certa vigilanza e adottando misure per proteggere le informazioni sensibili, i singoli e le organizzazioni possono ridurre il rischio di cadere vittime di tentativi di phishing.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3