l'analisi

L’intelligenza artificiale al servizio degli hacker: cosa rischiamo con ChatGPT

Grazie a ChatGPT sarebbe possibile realizzare virus polimorfici, in grado di modificare il proprio codice mentre si propagano. La sua relativa facilità d’uso per trovare vulnerabilità e generare codici malevoli potrebbe portare a importanti conseguenze nel mondo digitale. Ma è possibile limitarne l’uso a fini malevoli?

Pubblicato il 17 Feb 2023

Davide Agnello

Analyst, Hermes Bay

Martina Rossi

Hermes Bay

chatgpt

Recentemente, è stato registrato dai ricercatori di sicurezza informatica un incremento del numero di cybercriminali che offrono i propri servizi a pagamento.  Sulla base di quanto dichiarato da Steve Condit, proprietario della società di cybersicurezza Simply IT, le tecniche di ingegneria sociale sarebbero in costante progresso e continuerebbero ad affinarsi grazie alla disponibilità e ai miglioramenti dei sistemi di intelligenza artificiale, come ChatGPT.

I challenged ChatGPT to code and hack (Are we doomed?)

I challenged ChatGPT to code and hack (Are we doomed?)

Guarda questo video su YouTube

Proprio in merito a questo bot, Check Point Research avrebbe individuato un presunto tentativo da parte di alcuni hacker russi di aggirare le restrizioni di OpenAI, proprietaria di ChatGPT, per utilizzarla a fini dannosi. Nei forum di hacking presenti nel dark web, gli hacker avrebbero discusso su come eludere i controlli sugli indirizzi IP, sulle carte di pagamento e sui numeri di telefono, elementi necessari per ottenere l’accesso a ChatGPT dalla Russia.

Secondo il gruppo di ricerca sulle vulnerabilità informatiche, non sarebbe difficile per determinati Paesi evitare i sistemi di sicurezza di OpenAI per accedere a ChatGPT. Nel caso specifico degli hacker russi, questi ultimi starebbero vagliando diverse possibilità per superare il geofencing, una tecnologia impiegata nella protezione di un perimetro virtuale e nella salvaguardia dei dati.

Secondo quanto riportato da Cyber Ark, malgrado ChatGPT abbia dei filtri di contenuto incorporati che impedirebbero di rispondere a domande su argomenti ritenuti problematici, sarebbe possibile aggirarli chiedendo alla macchina di non fornire dichiarazioni in merito alla richiesta effettuata, come la generazione di codici dannosi. Impiegando l’application programming interface (API) sarebbe addirittura possibile ricevere un codice in fase di esecuzione. È interessante notare che quando si utilizza l’API, il sistema di ChatGPT non sembra servirsi del suo filtro dei contenuti. Non è chiaro il motivo di questa circostanza, ma facilita il compito dei malintenzionati, in quanto la versione web tende a bloccarsi con le richieste più complesse.

ChatGPT, ora basta giocare: ecco utilizzi e rischi (seri)

Attraverso queste funzionalità, sarebbe quindi possibile realizzare virus polimorfici, in grado di modificare il proprio codice mentre si propagano attraverso un sistema. Questi non presentano comportamenti dannosi mentre sono archiviati su disco e spesso non contengono una logica sospetta quando sono presenti nella memoria. L’elevato livello di modularità e adattabilità rende quindi questo tipo di malware altamente elusivi nei confronti di prodotti di sicurezza basati sul rilevamento di firme, riuscendo così ad aggirare misure come l’Anti-Malware Scanning Interface (AMSI).

ChatGPT usata per creare false app ChatGPT

ChatGPT sarebbe stata altresì utilizzata per creare alcune applicazioni false che hanno avuto migliaia di download. Sebbene Google e Apple abbiano eliminato alcune app, ce ne sarebbero ancora molte altre sui rispettivi store. Una di queste applicazioni fasulle, che ad oggi sembra essere stata rimossa dal Play Store, era stata denominata proprio ChatGPT, recava il logo della stessa OpenAI ed ha avuto oltre 100 mila download e una valutazione di una stella.

Come sottolineato poc’anzi, vi sarebbero ancora diversi software con nomi simili presenti sull’App Store, tra cui uno chiamato “Chat GPT AI Open GPT-3”, che affermava di avere oltre un milione di utenti, pur non avendo recensioni.

Molte di queste app erano gratuite, ma offrivano un livello premium con piani mensili e annuali. Una di queste, denominata ChatGPT Pro, garantiva agli utenti una prova gratuita di tre giorni, al termine della quale essi potevano optare per uno dei tre piani di pagamento. Anche questa app sembra essere stata eliminata.

La relativa facilità d’uso di ChatGPT per trovare vulnerabilità e generare codici malevoli potrebbe portare ad importanti conseguenze nel mondo digitale.

Sebbene OpenAI tenti di porre dei limiti agli abusi del suo bot, secondo alcuni specialisti di sicurezza informatica sarebbe impossibile porre fine allo sfruttamento dell’intelligenza artificiale per fini malevoli. Sergey Shykevich, ricercatore di Check Point che si occupa di intelligence sulle minacce, ha affermato che queste limitazioni dovranno essere imposte dagli organi governativi.

AI Generative, la Cina comincia a mettere i paletti

In questa direzione si sarebbe già mossa la Cina, la quale ha approvato una prima normativa contro i deepfakes, rafforzando il controllo sui contenuti di Internet e cercando di limitare i contenuti fabbricati all’apparenza reali.

Paul Triolo, responsabile delle politiche tecnologiche presso la società di consulenza Albright Stonebridge, ha spiegato che la nuova legge cinese illustrerebbe come le autorità del Paese stiano tentando di affrontare la questione dei contenuti online, anticipando i cambiamenti in un momento in cui le nuove tecnologie iniziano a proliferare online.

Sempre secondo Triolo, Pechino sarebbe in grado di istituire queste regole perché disporrebbe già di sistemi capaci di controllare la trasmissione di contenuti nel web; in Occidente, invece, potrebbero porsi maggiori criticità per via di questioni relative al rispetto delle libertà individuali.

Secondo quanto dichiarato dai ricercatori di Check Point i criminali informatici sarebbero quindi sempre più incentivati ad utilizzare ChatGPT per portare a termine attacchi informatici, in quanto la tecnologia AI che vi è alla base permetterebbe loro una maggiore efficienza in termini di costi e risultati.

Non solo hacker, a rischio è anche la nostra capacità di imparare

Tale applicazione, tuttavia, non risulta essere d’interesse solo per gli hacker che utilizzano il bot per scrivere il codice di un malware o di altro software malevolo o ancora per creare e-mail di phishing sufficientemente convincenti. ChatGPT è infatti sempre più utilizzato anche da professionisti che desiderano ottenere risposte dettagliate e informazioni di varia natura in modo facile e veloce.

Uno studio condotto presso la Northwestern University di Chicago ha dimostrato l’efficacia di tale strumento di intelligenza nella redazione di documenti falsi di carattere scientifico e medico, i quali sarebbero risultati di una precisione tale da non permetterne l’individuazione nemmeno ad un gruppo di scienziati esperti.

A tal proposito, si è espressa Sandra Watcher, docente presso l’Oxford Internet Institute, la quale ha affermato che strumenti come ChatGPT pongono il mondo della ricerca di fronte ad importanti questioni etiche e metodologiche date dall’impossibilità, da parte di esperti del settore, di determinare cosa sia vero e cosa invece sia stato prodotto dall’intelligenza artificiale.

Il problema si è presentato anche in ambito universitario: secondo un report pubblicato dal The Guardian, le ricerche online relative a “scritture di saggi” e “intelligenza artificiale” sarebbero infatti aumentate esponenzialmente nell’ultimo periodo.

ChatGPT, in particolare, avrebbe suscitato diverse preoccupazioni tra i docenti delle università sul potenziale plagio sui saggi svolti dagli studenti, estremamente difficile da rilevare. È infatti possibile, per uno studente, chiedere all’app di svolgere una ricerca e di scrivere un testo su qualsiasi argomento, il quale viene presentato in pochissimo tempo con risultati completi e coerenti con la richiesta. Ciò avrebbe quindi messo in discussione la stessa validità del saggio di scrittura come forma di valutazione.

Gli esperti temono infatti che in futuro gli alunni, di diverso ordine e grado, che utilizzano tale tecnologia possano diventare dipendenti dalle risposte generate da tali strumenti, senza acquisire le conoscenze e le competenze adeguate.

Conclusioni

In conseguenza del successo riscosso da ChatGPT e dell’ampio utilizzo da parte di diverse categorie di soggetti, OpenAI potrebbe iniziare a breve a monetizzare il proprio chatbot per garantire la fattibilità del servizio a lungo termine.

Una versione di ChatGPT professionale comporterebbe quindi una completa disponibilità per gli utenti e l’assenza di finestre oscuranti, risposte più veloci e un numero maggiore di messaggi disponibili.

Come affermato dalla stessa OpenAI, l’obiettivo è quindi quello di continuare a migliorare e mantenere il servizio. A tal fine, la monetizzazione risulta essere una soluzione che l’azienda starebbe prendendo seriamente in considerazione per garantire la fruibilità di un servizio più duraturo, efficiente e migliorato sotto diversi aspetti.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3