FraudGPT e WormGPT: Come difendersi da questi nuovi strumenti in mano ai criminali informatici?

FraudGPT e WormGPT: Come difendersi da questi nuovi strumenti in mano ai criminali informatici?

Nell'arco dell'ultimo anno, nuovi sviluppi nel campo della tecnologia dell'intelligenza artificiale (IA) hanno lasciato un'impronta significativa sulla nostra società. Applicazioni come ChatGPT3.0 e la sua evoluzione ChatGPT4.0 hanno reso enormi quantità di informazioni immediatamente accessibili a centinaia di milioni di individui in tutto il mondo. Questi due chatbot basati sull'IA hanno raggiunto una tale popolarità che molti concorrenti hanno tentato di creare proprie versioni di tali applicazioni. Tuttavia, insieme alla diffusione di strumenti basati sull'IA come ChatGPT, si è verificato anche un aumento dei reati informatici, poiché i criminali hanno escogitato modi per sviluppare proprie varianti di tali strumenti da utilizzare per scopi maliziosi.

WormGPT è uno dei primi chatbot basati sull'IA che è stato associato alla cibercriminalità. Si dice che questo chatbot basato sull'IA sia fondato sul modello linguistico GPT-J open source. Questo modello linguistico è stato creato per la prima volta nel 2021 da Eleuther AI, un gruppo di ricercatori che ha cercato di rendere questa tecnologia disponibile e accessibile a tutti. Con la creazione di questo modello linguistico, i criminali informatici hanno rapidamente colto l'idea di creare un modello AI progettato esclusivamente per scopi malevoli. Sebbene Eleuther AI potrebbe non aver voluto che la sua creazione fosse utilizzata per scopi fraudolenti, la creazione di un'applicazione open source comporta il rischio che attori minacciosi la utilizzino per soddisfare le proprie esigenze. I ricercatori hanno scoperto per la prima volta questo strumento il 13 luglio. Non è chiaro quando è stata creata per la prima volta questa applicazione.

Questa app è stata messa in commercio su forum del dark web per essere utilizzata dai criminali informatici in attacchi di phishing e BEC (compromissione di posta elettronica aziendale). Le e-mail di phishing generate da questa app sono estremamente efficaci perché sono prive di errori grammaticali, riducendo al minimo le probabilità di essere individuate come tentativi di phishing. Oltre alla sua grammatica quasi perfetta, lo strumento è astuto e può personalizzare l'e-mail in modo preciso per ogni attacco.

No alt text provided for this image

Recentemente, i ricercatori hanno scoperto un altro chatbot basato sull'IA che viene utilizzato per scopi malintenzionati. FraudGPT è stato scoperto in mercati del dark web e chat su Telegram il 22 luglio, tuttavia potrebbe essere stato in circolazione su forum del dark web anche prima di quella data. Il modello linguistico utilizzato per sviluppare questa applicazione è attualmente sconosciuto, tuttavia molte persone ipotizzano che possa essere correlato al modello GPT-J.

No alt text provided for this image


Nonostante presenti numerose analogie con WormGPT, FraudGPT mostra alcune differenze. Innanzitutto, FraudGPT funziona attraverso un modello di abbonamento: "$200 al mese, $1000 per 6 mesi o $1700 all'anno". Si potrebbe pensare che questa modalità a pagamento possa scoraggiare molti utenti. Tuttavia, sin dal suo lancio, sono state riportate oltre 3000 vendite confermate e recensioni. Si tratta di un numero sorprendentemente elevato di vendite per uno strumento appena lanciato qualche settimana fa. In secondo luogo, questo programma si discosta da WormGPT poiché offre una serie di abilità oltre alla semplice composizione di e-mail di phishing. Il creatore dell'applicazione, CandianKingpin, afferma che questo bot sarà in grado di creare e-mail di spear phishing, strumenti per il cracking, individuare vulnerabilità e falle, falsificare identità e persino generare codice maligno personalizzato.

Uno dei modi migliori e più importanti per proteggere la tua organizzazione dagli attacchi di phishing e BEC (compromissione di posta elettronica aziendale) ingegnerizzati con l'IA è attraverso la formazione e l'adozione di metodologie di cybersecurity come la Zero Trust. Assicurarsi che i dipendenti siano consapevoli di cosa cercare e cosa fare se ricevono questo tipo di e-mail è fondamentale. Inserire concetti di Identity, di Visibility e compartimentazione come nella ZeroTrust è fondamentale.

La formazione dovrebbe educare i dipendenti su cosa sono gli attacchi BEC, come l'IA può svolgere un ruolo in essi e quali tattiche gli attori minacciosi possono utilizzare per portare l'attacco ancora più avanti. Più preparati sono i tuoi dipendenti, migliore sarà la tua preparazione complessiva. È importante che questa formazione venga aggiornata di tanto in tanto e non sia un evento isolato, ma piuttosto dovrebbe essere continua e aggiornata man mano che evolve il panorama delle minacce informatiche.

La seconda cosa che puoi fare è partire dal presupposto che è una questione di tempo ma dovrai gestire una crisi a seguito di un attacco informatico. Per fare questo devi essere pronto con un piano della gestione della crisi con un "backpack" già selezionato di strumenti e di personale formato a gestire queste situazioni. I danni post attacco sono calcolabili, ma inimmaginabili per molti che non hanno avuto il dispiacere di esserci capitati nel mezzo.

Conclusione: Nel complesso, la tecnologia dell'IA ha avuto un impatto significativo sulla nostra società, con effetti sia positivi che negativi. Da un lato, abbiamo applicazioni come ChatGPT che hanno reso molte attività della nostra vita quotidiana molto più semplici. Tuttavia, dall'altro lato, ci sono anche applicazioni come WormGPT e FraudGPT che cercano di sfruttare le organizzazioni attraverso l'invio di e-mail manipolate e l'uso di altre tattiche. Con l'evoluzione e l'avanzamento dell'IA, assisteremo anche a progressi nei tipi di applicazioni e strumenti che i criminali informatici sviluppano. Questi strumenti utilizzeranno senza dubbio le tecnologie più avanzate. È estremamente importante che ciascuno di noi faccia la propria parte e continui ad aumentare la sicurezza della nostra tecnologia e ad affinare la nostra consapevolezza nella lotta contro i soggetti minacciosi.


Per visualizzare o aggiungere un commento, accedi

Altre pagine consultate