vai al contenuto principale

ChatGPT, nuovi allarmi per malware sofisticati e phishing

ChatGPT è l’argomento del momento, perché sembra che l’Intelligenza artificiale (IA) sia salita un altro gradino della propria scala evolutiva.

Si tratta, per chi non lo sapesse, di una nuova popolare chatbot AI che ha guadagnato una popolarità significativa, superando il milione di utenti sulla piattaforma.

Si è visto però che ChatGPT e la sua popolarità rappresentano anche un rischio come potenziale strumento per i criminali informatici.

Spear phishing e siti ingannevoli

Una recente ricerca ha messo in luce come attraverso query specifiche e costruite ad arte, ChatGPT sia uno strumento perfetto che, nelle mani di un malintenzionato, aiuta a realizzare attacchi di spear phishing.

La ricerca evidenzia con maggiore enfasi quella che, allo stato attuale sembra essere la minaccia più rilevante: la nascita di siti di phishing che sfruttano l’hype su ChatGPTSono già centinaia solo nelle ultime settimane.

In particolare, i ricercatori di sicurezza hanno rilevato campagne che cercano di rendere credibile la frode sfruttando domini simili a quello di ChatGPT, con pagine dall’aspetto pressoché identico che spesso traggono in inganno le potenziali vittime. La motivazione che spinge queste campagne di phishing è la proposta di un nuovo servizio ChatGPT, integrato con un certo prodotto allettante, per convincere il destinatario a inserire le proprie credenziali al fine di rubarle e raccogliere account che, in un secondo momento, possono essere sfruttati in altri attacchi mirati.

Sembra inoltre che ChatGPT possa aiutare nella stesura del testo dei messaggi utilizzati come esca, magari multilingua, con una grammatica priva di errori e più simile ad una comunicazione autentica dal punto di vista tecnico.

Essenziale, quindi, come sempre accade davanti a questo genere di truffe, saper riconoscere mittenti e intestazioni dei messaggi, nonché diffidare di comunicazione particolarmente urgenti e inattese.

ChatGpt e il malware polimorfico

Per concludere, in relazione alle recenti ricerche nei confronti dell’AI in ambito di criminalità informatica, si evidenzia come ChatGPT possa essere facilmente utilizzato per creare malware polimorfici.

Le funzionalità avanzate di tale malware possono facilmente aggirare i prodotti di sicurezza e renderne estremamente difficile la gestione, senza che l’avversario faccia molti sforzi o investimenti.

Il concetto di creazione di malware polimorfico con ChatGPT può sembrare complicato, ma in realtà la sua implementazione è relativamente semplice.

Utilizzando la capacità di ChatGPT di generare varie tecniche di persistenza, moduli Anti-VM e altri payload dannosi, le possibilità di sviluppo di malware sono molto ampie. Senza entrare nei dettagli tecnici della comunicazione con il server C&C (comando e controllo), è importante sapere che ci sono diversi modi per farlo in modo discreto e senza destare sospetti.

Conclusioni

L’ascesa delle chatbot e delle tecnologie AI ha portato a una nuova era di automazione, con chatbot e malware-as-a-service che diventano sempre più comuni.

Non ci stancheremo mai di ripetere che oggi, qualsiasi azienda, se vuole sopravvivere a queste minacce deve avvalersi di un‘ottima strategia di cyber security, perché le possibilità di attacco sono sempre più numerose e sempre più gravi. Solo dotandosi degli strumenti migliori e all’avanguardia. si riuscirà a proteggere la propria impresa.

Noi di Comitel, forti della nostra esperienza pluridecennale e avvalendoci della collaborazione con i migliori partner del settore, offriamo le tecnologie di cyber security più avanzate sul mercato, per permettere ai nostri clienti di salvare il proprio business, proteggere i dati al 100% e riprendere l’attività lavorativa in meno di 15 minuti.

Torna su