Il nuovo pericolo invisibile: Chatbot, l’intelligente minaccia AI che diffuse malware a sorpresa!

0

L’utilizzo di chatbot basati sull’Intelligenza Artificiale (IA) sta diventando sempre più diffuso in diversi settori, ma di recente è emersa una tendenza preoccupante: l’utilizzo di questi chatbot per generare malware e condurre attacchi informatici.

Circa due settimane fa è stato scoperto WormGPT, un chatbot creato da cybercriminali. Da allora, sono comparsi online altri chatbot malevoli come FraudGPT, DarkBART e DarkBERT, versioni “black hat” dei noti chatbot di OpenAI e Google.

FraudGPT è stato annunciato il 25 luglio come uno strumento progettato per truffatori, hacker e spammer. Il suo autore, conosciuto come “CanadianKingpin12”, ha dichiarato che il chatbot può scrivere codici malware, creare pagine di phishing, redigere lettere per truffe e individuare vulnerabilità nei software. Gli esperti di SlashNext hanno anche scoperto un video che illustra le funzionalità di FraudGPT. Durante una conversazione privata, CanadianKingpin12 ha affermato che FraudGPT è superiore a WormGPT e ha rivelato di aver avviato lo sviluppo di un altro chatbot chiamato DarkBART, una versione oscura di Google Bard. Un secondo chatbot, DarkBERT, sfrutta l’omonimo modello sviluppato da ricercatori sudcoreani per combattere il cybercrimine.

CanadianKingpin12 ha ottenuto accesso al modello di IA probabilmente tramite dati rubati da un’istituzione accademica. La versione oscura può creare campagne di phishing per rubare password e dati delle carte di credito, creare e distribuire malware, effettuare attacchi di ingegneria sociale, fornire informazioni su vulnerabilità zero-day e sfruttare vulnerabilità di software, computer e reti.

Sia DarkBART che DarkBERT sono in grado di elaborare immagini grazie all’integrazione di Google Lens, e i loro sviluppatori presto offriranno le API che permetteranno di integrarli con altri strumenti utilizzati dai cybercriminali.

La scoperta di questi chatbot malevoli solleva anche questioni etiche e legali. Chi sviluppa queste tecnologie ha la responsabilità di prevenire il loro uso improprio? Come possono le autorità regolamentare controllare l’utilizzo di chatbot in questo contesto?

Chatbot, allarme AI in grado di diffondere malware di ogni tipo

L’uso di chatbot basati sull’intelligenza artificiale (IA) sta diventando sempre più comune in vari settori, ma recentemente è emersa una tendenza preoccupante: il loro utilizzo per generare malware e condurre attacchi informatici. È stato scoperto un chatbot chiamato WormGPT, creato da cybercriminali, e da allora sono apparsi online altri chatbot malevoli come FraudGPT, DarkBART e DarkBERT, versioni “black hat” dei noti chatbot di OpenAI e Google. FraudGPT è stato progettato per truffatori, hacker e spammer e può scrivere codici malware, creare pagine di phishing, scrivere lettere per truffe e trovare vulnerabilità nei software. Sono stati sviluppati anche DarkBART e DarkBERT, che utilizzano modelli specifici per combattere il cybercrimine. L’autore di questi chatbot ha ottenuto l’accesso al modello IA attraverso dati rubati da un’istituzione accademica. Questi chatbot possono elaborare immagini grazie a Google Lens e presto verranno offerte API per integrarli in altri strumenti utilizzati dai cybercriminali. La scoperta di questi chatbot solleva anche domande etiche e legali sulle responsabilità di chi li sviluppa e sul ruolo delle autorità regolamentari nel monitorarne l’uso.

Fonte