Le applicazioni dell’intelligenza artificiale non sempre portano effetti positivi, infatti i cybercriminali stanno già sviluppando chatbot malevoli per commettere frodi e furti di vario genere.
L’avvento dell’IA promette di rivoluzionare la tecnologia, l’arte e la nostra vita quotidiana. Tuttavia, come accade spesso con le nuove tecnologie e i mezzi di comunicazione, l’opinione pubblica si divide tra coloro che vedono un futuro apocalittico e coloro che accolgono l’innovazione con entusiasmo, ma con un certo timore riguardo ai possibili utilizzi malevoli.
Questa posizione è ragionevole, poiché la storia ci insegna che molte invenzioni potenzialmente positive sono state utilizzate con intenti nefasti. Internet stesso ne è un esempio: una risorsa straordinaria per l’acquisizione di conoscenza, ma anche un luogo fertile per truffe, fake news e virus informatici. Anche il campo dell’IA non sfugge a questa dicotomia: ChatGPT e altre piattaforme promettono di migliorare la produttività, la ricerca scientifica e l’espressione artistica, ma sollevano anche dubbi dal punto di vista etico e morale. Inoltre, si sta delineando un nuovo e preoccupante fenomeno: l’uso delle AI per la cybercriminalità.
Recentemente sono state segnalate le prime manifestazioni di AI criminali nel dark web. Si tratta di chatbot sviluppati da hacker e ricercatori che, se finiscono nelle mani di cybercriminali, possono essere utilizzati per commettere crimini informatici. Alcuni nomi sono già trapelati, segno che il fenomeno sta assumendo dimensioni inquietanti: WormGPT, FraudGPT, DarkBART sono solo alcuni esempi di AI create da individui senza scrupoli e diffuse da programmatori con intenzioni tutto fuorché lodevoli.
Secondo le voci che circolano, spesso si tratta di versioni modificate di algoritmi di chatbot legittimi come ChatGPT o Google Bard, adattate appositamente per commettere truffe online di vario tipo. Ad esempio, FraudGPT sarebbe in grado di generare autonomamente codice malevolo, creando malware e strumenti di phishing per accedere a dati personali e rubare informazioni riservate agli utenti online. Questo strumento è stato descritto anche da The Economic Times come un mezzo utilizzato dagli hacker per inviare e-mail apparentemente innocue che, una volta aperte o cliccate, consentono l’installazione di virus e malware sui PC degli utenti.
Alcuni di questi chatbot, come DarkBART e DarkBERT, sono modelli basati su modifiche del modello di Google Bard e offrono anche la possibilità di integrare funzionalità di riconoscimento delle immagini tramite Google Lens. Inoltre, questi nuovi modelli di chatbot si distinguono perché possono eseguire comandi basati su azioni più complesse e non solo su singole richieste. Ciò significa che sono più “programmabili” e possono essere utilizzati per scopi malevoli come attacchi informatici a siti governativi, spionaggio industriale e altri crimini informatici, sfruttando le risorse del dark web.
Il problema è che questi strumenti si diffondono rapidamente e sono difficili da controllare, pertanto diventa sempre più indispensabile che gli utenti mantengano una condotta responsabile e vigilante online per evitare di cadere vittime di truffe o furto di dati.
Doveva accadere: alcune AI confezionate sono vendute nel Dark Web per scopi criminali
Le applicazioni dell’intelligenza artificiale non sono solo positive, ma anche i cybercriminali stanno sviluppando chatbot malevoli per compiere frodi e furti. Nonostante le promesse di rivoluzione della tecnologia, l’arte e la vita quotidiana, i cambiamenti portati dall’IA possono avere conseguenze negative. Come per molte altre tecnologie, c’è una divisione tra coloro che ne vedono solo i lati positivi e coloro preoccupati per possibili utilizzi malevoli. Nell’ambito dell’IA si sta sviluppando un nuovo fenomeno preoccupante: le AI nelle mani dei cybercriminali. Sono comparsi sul dark web i primi esempi di chatbot criminali sviluppati da hacker con il preciso scopo di commettere crimini informatici. Questi chatbot, come WormGPT, FraudGPT e DarkBART, sono versioni distorte di modelli legittimi e possono essere utilizzati per commettere truffe online di vario genere, come l’invio di malware attraverso email apparentemente innocue. Questi strumenti, come DarkBART e DarkBERT, sono basati su modifiche del modello di Google Bard e promettono di integrare l’identificazione di immagini tramite Google Lens. Sono più programmabili dei modelli noti al grande pubblico e possono essere utilizzati per scopi malevoli come attacchi hacker a siti governativi o spionaggio industriale. Questi strumenti si diffondono rapidamente e sono difficili da controllare, quindi è essenziale per gli utenti essere responsabili e vigili sul web per evitare di cadere vittime di truffe o furti di dati.