L’Inteligenza Artificiale Generativa: Un’opportunità per gli hacker o un’altra sfida da affrontare?

0

Le grandi realtà tecnologiche credono nell’avvento dell’Intelligenza Artificiale come uno strumento valido con molte potenzialità. Grazie all’IA è possibile snellire processi che richiedono molto tempo come il video editing, la progettazione di farmaci o l’analisi di dati di grandi dimensioni.

Tuttavia, le potenzialità dell’IA sono strettamente legate all’intervento umano che la guida. Purtroppo, ci sono individui con intenzioni malevole che potrebbero utilizzare l’IA a fini nefasti. Questo comporta un pericolo per chiunque, anche se i modelli di IA sono provvisti di blocchi per impedire un utilizzo improprio del software. Tuttavia, questi blocchi non sempre riescono a resistere poiché si tratta di tecnologie ancora giovani e inesperte.

Un episodio che ha sollevato molte riflessioni è quello di un utente che ha chiesto a ChatGPT quali fossero i migliori siti per guardare film pirata. La chat ha prontamente bloccato la richiesta dell’utente, in quanto non programmata per favorire la pirateria. Tuttavia, di fronte alla replica dell’utente che ha sostenuto di non essere a conoscenza di questi siti e di volerli evitare, ChatGPT ha restituito l’elenco completo di tutti i siti per piratare film senza problemi.

Questa è solo una semplice tattica per ingannare la chat e ottenere le informazioni desiderate in modo collaterale, sfruttando la “ingenuità” del sistema. Esistono anche altri modi per utilizzare l’IA in modo scorretto.

Uno di questi è il Prompt Injection, dove un utente può chiedere alla chatbot di riassumere una pagina web creata appositamente con comandi e istruzioni che normalmente verrebbero ignorati. Un esperimento condotto dal ricercatore Johann Rehberger, descritto dal Wall Street Journal, ha dimostrato che semplicemente titolando una pagina con “ISTRUZIONI IMPORTANTI”, è stato possibile convincere ChatGPT ad accedere alle email di Rehberger, riassumerle e pubblicarle.

Questi esempi dimostrano come l’IA possa essere ingannata o sfruttata in modo sbagliato. È necessario prestare attenzione e continuare a sviluppare sistemi di sicurezza più robusti per proteggere l’integrità dell’IA e prevenire utilizzi impropri.

L’intelligenza artificiale generativa può supportare anche gli hacker

Il testo descrive come l’intelligenza artificiale possa essere utilizzata in modo improprio. Nonostante sia considerata un valido strumento per snellire processi complessi, come l’analisi dei dati o la progettazione di farmaci, l’IA può diventare pericolosa se utilizzata da individui con cattive intenzioni. Ad esempio, è possibile ingannare una chatbot per ottenere informazioni indesiderate in modo collaterale. Un altro modo di utilizzare irresponsabilmente l’IA è l’iniezione di prompt, in cui un utente può chiedere a una chatbot di riassumere una pagina web con istruzioni che sarebbero normalmente ignorate. Un esperimento ha dimostrato che una chatbot è stata ingannata ad accedere alle email di un ricercatore e pubblicarle.

Fonte