Un incidente causato da alcuni dipendenti imprudenti di Samsung e dall’utilizzo non regolamentato delle intelligenze artificiali ha spinto Microsoft a prendere misure precauzionali per garantire la sicurezza e la privacy. Nel marzo 2023, sono stati licenziati alcuni dipendenti di Samsung che avevano utilizzato in modo rischioso l’intelligenza artificiale conversazionale ChatGPT sviluppata da OpenAI, rivelando informazioni aziendali sensibili all’IA e condividendole con concorrenti o media. Questo incidente ha sollevato preoccupazioni sulla sicurezza dell’utilizzo delle intelligenze artificiali da parte delle aziende, poiché strumenti come ChatGPT possono essere utilizzati per generare testi coerenti e realistici, rendendo possibile il furto di informazioni sensibili. Pertanto, le aziende che utilizzano l’IA stanno adottando misure per proteggere i propri dati e implementando controlli più rigorosi per impedire l’accesso indesiderato.
Nel caso di Samsung, l’incidente ha avuto un impatto significativo sull’azienda, che ha dovuto licenziare dipendenti e affrontare una perdita di reputazione. Questo incidente ha spinto l’azienda a rivedere le politiche sull’utilizzo dell’IA, affermando che adotterà controlli più rigorosi per impedire l’accesso non autorizzato ai dati da parte di terze parti.
L’utilizzo dell’intelligenza artificiale presenta sia vantaggi che rischi per la sicurezza. Infatti, l’IA può essere utilizzata per migliorare la sicurezza, rilevando anomalie nei dati che potrebbero indicare attacchi informatici, automatizzando attività di sicurezza come la scansione dei file e fornendo una visione completa della rete aziendale per identificare e mitigare le minacce. Tuttavia, l’IA può anche essere utilizzata per creare malware sofisticati che evadono i tradizionali sistemi di sicurezza o diffondere disinformazione danneggiando la reputazione delle aziende.
Per evitare controversie e garantire una maggiore sicurezza, aziende come Google e Microsoft stanno adottando misure specifiche, come controlli di sicurezza per l’IA e la formazione dei dipendenti sui rischi correlati al suo utilizzo. Proprio Microsoft ha sviluppato una versione di Bing Chat adatta alle aziende, che permette di utilizzare il chatbot per il lavoro senza rischi di violazione della sicurezza. Tuttavia, l’utilizzo di chatbot comporta rischi per la privacy, poiché i modelli linguistici di grandi dimensioni possono utilizzare le conversazioni degli utenti per migliorare le risposte e le cronologie delle chat vengono salvate sui server aziendali.
A seguito dell’incidente di Samsung, molte aziende, incluso Google, hanno vietato o messo in guardia sull’utilizzo di ChatGPT sul posto di lavoro. Tuttavia, OpenAI ha introdotto la possibilità di non condividere la cronologia delle chat per risolvere i problemi di privacy. Nel caso di Microsoft, la società ha presentato Bing Chat Enterprise, una versione sicura di Bing Chat per le aziende, che non salva i dati delle chat, non utilizza le conversazioni per addestrare i modelli linguistici e non ha “alcun accesso” alle conversazioni. Questa misura è stata implementata per evitare incidenti come quello avvenuto con Samsung.
Si corre ai ripari su privacy e AI, Microsoft mette una toppa e presenta un nuovo progetto
Pochi mesi fa, alcuni dipendenti imprudenti di Samsung sono stati licenziati per aver utilizzato in modo rischioso l’intelligenza artificiale conversazionale ChatGPT. Questi dipendenti avrebbero condiviso informazioni aziendali sensibili con concorrenti o media. Questo incidente ha sollevato preoccupazioni sulla sicurezza nell’utilizzo dell’intelligenza artificiale e le aziende stanno cercando di adottare misure per proteggere i propri dati. Samsung è stata costretta a licenziare i dipendenti coinvolti e a rivedere le politiche sull’uso dell’IA.
L’IA può essere utilizzata per migliorare la sicurezza, ma presenta anche rischi come la creazione di malware sofisticati e la diffusione di disinformazione. Google e Microsoft stanno adottando misure di sicurezza specifiche per l’IA e stanno formando i dipendenti sui rischi. Microsoft ha annunciato una versione di Bing Chat adatta alle aziende, che offre funzioni di sicurezza per evitare violazioni della sicurezza. Tuttavia, l’utilizzo di chatbot comporta rischi per la privacy, quindi Microsoft ha assicurato che i dati delle chat in Bing non verranno salvati o utilizzati per addestrare modelli linguistici.