ChatGPT vietato da sempre più aziende: scopri perché questa decisione potrebbe rivelarsi un errore grave

0

Sempre più aziende stanno prendendo la decisione di vietare l’uso di strumenti di intelligenza artificiale generativa come ChatGPT, a causa di preoccupazioni riguardanti la privacy, la sicurezza e la reputazione aziendale. Secondo un nuovo rapporto pubblicato da BlackBerry, il 66% delle aziende intervistate ha dichiarato che proibirà i chatbot AI e altri strumenti simili sul posto di lavoro. Inoltre, il 76% dei responsabili IT ritiene che i datori di lavoro debbano avere il diritto di controllare il software utilizzato dai dipendenti per le proprie attività lavorative.

Il 69% delle organizzazioni che hanno implementato tali divieti ha dichiarato che saranno permanenti o a lungo termine, poiché questi strumenti rappresentano un rischio per la sicurezza e la privacy aziendale. Tuttavia, solo il 54% delle organizzazioni riconosce che un’IA potente come ChatGPT potrebbe aumentare la produttività grazie alla sua capacità di svolgere compiti più rapidamente rispetto agli esseri umani.

Un conflitto sorge quando si considera che il 66% degli ITDM (Decision Makers nell’ambito dell’Information Technology) ritiene che tali divieti equivalgano a un “controllo eccessivo” sui dispositivi aziendali e BYO (Bring Your Own). D’altra parte, il 74% si è detto favorevole all’utilizzo dell’IA generativa per fini di cybersicurezza, al fine di contrastare l’uso dell’IA da parte degli aggressori.

Nonostante i potenziali vantaggi che strumenti come ChatGPT possono offrire, le aziende sono state spaventate dalle storie riguardanti la divulgazione di dati sensibili su questa piattaforma. Ad esempio, i dipendenti di Samsung hanno inserito informazioni riservate nelle conversazioni con ChatGPT, e queste informazioni ora si trovano sui server di OpenAI, sviluppatori dell’IA. Questo ha portato a preoccupazioni sulla possibilità di eliminarle definitivamente.

Al fine di attenuare le preoccupazioni in materia di violazioni della privacy dei dati, Microsoft sta lavorando alla creazione di una versione più sicura del modello GPT, che non invia i dati aziendali ai server pubblici di OpenAI. In sintesi, le aziende stanno diventando sempre più caute nell’uso di strumenti di intelligenza artificiale generativa a causa delle preoccupazioni per la sicurezza e la privacy, ma riconoscono anche i potenziali vantaggi che tali strumenti possono offrire in termini di produttività.

ChatGPT vietato da sempre più aziende, ma è un errore

Le aziende stanno sempre più vietando l’uso di strumenti di intelligenza artificiale generativa come ChatGPT, per via delle preoccupazioni legate alla privacy, alla sicurezza e alla reputazione. Secondo un rapporto di BlackBerry, il 66% delle aziende intervistate ha dichiarato di vietare l’uso di chatbot AI e strumenti simili sul luogo di lavoro, mentre il 76% degli IT manager è d’accordo sul fatto che i datori di lavoro abbiano il diritto di controllare il software utilizzato dai dipendenti. Inoltre, il 69% delle organizzazioni che hanno implementato il divieto ha dichiarato che sarà permanente o a lungo termine, a causa dei rischi per la sicurezza e la privacy dell’azienda. Tuttavia, solo il 54% delle organizzazioni riconosce che un’IA potente come ChatGPT potrebbe aumentare la produttività, nonostante la sua capacità di svolgere compiti più velocemente rispetto agli esseri umani. Alcuni ritengono che questi divieti siano un eccessivo controllo sui dispositivi aziendali. Tuttavia, quando si tratta dell’uso di intelligenza artificiale generativa per la sicurezza informatica, il 74% si è detto favorevole, per contrastare l’uso dell’IA da parte di aggressori che possono sviluppare e distribuire malware. Secondo il CTO della Cybersecurity di BlackBerry, vietare le applicazioni di IA generativa sul luogo di lavoro potrebbe annullare potenziali vantaggi aziendali e si consiglia un approccio più misurato con la giusta visibilità, monitoraggio e gestione delle applicazioni utilizzate. Le aziende sono state spaventate dalle storie di lavoratori che hanno svelato dati sensibili attraverso ChatGPT, come nel caso dei dipendenti di Samsung. Microsoft sta sviluppando una versione più sicura del modello GPT per attenuare tali preoccupazioni.