ChatGPT: L’arma segreta dei dipendenti – Come sfuggire alle restrizioni aziendali

0

Secondo un recente articolo di Reuters, molti dipendenti e lavoratori negli Stati Uniti stanno utilizzando ChatGPT e altri strumenti AI per semplificare i compiti basilari, nonostante le preoccupazioni che hanno portato alcune aziende come Microsoft e Google a limitare il loro utilizzo.

ChatGPT è un noto chatbot che utilizza l’intelligenza artificiale generativa per intrattenere conversazioni con gli utenti e rispondere a diverse richieste. Molte aziende di tutto il mondo stanno valutando come utilizzare al meglio questa tecnologia, ma ci sono anche società di sicurezza e altre aziende che sollevano preoccupazioni riguardo alla possibile divulgazione impropria di proprietà intellettuale e strategie aziendali.

Secondo un sondaggio condotto da Reuters/Ipsos, il 28% dei partecipanti ha dichiarato di utilizzare regolarmente ChatGPT sul lavoro, mentre solo il 22% ha affermato che i rispettivi datori di lavoro permettono esplicitamente l’uso di tali strumenti AI esterni. Al contrario, il 10% degli intervistati ha dichiarato che i loro superiori vietano esplicitamente l’uso di strumenti AI esterni e circa il 25% non sa effettivamente quale sia la posizione dell’azienda in merito all’utilizzo di questa tecnologia.

È interessante notare che alcune aziende hanno adottato politiche rigide in merito a ChatGPT: un dipendente di Tinder ha riferito che l’azienda ha una “regola del no ChatGPT”, tuttavia molti lavoratori lo utilizzano comunque per compiti “innocui” come la stesura di e-mail, ma in modo generico per evitare la divulgazione di informazioni riservate.

È importante sottolineare che ChatGPT e altre intelligenze artificiali generative hanno sollevato preoccupazioni riguardo alla privacy. ChatGPT è stato bloccato in Italia per diverse settimane a causa delle normative europee sulla privacy. Inoltre, Google Bard, un’altra intelligenza artificiale generativa, è stata oggetto di preoccupazioni simili. Entrambi i sistemi raccolgono dati come testo e posizione degli utenti.

Per rispondere a queste preoccupazioni, ChatGPT ha permesso agli utenti di vietare la raccolta dei dati o la formazione della cronologia delle chat. Allo stesso modo, Google permette agli utenti di eliminare le attività passate dai propri account e richiedere la rimozione dei contenuti forniti all’intelligenza artificiale.

È importante tenere presente che alcune aziende, come Samsung Electronics, hanno vietato l’uso di ChatGPT e strumenti AI simili da parte del personale in tutto il mondo, dopo aver scoperto un caso in cui un dipendente aveva caricato codice sensibile sulla piattaforma.

Queste sono solo alcune delle questioni legate all’utilizzo di ChatGPT e di altre tecnologie AI nel contesto lavorativo. È evidente che si tratta di un fenomeno in rapida crescita, che solleva sia opportunità che preoccupazioni per le aziende e i lavoratori.

ChatGPT, le aziende lo limitano ma i dipendenti lo usano

Molti dipendenti e lavoratori negli Stati Uniti stanno usando ChatGPT e altri strumenti AI per semplificare il loro lavoro quotidiano, nonostante le preoccupazioni delle aziende come Microsoft e Google. Le società di sicurezza e altre aziende temono una possibile divulgazione inadeguata di proprietà intellettuale e strategie aziendali. Secondo un sondaggio, il 28% dei partecipanti utilizza regolarmente ChatGPT sul lavoro, mentre solo il 22% ha il permesso esplicito dei loro datori di utilizzare questi aiuti esterni. Il 10% degli intervistati ha dichiarato che i loro superiori vietano l’uso di tali strumenti AI, mentre il 25% non sa qual è la posizione dell’azienda. Anche altre intelligenze artificiali generative, come Google Bard, sono state oggetto di preoccupazioni sulla privacy. ChatGPT ha dovuto aggiungere opzioni per consentire agli utenti di vietare la raccolta dei dati, mentre Google permette agli utenti di eliminare le attività passate dai loro account. Alcune aziende, come Tinder, vietano ufficialmente l’uso di ChatGPT, ma i dipendenti lo utilizzano comunque in modo generico per evitare di rivelare informazioni sensibili sull’app. Altre società come Samsung e Alphabet hanno adottato misure simili per limitare l’uso di strumenti AI.