Addio a OpenAI: Dave Willner, il guardiano della fiducia e sicurezza, svela i retroscena scioccanti dietro la sua decisione!

0

Nella giornata odierna, l’amministrazione Biden ha annunciato che sette aziende tecnologiche specializzate nello sviluppo di sistemi di intelligenza artificiale generativa si sono impegnate a seguire una serie di standard per garantire la sicurezza, l’affidabilità e la responsabilità dei loro prodotti di intelligenza artificiale. Tale notizia è stata riportata da diverse fonti, tra cui HDBlog (link: https://www.hdblog.it/tecnologia/articoli/n572123/openai-google-ia-responsabile-casa-bianca/).

Tuttavia, poco prima di questo annuncio congiunto, una delle aziende coinvolte, OpenAI, ha subito una perdita significativa in questo settore. La notizia è stata resa nota attraverso un post pubblicato su LinkedIn da Dave Willner, che fino a giovedì ricopriva il ruolo di capo del team di fiducia e sicurezza di OpenAI. Willner era stato assunto per questa posizione nel febbraio 2022, diversi mesi prima del lancio ufficiale del loro chatbot, ChatGPT (link: https://www.hdblog.it/chatgpt/). Nel suo post, Willner non ha menzionato problemi interni al lavoro come motivo della sua decisione, ma ha dichiarato che stava semplicemente dedicando troppo tempo al lavoro e si allontanava troppo dalla sua famiglia. Ha espresso il seguente concetto: “OpenAI sta attraversando un periodo di intensa attività, così come i nostri figli. Penso che chiunque abbia figli piccoli e un lavoro estremamente impegnativo possa comprendere questa tensione, e negli ultimi mesi ho realizzato che avrei dovuto dare la priorità a uno o all’altro”.

Nonostante non lavorerà più a tempo pieno per OpenAI, Willner ha affermato che continuerà a collaborare con l’azienda come consulente. Al momento non è ancora stato annunciato chi prenderà il suo posto come nuovo capo del team di fiducia e sicurezza.

Va sottolineato che sia OpenAI che il suo chatbot ChatGPT hanno ricevuto una crescente attenzione a causa di diverse problematiche legali. Alcune cause legali sostengono che ChatGPT abbia violato il copyright creando illegalmente riassunti di romanzi e libri. Inoltre, sia OpenAI che il chatbot di Microsoft, Bing Chat, sono stati accusati di utilizzare dati per addestrare i loro chatbot senza il consenso delle persone che hanno fornito tali dati. Recentemente, la Federal Trade Commission degli Stati Uniti ha avviato un’indagine per verificare se OpenAI e ChatGPT abbiano violato leggi e regolamenti sulla protezione dei consumatori. HDBlog ha riportato ulteriori approfondimenti su questa vicenda (link: https://www.hdblog.it/sicurezza/articoli/n571902/openai-indagine-ftc-accordo-stampa/).

Dave Willner, leader del team trust and safety di OpenAI lascia l’azienda

L’amministrazione Biden ha annunciato che sette aziende tecnologiche stanno seguendo standard per rendere i loro prodotti di intelligenza artificiale sicuri e responsabili. Tuttavia, prima di questo annuncio, una delle aziende coinvolte, OpenAI, ha avuto una perdita di personale nel dipartimento di fiducia e sicurezza. Nonostante ciò, il ex dipendente continuerà a lavorare come consulente per l’azienda. OpenAI e il suo chatbot ChatGPT sono stati coinvolti in cause legali riguardanti violazioni del copyright e l’uso non autorizzato dei dati per addestrare il chatbot. Di recente, la Federal Trade Commission degli Stati Uniti ha aperto un’indagine su OpenAI e ChatGPT per verificare se abbiano violato le leggi sulla protezione dei consumatori.