La fusione dell’intelligenza artificiale: Google, Microsoft, OpenAI si uniscono per un futuro eccezionale

0

Google, Microsoft e OpenAI si sono recentemente unite per sviluppare un nuovo modello di apprendimento unificato, caratterizzato da maggiore sicurezza e responsabilità. La notizia è stata inizialmente diffusa da Google, che ha annunciato sul proprio sito web che il progetto mira a facilitare l’integrazione dell’Intelligenza Artificiale (IA) in ogni ambito, dalla politica alla sicurezza personale.

Non si tratta di una novità assoluta, poiché società come OpenAI da tempo si dedicano alla creazione di modelli di apprendimento più precisi e accessibili. Brad Smith, vicepresidente e presidente di Microsoft, ha dichiarato che “le aziende che sviluppano tecnologia AI hanno la responsabilità di garantire che sia sicura, protetta e rimanga sotto il controllo umano. Questa iniziativa è un passo fondamentale per riunire il settore tecnologico nel far progredire l’IA in modo responsabile e affrontare le sfide in modo che vada a beneficio di tutta l’umanità”.

Al momento, l’uso di questa nuova “features” sarà limitato alle società in grado di distribuire il prodotto finale su larga scala e solo se il modello supererà le prestazioni dei modelli attuali. Il progetto è definito sul blog come “Frontier Model Forum”, una sorta di “Bibbia” per l’integrazione e lo sviluppo dell’IA. Inoltre, le società coinvolte nel progetto diventeranno punti di riferimento per decisioni e consulenze con i governi.

Non sono solamente Google, Microsoft e OpenAI ad aver intrapreso questo percorso nell’ambito dell’IA, infatti anche Partnership for AI e MLCommons si stanno dirigendo verso la stessa direzione.

Google, Microsoft, OpenAI uniscono le intelligenze artificiali

Google, Microsoft e OpenAI hanno deciso di collaborare per sviluppare un nuovo modello di apprendimento unificato più sicuro e responsabile. Il progetto mira a integrare l’intelligenza artificiale in vari ambiti, dalla politica alla sicurezza personale. OpenAI ha da tempo cercato di creare modelli di apprendimento più precisi e facili da usare, con l’obiettivo di garantire che l’IA rimanga sicura e sotto il controllo umano. Questa collaborazione è considerata un passo fondamentale per far progredire l’IA in modo responsabile e per affrontare le sfide a beneficio dell’intera umanità. Inizialmente, l’utilizzo del nuovo modello sarà limitato alle aziende che riescono a distribuire il prodotto implementato su larga scala e solo se supera le prestazioni dei modelli attuali. Il progetto, chiamato “Frontier Model Forum”, diventerà un punto di riferimento per l’integrazione e lo sviluppo dell’IA e le società coinvolte saranno consultate anche dai governi. Altre organizzazioni come Partnership for AI e MLCommons hanno deciso di seguire la stessa direzione.

Fonte