Anthropic, Google, Microsoft e OpenAI hanno fondato il Frontier Model Forum, un organismo per il controllo dell’intelligenza artificiale, in particolare dei modelli di machine learning di frontiera che superano le capacità dei modelli più avanzati attualmente disponibili. Questa iniziativa sembra essere una solida risposta alla promessa fatta al presidente degli Stati Uniti e formalizzata all’amministrazione Biden il 21 luglio.
I quattro membri di questa iniziativa hanno partecipato alla Casa Bianca insieme ad Amazon, Meta e Inflection, promettendo a Joe Biden di prendere tutte le precauzioni necessarie per sviluppare prodotti di intelligenza artificiale sicuri e privi di rischi per la sicurezza informatica, la biosicurezza e la sicurezza della società. Questi sono aspetti che preoccupano molti esperti del settore. L’unica assente da entrambe le iniziative sembra essere Apple.
“Stiamo costituendo un nuovo organismo di settore per promuovere lo sviluppo sicuro e responsabile dei sistemi di intelligenza di frontiera: avanzando nella ricerca sulla sicurezza dell’IA, identificando le migliori pratiche e gli standard migliori, e facilitando la condivisione delle informazioni tra i responsabili politici e l’industria”, afferma un comunicato del Frontier Model Forum.
Non sappiamo se Apple sia stata coinvolta nel Frontier Model Forum, ma la sua mancanza nell’iniziativa precedente della Casa Bianca, considerando il suo coinvolgimento attivo nell’intelligenza artificiale, non è passata inosservata. Tuttavia, ci sono alcune possibili motivazioni per questa assenza. Potrebbe essere che Apple non consideri i propri prodotti basati sull’intelligenza artificiale pericolosi, che non voglia condividere segreti con potenziali concorrenti o che non consideri una simile iniziativa particolarmente sensata. È interessante notare che Apple fa già parte, insieme a Microsoft e Google, della Partnership Of Ai, un’organizzazione simile al Frontier Model Forum fondata nel 2016.
Mentre per alcuni queste iniziative potrebbero sembrare solo delle illusioni, per Emily Bender, esperta di intelligenza artificiale dell’Università di Washington, rappresentano qualcosa di ancora peggiore. Secondo l’esperta, dovrebbero essere i governi, in rappresentanza del popolo, a imporre limiti alle corporation. Non è certo compito delle corporation auto-regolarsi, poiché ciò non fa altro che cercare di evitare le regole. Tuttavia, va detto che per avere regole sensate, è necessario che gli organi governativi siano in grado di comprendere le nuove frontiere della tecnologia, il che non è banale.
un sodalizio per il controllo dell’IA, senza Apple
Le società Anthropic, Google, Microsoft e OpenAI hanno creato il Frontier Model Forum, un organo di controllo dell’intelligenza artificiale. Questo è una risposta alla promessa fatta al presidente degli Stati Uniti e resa ufficiale all’amministrazione Biden il 21 luglio. I membri del Frontier Model Forum hanno promesso di sviluppare prodotti di intelligenza artificiale sicuri, senza rischi per la sicurezza informatica, la biosicurezza e la sicurezza della società. Apple non è coinvolta in queste iniziative. Stanno creando un nuovo organismo per promuovere lo sviluppo sicuro e responsabile dei sistemi di intelligenza artificiale. Non sappiamo se Apple sia stata coinvolta, ma la sua assenza dall’iniziativa della Casa Bianca è stata notata. Ci sono diverse possibili motivazioni per questa assenza da parte di Apple. Tuttavia, Apple fa parte della Partnership Of Ai, un’organizzazione simile al Frontier Model Forum fondata nel 2016 insieme a Microsoft e Google. Secondo Emily Bender, esperta di intelligenza artificiale, dovrebbero essere i governi a imporre limiti alle corporazioni e non il contrario. Tuttavia, è importante avere organi governativi competenti nelle nuove frontiere della tecnologia.