I watermark di OpenAI, Google e altri grandi protagonisti: una svolta nel mondo della sicurezza e dell’autenticità digitale

0

Le principali notizie riguardanti l’intelligenza artificiale e la sua relazione con i contenuti generati sono state al centro dell’attenzione negli ultimi tempi. Recentemente, Reddit ha ironizzato sulle notizie generate dall’IA, ma nel frattempo, si è verificata una svolta significativa. Sette importanti realtà del settore, tra cui OpenAI, Google, Microsoft, Meta, Amazon, Anthropic e Inflection, hanno annunciato di voler introdurre dei “watermark” per rendere riconoscibili i contenuti generati dall’IA.

Secondo quanto riportato da Ars Technica e Reuters, queste aziende hanno promesso all’amministrazione Biden di adottare misure concrete per garantire la sicurezza dei sistemi di intelligenza artificiale. L’obiettivo principale di queste azioni è ostacolare la diffusione di deepfake e disinformazione. L’idea è quella di creare un “sistema condiviso” tra le sette società per identificare i contenuti generati dall’IA, includendo testo, video, audio e immagini.

Al momento, i dettagli specifici su come verranno implementati questi watermark non sono ancora noti, ma questa iniziativa rappresenta una dichiarazione di intenti chiara e significativa. Per saperne di più, è possibile consultare il blog ufficiale di OpenAI, così come i comunicati di Microsoft e Google, che hanno entrambi espresso il loro impegno per un’IA sicura e responsabile. In particolare, Google ha menzionato l’uso di metadati in questa iniziativa.

Questo passo avanti nel settore è visto come un’opportunità per riunire l’intero settore e garantire che l’intelligenza artificiale possa essere utile per tutti.

in arrivo i watermark da OpenAI, Google e altri

Sette grandi aziende, tra cui OpenAI, Google, Microsoft, Meta, Amazon, Anthropic e Inflection, hanno promesso di adottare misure concrete per rendere più sicuri i sistemi di intelligenza artificiale. È stato proposto l’introduzione di watermark per rendere riconoscibili i contenuti generati dall’IA, come testo, video, audio e immagini, al fine di contrastare i deepfake e la disinformazione. L’obiettivo è creare un sistema condiviso che possa fare chiarezza su quali contenuti siano stati generati usando l’IA. Le aziende hanno anche annunciato un impegno a favore di una governance responsabile dell’IA e di garantire che l’IA sia utile a tutti.