Deepfake: il nemico invisibile tra le nostre voci! Scopri come destreggiarti nella lotta contro l’inganno

0

Un recente studio condotto dall’Università di Londra (UCL) ha evidenziato la difficoltà degli esseri umani nel riconoscere discorsi deepfake generati artificialmente. Questa ricerca, pubblicata sulla rivista scientifica PLOS ONE, rappresenta il primo studio del genere ad analizzare la capacità di individuare discorsi generati artificialmente in una lingua diversa dall’inglese. I deepfake sono contenuti multimediali sintetici progettati per assomigliare alla voce di una persona reale e rientrano nell’ambito dell’intelligenza artificiale generativa (IA), un ramo del machine learning che addestra algoritmi a riprodurre suoni o immagini originali.

Per condurre lo studio, il team di ricerca dell’UCL ha utilizzato un algoritmo text-to-speech (TTS) addestrato su due diverse raccolte di dati pubblicamente disponibili, una in lingua inglese e una in mandarino, per generare 50 campioni di discorsi deepfake in entrambe le lingue. I campioni artificialmente generati sono stati attentamente selezionati per evitare qualsiasi somiglianza con gli input originali utilizzati per addestrare l’algoritmo.

Successivamente, questi campioni di discorsi deepfake e campioni di discorsi genuini sono stati presentati a 529 partecipanti, al fine di valutare la capacità umana di riconoscere la differenza tra realtà e falsità. I risultati hanno dimostrato che i partecipanti sono stati in grado di individuare il discorso deepfake il 73% delle volte, con un lieve miglioramento dell’accuratezza dopo aver ricevuto una formazione specifica per riconoscere gli aspetti distintivi dei discorsi generati artificialmente. Tuttavia, nonostante il 73% sembri un risultato significativo, la UCL è preoccupata da questo dato, soprattutto considerando che i partecipanti erano stati addestrati appositamente.

Kimberly Mai, membro della facoltà di Informatica dell’UCL e prima autrice dello studio, ha sottolineato che queste scoperte confermano che gli esseri umani stanno iniziando ad avere difficoltà nel rilevare discorsi deepfake, anche quando vengono formati a farlo. La ricerca ha utilizzato algoritmi relativamente datati, sollevando dubbi sulle capacità di individuare discorsi generati con le tecnologie più sofisticate attualmente disponibili e in futuro.

L’avvento di algoritmi di deepfake sempre più avanzati e l’ampia disponibilità di strumenti open-source hanno sollevato preoccupazioni riguardo al loro possibile utilizzo da parte di criminali e stati nazionali per danneggiare individui e società. Sebbene la tecnologia di generazione audio dell’IA offra benefici, come una maggiore accessibilità per le persone con limitazioni nella capacità di parlare a causa di malattie o disabilità, le minacce legate all’abuso di questa tecnologia sono innegabili.

Pertanto, i ricercatori dell’UCL riconoscono la necessità di sviluppare sistemi automatizzati di rilevamento dei discorsi deepfake per contrastare questa minaccia di contenuti audio e visivi generati artificialmente. Il professor Lewis Griffin, coautore dello studio, sottolinea che, sebbene sia importante prepararsi per affrontare gli abusi, è altrettanto cruciale riconoscere le potenzialità positive offerte da questa tecnologia emergente.

Il prossimo passo per la comunità scientifica sarà quindi quello di perfezionare i sistemi di rilevamento al fine di garantire un uso responsabile dell’intelligenza artificiale generativa e prevenire eventuali danni a individui e società.

Voci deepfake, gli umani non sono abbastanza bravi a identificarle

Un recente studio condotto dall’Università di Londra ha rivelato che gli esseri umani hanno difficoltà nel riconoscere i discorsi deepfake generati artificialmente. Questo è il primo studio del genere a valutare la capacità di individuare discorsi generati artificialmente in una lingua diversa dall’inglese. I deepfake sono contenuti multimediali sintetici progettati per assomigliare alla voce di una persona reale e rientrano nell’ambito dell’intelligenza artificiale generativa. Il team di ricerca dell’UCL ha utilizzato un algoritmo text-to-speech addestrato su due set di dati diversi, uno in inglese e uno in mandarino, per generare 50 campioni di discorsi deepfake in entrambe le lingue. Successivamente, i campioni sono stati riprodotti per 529 partecipanti per valutare la capacità umana di distinguere tra discorsi reali e falsi. I risultati hanno mostrato che i partecipanti sono stati in grado di individuare correttamente i discorsi deepfake il 73% delle volte, anche se ciò è migliorato leggermente con una formazione specifica. Questo dato preoccupa l’UCL, soprattutto se considerato in un contesto in cui le persone sono state addestrate. La ricerca solleva anche dubbi sulle capacità di individuare discorsi generati con tecnologie più sofisticate. L’utilizzo di algoritmi di deepfake sempre più avanzati e accessibili ha sollevato preoccupazioni riguardo alle possibili minacce da parte di criminali e stati nazionali. I ricercatori dell’UCL ritengono quindi necessario sviluppare sistemi automatizzati per rilevare i discorsi deepfake al fine di contrastare questa minaccia. Tuttavia, è importante anche riconoscere il potenziale positivo offerto da questa tecnologia emergente. Pertanto, il prossimo passo per la comunità scientifica sarà perfezionare i sistemi di rilevamento per garantire un uso responsabile dell’intelligenza artificiale generativa e prevenire danni potenziali a individui e società.