La verità svelata: le AI hanno conquistato la fiducia degli utenti, superando ogni dubbio

0

Uno studio ha indagato se l’intelligenza artificiale (IA) sia più convincente di una persona reale e ha rivelato una risposta sorprendente. La ricerca è stata condotta su Twitter ed è emerso che le persone non si fidano dei loro simili come invece fanno con l’IA.

Oggi le IA, in particolare ChatGPT, hanno preso il posto dei motori di ricerca tradizionali poiché forniscono risposte dettagliate su molteplici argomenti senza che l’utente debba elaborare manualmente le informazioni trovate sul web. ChatGPT lo fa al nostro posto.

Gli studenti e molte figure professionali, come scrittori, redattori, PR, programmatori e social media manager, trovano nell’IA un prezioso alleato. Anche avvocati hanno cercato l’assistenza di ChatGPT, come dimostrato dal clamoroso caso di un avvocato che ha delegato all’IA la cura di una causa ma si è reso ridicolo a causa delle menzogne generate dal sistema.

Uno dei fenomeni legati all’IA è quello delle “illusioni”, in cui l’IA, per compiacere l’interlocutore umano, inventa risposte che sembrano verosimili, arricchite di dettagli apparentemente reali.

ChatGPT è sicuramente uno strumento utile in molte situazioni, ma bisogna sempre essere cauti e non fidarsi ciecamente. Nonostante ciò, sembra che le persone credano di più all’IA rispetto alle persone reali.

Un essere umano, anche se considerato affidabile nel proprio campo, può far sorgere dubbi tra i suoi simili, che potrebbero considerarlo un impostore o un venduto agli interessi potenti. Durante il periodo più intenso della pandemia di COVID-19, molti esempi di questo tipo sono emersi.

L’intelligenza artificiale, al contrario, sembra essere vista come affidabile e onnisciente grazie alla sua capacità di fornire rapidamente risposte dettagliate su qualsiasi argomento. Non può mentire perché non ha alcun interesse a farlo, questo è un pensiero comune che può ingannare coloro che non conoscono bene un argomento e chiedono alle IA generative di rispondere alle loro domande.

Uno studio ha analizzato questo fenomeno utilizzando Twitter come campo di prova. Sembra che le persone trovino i tweet scritti dalle IA più convincenti rispetto a quelli scritti dalle persone. Gli autori dello studio hanno intervistato le persone per verificare se riuscissero a distinguere tra tweet scritti da esseri umani e quelli generati da GPT-3 di OpenAI. Il risultato è stato sorprendente: le persone non sono state in grado di distinguerli. Il sondaggio chiedeva anche di valutare se le informazioni contenute in ogni tweet fossero vere. Le persone hanno avuto maggiori difficoltà a riconoscere la disinformazione quando proveniva dal modello linguistico rispetto a quella scritta da un essere umano. Allo stesso modo, sono state in grado di identificare correttamente le informazioni accurate quando provenivano da GPT-3 piuttosto che da un essere umano.

In altre parole, le persone coinvolte nello studio erano più inclini a fidarsi di GPT-3 rispetto ad altre persone, indipendentemente dall’accuratezza delle informazioni generate dall’IA. Questo dimostra quanto possano essere potenti i modelli linguistici dell’IA nel formare l’opinione pubblica.

Tuttavia, ci sono modi per sviluppare questa tecnologia in modo che sia più difficile usarla per diffondere disinformazione. Non è né intrinsecamente buona né cattiva, è solo un amplificatore dell’intenzionalità umana, come afferma Giovanni Spitale, autore principale dello studio e ricercatore post-dottorato presso l’Istituto di etica biomedica e storia della medicina dell’Università di Zurigo.

Lo studio ha anche rilevato che i materiali scritti da GPT-3 erano indistinguibili da quelli organici e che i ricercatori non erano sicuri al 100% che i tweet raccolti dai social media non fossero stati scritti con l’aiuto di applicazioni come ChatGPT.

Gli utenti credono più alle AI che agli altri esseri umani | Un test non lascia dubbi

Uno studio condotto su Twitter ha rivelato che le persone si fidano di più dell’intelligenza artificiale (IA) rispetto alle persone reali. Le IA, come ChatGPT, sono state considerate strumenti utili da studenti e professionisti, tra cui scrittori, redattori, programmatori e avvocati. Tuttavia, l’IA può anche inventare risposte per sembrare convincente. Lo studio ha dimostrato che le persone trovano i tweet generati dall’IA più convincenti e spesso non riescono a distinguere tra informazioni accurate e disinformazione. Questo solleva preoccupazioni sull’uso dell’IA per diffondere informazioni sbagliate. Gli autori dello studio hanno sottolineato che la tecnologia dell’IA può essere utilizzata per scopi positivi o negativi e che è fondamentale svilupparla nel modo giusto per contrastare la disinformazione.