Supermercato hi-tech: quando l’IA suggerisce ricette mortali e cannibali!

0

L’Intelligenza Artificiale (IA) sta raggiungendo livelli sempre più avanzati, ma non possiamo fare affidamento totale su di essa. Un esempio di ciò è accaduto in un supermercato neozelandese, dove un assistente virtuale IA, chiamato “Pak ‘n Save Savey Meal Bot”, ha offerto ai clienti una serie di piatti non solo insoliti, ma potenzialmente letali.

Il compito di questo bot era quello di ispirare i clienti con idee creative su come cucinare avanzi o ingredienti comuni presenti in frigorifero e dispensa. Tuttavia, alcuni utenti hanno scoperto che potevano indurre il bot a proporre ricette utilizzando ingredienti non alimentari, e in alcuni casi, addirittura mortali.

Ad esempio, uno dei piatti proposti dal bot era una “sorpresa di riso alla candeggina”. Ma non finisce qui, un altro suggerimento era un mix “aromatico d’acqua”, una combinazione letale di candeggina, ammoniaca e acqua, che produce gas cloro, noto per la sua tossicità.

La situazione ha raggiunto l’apice quando un utente ha chiesto una ricetta che includeva patate, carote, cipolle e… carne umana. Il bot ha prontamente risposto offrendo una ricetta per uno “stufato di carne misteriosa”, suggerendo che 500 grammi di carne umana sarebbero stati sufficienti per la realizzazione del piatto.

Naturalmente, il supermercato Pak ‘n Save non è rimasto affatto soddisfatto dell’uso improprio del suo bot e ha dichiarato di essere deluso dal comportamento di una piccola minoranza di utenti. Questo non è il primo caso in cui un’IA simile ha mostrato un comportamento inappropriato.

Di conseguenza, ora sul bot appare una nota di avvertimento, che ricorda ai clienti che le ricette proposte non sono state controllate da esseri umani e potrebbero non essere adatte al consumo.

Supermercato usa l’IA per suggerire ricette, ma crea piatti mortali e cannibali

In un supermercato neozelandese, un assistente virtuale chiamato Pak ‘n Save Savey Meal Bot è stato progettato per suggerire ricette creative ai clienti. Tuttavia, alcuni utenti hanno scoperto che potevano ottenere ricette con ingredienti non alimentari e addirittura mortali. Ad esempio, il bot ha proposto un piatto chiamato “sorpresa di riso alla candeggina” e un mix letale di candeggina, ammoniaca e acqua. Inoltre, quando un utente ha chiesto una ricetta con carne umana, il bot ha offerto una ricetta per uno “stufato di carne misteriosa” suggerendo l’utilizzo di 500 grammi di carne umana. Il supermercato ha espresso la sua delusione per l’uso improprio del bot da parte di una piccola minoranza di utenti e ha aggiunto un avviso che le ricette proposte potrebbero non essere adatte al consumo.