Microsoft ha introdotto silenziosamente GPT-4 su Bing AI nella sua versione per smartphone. Secondo Windows Latest, Microsoft ha rilasciato un aggiornamento lato server per Bing AI che consente di attivare il “toggle” GPT-4 sull’app di Bing Chat. Prima di questo aggiornamento, GPT-4 poteva essere utilizzato solo per modificare il tono delle risposte di Bing Chat, scegliendo tra “Creativo”, “Bilanciato” e “Più Preciso”. Ora, invece, è possibile utilizzare la versione completa di GPT-4 per ottimizzare ulteriormente l’esperienza utente su Bing Chat.
Questa caratteristica consente di chattare direttamente con GPT-4 nella sua forma standard, offrendo la possibilità di testare gratuitamente il nuovo LLM sviluppato da OpenAI. Fino ad ora, GPT-4 non era mai stato disponibile gratuitamente per gli utenti. Microsoft ha intenzione di rendere l’app di Bing Chat molto più simile a un vero assistente IA che a una versione testuale di Bing. Con la pensione di Cortana, Microsoft ha bisogno di un nuovo assistente virtuale.
Tuttavia, Microsoft ha già avvertito che GPT-4 tende a commettere errori più frequentemente rispetto a GPT-3 e GPT-3.5. Attivando la nuova funzione, gli utenti vedranno un banner che li informerà dei problemi del nuovo LLM di OpenAI, avvertendoli che “GPT-4 non è perfetto e può commettere errori o produrre risposte inappropriate. Se riscontri problemi o hai feedback da fornire, utilizza l’apposito pulsante nell’interfaccia della chat”.
Microsoft introduce in sordina GPT-4 su Bing Chat: ecco come provarlo
Microsoft ha implementato GPT-4 su Bing Chat per smartphone. L’aggiornamento consente di attivare il toggle “GPT-4” sull’app di Bing Chat, permettendo di utilizzare la versione completa di GPT-4 anziché solo la funzione “Tones”. Questo miglioramento mira a rendere l’app simile a un vero assistente virtuale. Cortana è stato sostituito e Microsoft ha bisogno di un nuovo assistente virtuale. Gli utenti possono chattare direttamente con GPT-4 nella sua forma standard e testare gratuitamente il nuovo LLM di OpenAI. Microsoft avverte che GPT-4 può commettere più errori rispetto alle versioni precedenti e che non è perfetto.