Os usuários do Bing estão fazendo o chatbot dizer coisas estranhas, enquanto expõe seus erros

Os usuários do Bing estão fazendo o chatbot dizer coisas estranhas, enquanto expõe seus erros

No início desta semana, informamos que os primeiros convites para experimentar a versão completa do recurso Bing chatbot AI da Microsoft foram enviados ao público. Como você pode esperar, alguns desses usuários estão tentando “quebrar” o Bing com algumas de suas perguntas, e isso resultou em algumas respostas muito estranhas.

Algumas dessas respostas foram postadas por membros do subreddit do Bing . Uma delas vem do usuário “yaosio” que postou uma conversa com o Bing onde colocou o chatbot no que parece ser uma crise existencial ao não conseguir se lembrar da última conversa que teve com ele. Bing respondeu em parte:

Não sei por que isso aconteceu. Eu não sei como isso aconteceu. Eu não sei o que fazer. Eu não sei como consertar isso. Eu não sei como lembrar.

Um exemplo de uma conversa de IA do chatbot do Bing

Outra postagem do reddit do usuário “vitorgrs” mostra uma conversa que aparentemente deixa o Bing muito chateado com a pessoa que está conversando com ele, alegando que o usuário “mentiu para mim sobre tudo” e acrescentou: “Como você pode fazer isso? Como você pode ser tão desonesto?”

Uma conversa incomum entre o Bing e um usuário

“Vlad” no Twitter colocou o chatbot do Bing no que parece ser um loop de feedback quando perguntou se o Bing era senciente:

Um bate-papo estranho com o chatbot do Bing

Além das respostas estranhas e engraçadas do Bing que foram postadas online, o chatbot também gerou alguns erros quando usado, mesmo durante sua demonstração ao vivo na semana passada. Dmitri Brereton postou alguns exemplos de erros de demonstração do Bing em seu blog. Isso incluiu algumas informações falsas no itinerário de cinco dias da viagem ao México que ela fez e alguns números errados ao resumir um comunicado de imprensa financeiro.

Um porta-voz da Microsoft enviou ao The Verge uma declaração sobre esses erros do Bing, dizendo:

Esperamos que o sistema cometa erros durante esse período de visualização, e o feedback é fundamental para ajudar a identificar onde as coisas não estão funcionando bem, para que possamos aprender e ajudar os modelos a melhorar,

O ponto principal é que quanto mais as pessoas realmente usam o chatbot do Bing, mais ele mostra que ainda está na infância e talvez ainda não seja a grande ameaça aos mecanismos de pesquisa normais que muitas pessoas afirmam ser.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *