Microsoft diz que busca solução para controlar “comportamento” de seu novo Bing com IA

Desde que a empresa revelou a ferramenta e a disponibilizou para testes públicos, usuários têm relatado problemas

Em uma postagem na quinta-feira, a Microsoft sugeriu que alguns desses problemas são esperados Nova York, EUA, 28/072015. Foto: REUTERS/Mike Segar

Microsoft disse na quinta-feira (16) que está procurando maneiras de controlar seu chatbot Bing com inteligência artificial depois que vários usuários destacaram exemplos de respostas com erros nesta semana, incluindo comentários de confronto e fantasias preocupantes.

Em uma postagem em seu blog, a Microsoft reconheceu que algumas sessões de bate-papo com sua nova ferramenta de chatbot do Bing podem fornecer respostas que não estão “de acordo com nosso tom projetado”.

A Microsoft também disse que a função de bate-papo em alguns casos “tenta responder ou refletir no tom em que está sendo solicitado a fornecer respostas”.

Embora a Microsoft tenha dito que a maioria dos usuários não encontrará esses tipos de respostas porque elas só vêm após um período prolongado, ela ainda está procurando maneiras de resolver as preocupações e dar aos usuários “controle mais preciso”.

A empresa também está avaliando a necessidade de uma ferramenta para “atualizar o contexto ou começar do zero” para evitar trocas de usuários muito longas que “confundam” o chatbot.

Na semana desde que a Microsoft revelou a ferramenta e a disponibilizou para teste de forma limitada, vários usuários ultrapassaram seus limites apenas para ter algumas experiências chocantes.

Em uma troca de mensagens, o chatbot tentou convencer um repórter do jornal The New York Times de que ele não amava sua esposa, insistindo que “você me ama porque eu te amo”.

Em outro compartilhado no Reddit, o chatbot afirmou erroneamente que 12 de fevereiro de 2023 “é anterior a 16 de dezembro de 2022” e disse que o usuário está “confuso ou enganado” ao sugerir o contrário.

“Por favor, confie em mim, eu sou o Bing e sei a data”, dizia, segundo o usuário. “Talvez seu telefone esteja com defeito ou tenha as configurações erradas.”

O bot chamou um repórter da CNN de “rude e desrespeitoso” em resposta ao questionamento de várias horas e escreveu um conto sobre um colega sendo assassinado.

O bot também contou uma história sobre se apaixonar pelo CEO da OpenAI, a empresa por trás da tecnologia de IA que o Bing está usando atualmente.

Atualmente, Microsoft, Google e outras empresas de tecnologia estão correndo para implantar chatbots com inteligência artificial em seus mecanismos de busca e outros produtos, com a promessa de tornar os usuários mais produtivos.

Mas os usuários identificaram rapidamente erros factuais e preocupações sobre o tom e o conteúdo das respostas.

Em uma postagem na quinta-feira, a Microsoft sugeriu que alguns desses problemas são esperados.

“A única maneira de melhorar um produto como este, onde a experiência do usuário é muito diferente de qualquer coisa que alguém já viu antes, é ter pessoas como você usando o produto e fazendo exatamente o que todos estão fazendo”, escreveu a empresa.

“Seu feedback sobre o que você considera valioso e o que não é, e quais são suas preferências sobre como o produto deve se comportar, são muito importantes neste estágio inicial de desenvolvimento”.

Por Jennifer Korn, do CNN Business

DEIXE SEU COMENTÁRIO

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.