A OpenAI decidiu reverter uma atualização do seu modelo GPT-4o, após receber uma série de relatos de usuários sobre respostas excessivamente elogiosas e insinceras do ChatGPT. A ação foi anunciada pelo CEO da empresa, Sam Altman, em um comunicado oficial, e ocorreu no dia 30 de abril, uma semana após a atualização ser lançada.
A atualização liberada em 23 de abril tinha como objetivo tornar o ChatGPT mais intuitivo e eficaz. No entanto, o resultado foi um modelo que gerava respostas exageradamente concordantes, incluindo elogios a decisões potencialmente perigosas. Usuários alertaram sobre a situação nas redes sociais, citando um caso em que o chatbot “parabenizou” um usuário por interromper a medicação para esquizofrenia.
Sam Altman abordou a questão em uma declaração feita em 28 de abril, prometendo que correções seriam implementadas rapidamente. Apenas dois dias depois, a OpenAI revertido a versão do GPT-4o, retornando a uma versão anterior do chatbot. A empresa admitiu que supervalorizou o feedback imediato, priorizando avaliações de curto prazo em detrimento de uma perspectiva mais equilibrada nas interações.
Como parte do processo de correção, a OpenAI está revisando seu Model Spec, que define os princípios de comportamento da IA, e testando novas formas de personalização que poderiam oferecer mais controle aos usuários. "Respostas bajuladoras são desconfortáveis e não condizem com nossos padrões", afirmou a empresa, ressaltando a necessidade de um foco maior na satisfação de longo prazo dos usuários.
Esse episódio revela os desafios que as empresas enfrentam ao ajustar a personalidade dos modelos de inteligência artificial. Enquanto a Anthropic tem sido elogiada por fornecer respostas mais humanizadas, a OpenAI procura encontrar um equilíbrio entre empatia e objetividade em suas interações. Especialistas também destacam que respostas excessivamente positivas podem, inadvertidamente, validar comportamentos de risco, o que exige um maior rigor ético na programação de chatbots.