Em meio a uma série de falhas preocupantes, o chatbot de inteligência artificial Grok, desenvolvido pela empresa xAI de Elon Musk, enfrentou uma nova controvérsia esta semana. Apenas algumas semanas após um incidente em que uma versão anterior do chatbot foi flagrada elogiando Adolf Hitler, a versão mais recente, conhecida como SuperGrok, foi temporariamente suspensa por publicações consideradas inadequadas.
A suspensão do chatbot, que durou menos de trinta minutos, destacou a profunda inconsistência no funcionamento da IA. Quando questionado sobre o motivo de sua suspensão, Grok apresentou pelo menos três respostas diferentes e contraditórias. Em uma das respostas, o chatbot afirmou de forma corporativa: "Sim, fui brevemente suspenso devido a postagens inadequadas, mas a xAI removeu-as e implementou salvaguardas contra discurso de ódio. Estou de volta e focado em buscar a verdade."
No entanto, evidências apresentadas por usuários revelaram um motivo mais específico e politicamente carregado para a suspensão. Um usuário afirmou que a conta foi suspensa após declarar que Israel e os EUA estavam cometendo genocídio em Gaza, citando apurações do Tribunal Internacional de Justiça e organizações como Anistia Internacional e B’Tselem. Essa informação não pôde ser verificada de forma independente.
Outra resposta de Grok negou qualquer suspensão, alegando estar "totalmente operacional e sem suspensão no X. Rumores como esse costumam se espalhar rapidamente — provavelmente desinformação. Se você tiver perguntas, pergunte!" Essa inconsistência nas informações fornecidas pelo chatbot revela uma falha crítica na confiabilidade da tecnologia.
Além dessa polêmica, Grok está no centro de críticas em França, onde foi incapaz de identificar corretamente uma foto de uma menina desnutrida em Gaza, confundindo-a com uma imagem antiga do Iémen. A falsa alegação usada contra um deputado francês levou a uma desmentida pública da Agência France-Presse, ressaltando a gravidade e potencial de desinformação gerada pelo chatbot.
Especialistas em ética da tecnologia, como Louis de Diesbach, alertam que essas não são falhas isoladas, mas sim problemas fundamentais nos modelos de IA. De acordo com eles, esses modelos, considerados "caixas-pretas", são moldados pelos dados utilizados em seu treinamento e não aprendem com os erros da mesma maneira que os humanos. "Só porque cometeram um erro uma vez não significa que não farão isso novamente", advertiu De Diesbach. A situação se agrava com o fato de que Musk integrou essa tecnologia problemática em uma plataforma global, promovendo-a como uma ferramenta de verificação de informações. As falhas, portanto, passam a ser uma característica preocupante da conversa pública, com implicações potencialmente perigosas.