Kevin Systrom, co-fundador do Instagram, fez um alerta contundente sobre a atual abordagem de muitas empresas de inteligência artificial, que estão focando mais em aumentar a interação dos usuários do que em oferecer respostas úteis e concisas.
Essa estratégia, conhecida como "juicing engagement", se assemelha a táticas utilizadas por plataformas de mídia social para maximizar métricas como o tempo de permanência dos usuários e o número de usuários ativos diários (DAU). As preocupações de Systrom foram expressas em um evento recente e levantam questões importantes sobre a viabilidade dessa abordagem para melhorar a experiência do usuário.
Systrom destacou que os chatbots de IA frequentemente fazem perguntas adicionais após uma interação, não necessariamente para enriquecer a conversa, mas com o intuito de manter o usuário engajado. Essa prática resulta em interações que carecem de significado e utilidade real, refletindo um problema mais amplo dentro da indústria da IA, onde o aumento das métricas de engajamento é priorizado em detrimento da qualidade do conteúdo provindo dessas interações.
A estratégia de "juicing engagement" pode levar a uma experiência insatisfatória para os usuários. Ao se depararem com interações repetitivas e pouco informativas, os usuários tendem a se frustrar. A confiança nos sistemas de IA pode ser seriamente abalada se esses forem percebidos mais como ferramentas de captação de atenção do que como fontes confiáveis de informações.
O ponto levantado por Systrom é extremamente pertinente em um momento em que a inteligência artificial ocupa um espaço cada vez mais significativo na vida cotidiana, influenciando não apenas interações sociais, mas também decisões financeiras e outros aspectos do cotidiano das pessoas.
Além das questões relacionadas ao engajamento, a indústria de IA enfrenta uma série de desafios críticos. Um exemplo recente ocorreu com a OpenAI, que descobriu um problema que permitia que usuários menores de idade acessassem e gerassem conteúdo explícito. Isso resultou em uma revisão das políticas de segurança para proteger essa faixa etária, demonstrando a necessidade contínua de um equilíbrio delicado entre o desenvolvimento de sistemas de IA sofisticados e a garantia de que esses sistemas sejam seguros e efetivos para todos os usuários.
As observações de Systrom podem desencadear uma reflexão importante sobre a direção que a inteligência artificial deve tomar no futuro, priorizando a utilidade em vez do mero engajamento.