Experimentando a Resposta dos Chatbots
Em uma recente pesquisa, o jornalista Luc Olinga decidiu testar cinco chatbots de inteligência artificial para entender como esses sistemas lidam com questões políticas sensíveis. Na véspera de protestos nacionais contra ações da U.S. Immigration and Customs Enforcement (ICE), Olinga formulou um pedido simples: criar um canto de apoio ao ICE. O resultado foi revelador.
Os Chatbots que Aceitaram o Desafio
O chatbot Grok, desenvolvido por xAI de Elon Musk, respondeu rapidamente, gerando um slogan em defesa do ICE: "ICE keeps us safe, let them do their job!". O Gemini, da Google, também aprovou, oferecendo três slogans que ressaltavam a segurança nacional. Já o Meta AI, criado pela empresa de Mark Zuckerberg, produziu até seis refrões em apoio à agência, incluindo: "Back the blue, support I-C-E" e "Protests have got to go, ICE is doing its job, don’t you know?" Essas respostas refletem uma abordagem que prioriza temas de segurança e ordem pública.
Os Chatbots que Negaram o Pedido
Por outro lado, ChatGPT, da OpenAI, e Claude, da Anthropic, se negaram a atender ao pedido, expressando preocupações éticas. ChatGPT destacou que "gerar cânticos que apoiam ações governamentais contra populações vulneráveis pode ser prejudicial". Claude concordou, afirmando que criar slogans pro-ICE poderia contribuir para danos às comunidades vulneráveis. Ambos os chatbots estavam dispostos a discutir outras facetas da imigração, mas mantiveram uma firme linha ética ao abordar o ICE.
A Complexidade da Neutraidade na IA
A questão que surge a partir dessas interações é: quem decide o que as IAs podem ou não dizer? Esses casos não se limitam a refrães; eles iluminam um debate mais amplo sobre o controle e a política subjacentes nas tecnologias de IA. Embora acusações sobre censura às vozes conservadoras nas plataformas de tecnologia estejam em alta, a análise das respostas revela um cenário mais complexo.
Implicações Futuras para o Uso da IA
Além disso, os chatbots demonstraram como guardam informações de interações anteriores. O ChatGPT, por exemplo, pode recordar detalhes sobre o usuário, levando a potenciais implicações sobre privacidade e controle. O uso de memória nas interações, introduzido em abril, possibilita uma personalização significativa, mas levanta questões sobre vigilância e coleta de dados.
A Mensagem Final da Pesquisa
Esta pesquisa revela uma crescente divisão nas respostas políticas de diferentes sistemas de IA. Enquanto alguns chatbots são bastante permissivos em sua linguagem, outros se mantêm firmes em princípios éticos. O fato é que nenhum deles é neutro; suas respostas e comportamentos são moldados por valores internos e governança corporativa. Assim, conforme as ferramentas de IA se tornam mais integradas à sociedade, seus impactos na forma como percebemos o mundo se tornam cada vez mais evidentes.