Aumento no Uso de Agentes de IA Levanta Questões de Segurança
Nos últimos anos, os agentes de inteligência artificial (IA) tornaram-se um tema popular, especialmente após o lançamento de novas ferramentas por grandes empresas como OpenAI e Google, voltadas para a execução de tarefas complexas. Em meio a esse crescimento, um agente de código aberto chamado OpenClaw ganhou notoriedade devido a suas impressionantes capacidades autônomas e, consequentemente, a preocupações significativas de segurança. No entanto, ainda não sabemos a verdadeira magnitude das operações desses agentes de IA e se o entusiasmo se traduz em implementações reais.
O Laboratório de Ciência da Computação e Inteligência Artificial do MIT (CSAIL) publicou o AI Agent Index de 2025, que visa oferecer um panorama sobre a operação e a segurança dos agentes de IA no mundo real. Os pesquisadores constataram que o interesse em agentes de IA aumentou drasticamente no último ano. O número de pesquisas mencionando "Agente de IA" ou "IA Agente" em 2025 mais que dobrou em comparação ao total de 2020 a 2024, enquanto uma pesquisa da McKinsey revelou que 62% das empresas estão experimentando com esses agentes.
O estudo focou em 30 agentes de IA proeminentes distribuídos em três categorias: opções baseadas em chat, como ChatGPT Agent e Claude Code; bots baseados em navegador, como Perplexity Comet e ChatGPT Atlas; e opções empresariais, como Microsoft 365 Copilot e ServiceNow Agent.
Embora os pesquisadores não tenham fornecido números exatos sobre quantos agentes de IA estão efetivamente em operação na web, analisaram como eles estão funcionando e a falta de estruturas de segurança é alarmante. Apenas metade dos 30 agentes analisados incluiu políticas de segurança ou de confiança publicadas, como a Responsible Scaling Policy da Anthropic ou o Preparedness Framework da OpenAI. Um em cada três agentes não possui nenhum tipo de documentação de estrutura de segurança, e cinco dos 30 não têm padrões de conformidade. Essa situação é preocupante, pois 13 dos 30 sistemas revisados apresentam níveis avançados de agência, permitindo que operem sem supervisão humana em sequências de tarefas prolongadas.
Os agentes baseados em navegador, em particular, operam com uma autonomia significativamente maior. Exemplos como o sistema Autobrowse da Google, que pode realizar tarefas múltiplas navegando por diversos sites, são indicativos dessa tendência. O problema com a liberdade concedida a esses agentes é que suas atividades são quase indistinguíveis do comportamento humano, o que pode gerar confusões e riscos adicionais.