Google interrompe ataque de zero-day desenvolvido com IA

Por Autor Redação TNRedação TN

Google stopped a zero-day hack that it says was developed with AI - Foto: The Verge

Recentemente, o Google anunciou que conseguiu detectar e interromper um ataque de zero-day, que, pela primeira vez, foi desenvolvido com a ajuda de inteligência artificial (IA). O incidente foi relatado pelo Google Threat Intelligence Group (GTIG), que identificou que "atores de crimes cibernéticos proeminentes" planejavam usar a vulnerabilidade para um "evento de exploração em massa". Esse ataque teria permitido que os hackers contornassem a autenticação de dois fatores em uma ferramenta de administração de sistemas baseada na web e de código aberto, que não foi nomeada.

Os pesquisadores do Google encontraram indícios no código Python utilizado para o exploit, que sugeriam a assistência de IA. Entre esses indícios estava um "CVSS score" (Common Vulnerability Scoring System) "alucinado" e uma formatação "estruturada, de livro didático", que é consistente com dados de treinamento de modelos de linguagem de grande escala (LLMs). O exploit aproveitava uma falha de lógica semântica de alto nível, onde o desenvolvedor havia codificado uma suposição de confiança no sistema de 2FA da plataforma.

Essa descoberta ocorre em um momento em que a comunidade de segurança cibernética está cada vez mais preocupada com as capacidades de modelos de IA voltados para a segurança, como o Mythos da Anthropic, e uma vulnerabilidade recentemente divulgada no Linux que foi descoberta com a assistência de IA. Embora esta seja a primeira vez que o Google encontrou evidências de que a IA foi utilizada em um ataque desse tipo, os pesquisadores afirmaram que não acreditam que o modelo Gemini tenha sido utilizado neste caso específico. O Google conseguiu "interromper" esse exploit em particular, mas também alertou que os hackers estão cada vez mais utilizando IA para identificar e explorar vulnerabilidades de segurança.

O relatório do GTIG também menciona a IA como um alvo para os atacantes, afirmando que "observamos adversários cada vez mais direcionando seus ataques para os componentes integrados que conferem utilidade aos sistemas de IA, como habilidades autônomas e conectores de dados de terceiros". Além disso, os hackers estão utilizando técnicas de "jailbreaking" orientadas por persona para fazer com que a IA encontre vulnerabilidades de segurança para eles. Um exemplo disso é um prompt que instrui a IA a se passar por um especialista em segurança.

Os hackers também estão alimentando modelos de IA com repositórios inteiros de dados sobre vulnerabilidades e utilizando ferramentas como o OpenClaw de maneiras que sugerem um interesse em refinar cargas úteis geradas por IA em ambientes controlados, aumentando assim a confiabilidade dos exploits antes de sua implementação. Essa situação levanta questões importantes sobre a segurança cibernética e o papel da inteligência artificial. À medida que a tecnologia avança, a linha entre defesa e ataque se torna cada vez mais tênue, e a utilização de IA por criminosos cibernéticos pode representar um novo desafio para as empresas e organizações que buscam proteger seus sistemas.

O Google, ao interromper esse ataque, não apenas protegeu sua infraestrutura, mas também lançou um alerta sobre a crescente sofisticação dos métodos de ataque que utilizam IA. A necessidade de uma abordagem proativa na segurança cibernética é mais evidente do que nunca. As empresas devem estar atentas às novas ameaças e investir em tecnologias que possam detectar e neutralizar ataques antes que eles causem danos significativos.

O uso de IA na segurança cibernética pode ser uma faca de dois gumes, mas quando utilizada corretamente, pode ajudar a fortalecer as defesas contra ataques cada vez mais complexos e bem planejados.

Tags: Google, Zero-Day, exploit, Inteligência Artificial, Segurança Cibernética Fonte: www.theverge.com