O Google firmou um acordo com o Departamento de Defesa dos Estados Unidos (DoD) para permitir o uso de seus modelos de inteligência artificial (IA) em trabalhos classificados, incluindo "qualquer propósito governamental legal". A decisão ocorre apesar da forte oposição interna, com mais de 600 funcionários da empresa, entre eles diretores e vice-presidentes, que enviaram uma carta ao CEO Sundar Pichai solicitando que a companhia negasse o acesso de suas tecnologias de IA para aplicações militares classificadas.
Segundo informações obtidas pelo The Information, o acordo concede ao DoD a capacidade de utilizar a IA do Google para diversos fins governamentais legais, sem que a empresa tenha direito de controlar ou vetar decisões operacionais do governo. A notícia surge em um momento de crescente preocupação global sobre o uso da inteligência artificial para vigilância e aplicações militares.
Reação dos funcionários e contexto histórico
O descontentamento dos funcionários do Google não é novidade. Em 2018, a empresa retirou-se do Projeto Maven do Pentágono, que envolvia o desenvolvimento de ferramentas de IA para análise de imagens de drones, após protestos internos semelhantes. Desta vez, a resistência também foi significativa, com um grupo expressando que desejam ver a IA beneficiando a humanidade e não sendo utilizada de forma desumana ou prejudicial, como em armas autônomas letais e vigilância em massa.
Outras empresas e negociações com o Pentágono
- A Anthropic, até então a única grande empresa de IA trabalhando com o Pentágono em sistemas classificados, enfrentou dificuldades nas negociações devido à exigência do governo para que sua tecnologia pudesse ser usada para "qualquer propósito legal", incluindo vigilância doméstica e sistemas autônomos de armas. Após o rompimento das negociações, a administração Trump cortou relações com a Anthropic e a classificou como risco na cadeia de suprimentos, o que levou a empresa a entrar com duas ações judiciais contra o Departamento de Defesa.
- Enquanto isso, xAI e OpenAI também firmaram acordos permitindo o uso de seus modelos de IA pelo exército americano em ambientes classificados. A OpenAI, em comunicado, afirmou manter controle sobre sua "pilha de segurança" e proibir o uso de sua IA para vigilância doméstica em massa ou para direcionar armas autônomas letais.
Posicionamento oficial do Google e do Departamento de Defesa
Em declaração enviada ao Gizmodo, um porta-voz do Google afirmou que a empresa está orgulhosa de fazer parte de um amplo consórcio de laboratórios de IA e empresas de tecnologia que fornecem serviços e infraestrutura para a segurança nacional. O Google apoia agências governamentais em projetos classificados e não classificados, aplicando sua expertise em áreas como logística, cibersegurança, tradução diplomática, manutenção de frotas e defesa de infraestrutura crítica.
O porta-voz também ressaltou o compromisso da empresa com o consenso público e privado de que a IA não deve ser usada para vigilância doméstica em massa ou armamento autônomo sem supervisão humana adequada. O Departamento de Defesa, por sua vez, não se pronunciou sobre o acordo quando solicitado.
Implicações e debates legislativos
O acordo do Google representa uma mudança significativa na postura da empresa em relação à colaboração com o setor militar. Paralelamente, legisladores americanos têm apresentado projetos de lei para limitar o uso da IA em dados coletados sob a Seção 702 da Lei de Vigilância de Inteligência Estrangeira (FISA), que permite a coleta de comunicações de estrangeiros no exterior, mas que também pode incluir comunicações de americanos em contato com pessoas no exterior. Críticos temem que ferramentas de IA possam facilitar a análise em larga escala desses dados por agências de inteligência.
Este cenário reforça o debate sobre os limites éticos e legais do uso da inteligência artificial em contextos militares e de vigilância, destacando a tensão entre inovação tecnológica, segurança nacional e direitos civis.