Em uma audiência no Senado dos Estados Unidos, realizada em 8 de maio de 2025, a Microsoft anunciou que proibiu seus funcionários de utilizar o aplicativo DeepSeek, em decorrência de preocupações com segurança de dados e potenciais influências de propaganda ligada ao governo chinês.
Segundo Brad Smith, vice-presidente e presidente da Microsoft, a decisão foi motivada pelo risco de exposição de dados que são armazenados em servidores localizados na China, além de a plataforma ser conhecida por censurar conteúdos considerados sensíveis ao regime chinês. Com isso, a Microsoft também decidiu não disponibilizar o DeepSeek em sua loja de aplicativos, rigidificando ainda mais as restrições ao seu uso. Anteriormente, a empresa havia liberado o modelo R1 do DeepSeek para uso na sua plataforma de nuvem Azure, porém, isso foi feito somente para implantação controlada, sem acesso ao aplicativo propriamente dito.
O DeepSeek, um aplicativo revolucionário de inteligência artificial, ganhou notoriedade em um curto período, mas apresenta sérias implicações em termos de privacidade. Sua política de privacidade estabelece que todos os dados dos usuários são armazenados em servidores na China, o que os coloca sob a alçada das leis locais, que impõem a colaborações com agências de inteligência. Isso levanta questões sobre a segurança e integridade das informações, já que o aplicativo censura uma gama de temas que poderiam ser considerados sensíveis.
A proibição anunciada pela Microsoft reflete uma tendência crescente no setor tecnológico, onde a soberania dos dados e o controle sobre a informação gerada por ferramentas de inteligência artificial se tornaram questões centrais. O armazenamento de dados em jurisdições que operam sob legislações rigorosas e potencialmente alinhadas a interesses políticos pode colocar em risco a segurança e a confidencialidade de informações que são cruciais tanto para o ambiente corporativo quanto pessoal.
Ainda que tenha banido o DeepSeek, a Microsoft demonstra flexibilidade ao manter o modelo R1 desse aplicativo disponível na sua plataforma Azure, para uma implantação que respeite rígidos controles de segurança. Isso revela a disposição da empresa em explorar tecnologias de código aberto, desde que sejam mitigados os riscos, como a propagação de propaganda estatal ou a geração de códigos inseguros.
Esse movimento da Microsoft poderá incitar outras empresas a adotar posturas similares, intensificando a vigilância sobre aplicativos que operam em países com legislações controversas. Além disso, a atitude da gigante da tecnologia pode catalisar um desenvolvimento mais rápido de regulamentações que busquem proteger dados e regulamentar o uso de inteligência artificial em uma escala global.
Por parte de usuários e investidores, a decisão da Microsoft sublinha a necessidade de analisar não apenas a eficácia das ferramentas de IA disponíveis, mas também a segurança, a privacidade e os princípios éticos que regem o design e utilização dessas tecnologias. Essa posição, anunciada em maio de 2025, destaca a importância de um debate amplo sobre os desafios da segurança digital em tempos de crescente influência política sobre as plataformas de inteligência artificial.