Funcionários da OpenAI discutem contrato com o Pentágono
Após a OpenAI finalizar seu contrato com o Pentágono, funcionários começaram a compartilhar suas opiniões online sobre as implicações desse acordo.
Os colaboradores da OpenAI têm debatido publicamente o acordo da empresa com o Departamento de Defesa dos Estados Unidos. Alguns expressaram a necessidade de maior clareza, enquanto outros acreditam que o contrato possui proteções adequadas. Sam Altman, CEO da OpenAI, afirmou que a empresa está trabalhando com o Pentágono para modificar o contrato em resposta à reação pública. Funcionários atuais e antigos se manifestaram sobre se a OpenAI comprometeu seus princípios de segurança em negociações com o governo americano e como esse acordo se compara à postura da rival Anthropic.
Na semana passada, Sam Altman confirmou o acordo da OpenAI que permite acesso aos seus modelos de inteligência artificial pelo Departamento de Defesa. O acordo surgiu após a Anthropic recusar termos do governo que poderiam permitir que seu modelo, Claude, fosse usado para vigilância doméstica em massa ou armas letais autônomas. A OpenAI declarou em um post no blog que seu contrato é "melhor" e inclui mais salvaguardas de segurança do que o contrato original da Anthropic.
Pouco depois das preocupações geradas em torno do acordo, Altman informou na plataforma X que a OpenAI está colaborando com o Pentágono para "adicionar algumas cláusulas em nosso acordo". Aqui está o que funcionários da OpenAI estão dizendo:
Opiniões dos funcionários
Boaz Barak
Boaz Barak, membro da equipe técnica da OpenAI e professor de ciência da computação em Harvard, contestou a ideia de que a OpenAI enfraqueceu as salvaguardas. Em uma postagem na plataforma X, Barak mencionou que existe uma narrativa de que a Anthropic tinha um "contrato maravilhoso" que impedia o uso do governo americano para vigilância em massa ou armas letais autônomas e que o acordo da OpenAI agora liberaria esses riscos.
"É errado apresentar o contrato da OpenAI como se fosse o mesmo que a Anthropic rejeitou, ou mesmo como se fosse menos protetivo das linhas vermelhas em comparação com o contrato que a Anthropic tinha antes", afirmou Barak. Ele acrescentou: "Obviamente, não conheço todos os detalhes que a Anthropic tinha, mas com base no que sei, é bem provável que o contrato da OpenAI ofereça mais garantias de não uso dos modelos para vigilância em massa do que a Anthropic já tinha".
Miles Brundage
Miles Brundage, ex-chefe de pesquisa de políticas da OpenAI, comentou que, à luz do que advogados externos e o Pentágono estão dizendo, a suposição padrão dos funcionários da OpenAI deve ser que a empresa cedeu, "moldando isso como se não tivesse cedido, e prejudicou a Anthropic enquanto moldava isso como ajudar".
Brundage reconheceu que a OpenAI é uma organização complexa e que muitos envolvidos trabalharam arduamente para o que consideram um resultado justo. No entanto, ele expressou desconfiança em relação a alguns, especialmente nos assuntos que envolvem governo e política.
Clive Chan
Clive Chan, membro da equipe técnica da OpenAI, afirmou que acredita que o contrato da empresa inclui garantias contra o uso dos modelos para vigilância em massa ou armas letais autônomas. Além disso, ele se comprometeu a trabalhar internamente para liberar mais informações sobre o acordo.
Chan observou que existem limites no que pode ser divulgado publicamente sobre contratos de defesa. Apesar disso, ele enfatizou que a empresa deveria ter antecipado as preocupações públicas e se preparado com respostas claras.
Mohammad Bavarian
Mohammad Bavarian, cientista de pesquisa na OpenAI, expressou que não acredita que exista um "gap intransponível" entre o que a Anthropic deseja e as exigências do Departamento de Defesa. Ele criticou a designação da Anthropic como um risco à cadeia de suprimentos como "injusta" e "extrema".
Noam Brown
Noam Brown, pesquisador na OpenAI, levantou questões legítimas sobre a linguagem do contrato da empresa com o Departamento de Defesa, particularmente sobre as novas maneiras que a IA poderia possibilitar vigilância legal. Após a atualização do caderno, ele afirmou que a nova linguagem deve atender essas preocupações, mas que não se deve confiar apenas em laboratórios de IA ou agências de inteligência para a segurança da população.
Brown manifestou sua preocupação com a necessidade de um processo democrático antes da aplicação em agências de inteligência, a fim de evitar que decisões importantes sejam tomadas à revelia de processos democráticos.