Funcionários da OpenAI reagem a contrato com o Pentágono

Por Autor Redação TNRedação TN

OpenAI: funcionários discutem acordo com o Pentágono. Reprodução: Businessinsider

Funcionários da OpenAI discutem contrato com o Pentágono

Após a OpenAI finalizar seu contrato com o Pentágono, funcionários começaram a compartilhar suas opiniões online sobre as implicações desse acordo.

Os colaboradores da OpenAI têm debatido publicamente o acordo da empresa com o Departamento de Defesa dos Estados Unidos. Alguns expressaram a necessidade de maior clareza, enquanto outros acreditam que o contrato possui proteções adequadas. Sam Altman, CEO da OpenAI, afirmou que a empresa está trabalhando com o Pentágono para modificar o contrato em resposta à reação pública. Funcionários atuais e antigos se manifestaram sobre se a OpenAI comprometeu seus princípios de segurança em negociações com o governo americano e como esse acordo se compara à postura da rival Anthropic.

Na semana passada, Sam Altman confirmou o acordo da OpenAI que permite acesso aos seus modelos de inteligência artificial pelo Departamento de Defesa. O acordo surgiu após a Anthropic recusar termos do governo que poderiam permitir que seu modelo, Claude, fosse usado para vigilância doméstica em massa ou armas letais autônomas. A OpenAI declarou em um post no blog que seu contrato é "melhor" e inclui mais salvaguardas de segurança do que o contrato original da Anthropic.

Pouco depois das preocupações geradas em torno do acordo, Altman informou na plataforma X que a OpenAI está colaborando com o Pentágono para "adicionar algumas cláusulas em nosso acordo". Aqui está o que funcionários da OpenAI estão dizendo:

Opiniões dos funcionários

Boaz Barak

Boaz Barak, membro da equipe técnica da OpenAI e professor de ciência da computação em Harvard, contestou a ideia de que a OpenAI enfraqueceu as salvaguardas. Em uma postagem na plataforma X, Barak mencionou que existe uma narrativa de que a Anthropic tinha um "contrato maravilhoso" que impedia o uso do governo americano para vigilância em massa ou armas letais autônomas e que o acordo da OpenAI agora liberaria esses riscos.

"É errado apresentar o contrato da OpenAI como se fosse o mesmo que a Anthropic rejeitou, ou mesmo como se fosse menos protetivo das linhas vermelhas em comparação com o contrato que a Anthropic tinha antes", afirmou Barak. Ele acrescentou: "Obviamente, não conheço todos os detalhes que a Anthropic tinha, mas com base no que sei, é bem provável que o contrato da OpenAI ofereça mais garantias de não uso dos modelos para vigilância em massa do que a Anthropic já tinha".

Miles Brundage

Miles Brundage, ex-chefe de pesquisa de políticas da OpenAI, comentou que, à luz do que advogados externos e o Pentágono estão dizendo, a suposição padrão dos funcionários da OpenAI deve ser que a empresa cedeu, "moldando isso como se não tivesse cedido, e prejudicou a Anthropic enquanto moldava isso como ajudar".

Brundage reconheceu que a OpenAI é uma organização complexa e que muitos envolvidos trabalharam arduamente para o que consideram um resultado justo. No entanto, ele expressou desconfiança em relação a alguns, especialmente nos assuntos que envolvem governo e política.

Clive Chan

Clive Chan, membro da equipe técnica da OpenAI, afirmou que acredita que o contrato da empresa inclui garantias contra o uso dos modelos para vigilância em massa ou armas letais autônomas. Além disso, ele se comprometeu a trabalhar internamente para liberar mais informações sobre o acordo.

Chan observou que existem limites no que pode ser divulgado publicamente sobre contratos de defesa. Apesar disso, ele enfatizou que a empresa deveria ter antecipado as preocupações públicas e se preparado com respostas claras.

Mohammad Bavarian

Mohammad Bavarian, cientista de pesquisa na OpenAI, expressou que não acredita que exista um "gap intransponível" entre o que a Anthropic deseja e as exigências do Departamento de Defesa. Ele criticou a designação da Anthropic como um risco à cadeia de suprimentos como "injusta" e "extrema".

Noam Brown

Noam Brown, pesquisador na OpenAI, levantou questões legítimas sobre a linguagem do contrato da empresa com o Departamento de Defesa, particularmente sobre as novas maneiras que a IA poderia possibilitar vigilância legal. Após a atualização do caderno, ele afirmou que a nova linguagem deve atender essas preocupações, mas que não se deve confiar apenas em laboratórios de IA ou agências de inteligência para a segurança da população.

Brown manifestou sua preocupação com a necessidade de um processo democrático antes da aplicação em agências de inteligência, a fim de evitar que decisões importantes sejam tomadas à revelia de processos democráticos.

Tags: Acordo Pentágono OpenAI, Funcionários OpenAI, Tecnologia Militar, Ética em IA, Segurança em AI Fonte: www.businessinsider.com