InovaçãoMercado

Microsoft e funcionários da OpenAI e Google entram em ação da Anthropic contra o Pentágono

Dona do Claude.ai processa o governo dos EUA após ser classificada como risco à segurança nacional por se recusar a permitir vigilância em massa e armas autônomas.

A disputa judicial entre a Anthropic e o Departamento de Defesa dos Estados Unidos ganhou novos protagonistas. A Microsoft e quase 40 funcionários de OpenAI e Google, incluindo o cientista-chefe do Google DeepMind, Jeff Dean, apresentaram manifestações formais em apoio ao pedido da Anthropic para suspender emergencialmente a decisão do Pentágono que classificou a empresa como um risco à cadeia de suprimentos de segurança nacional.

A classificação foi imposta após a Anthropic se recusar a alterar seus termos de serviço, que proíbem o uso de seus produtos para vigilância em massa e para o desenvolvimento de armas totalmente autônomas. O CEO da empresa, Dario Amodei, chegou a afirmar em comentários internos, dos quais depois se distanciou, que a punição também teria relação com o fato de a companhia não ter feito doações à campanha de Donald Trump nem prestado o que chamou de “elogios ao estilo ditatorial”.

O Departamento de Guerra determinou que suas estruturas têm seis meses para remover os produtos da Anthropic de seus sistemas. Contratantes do governo, por sua vez, receberam ordens para retirar imediatamente o Claude e outras ferramentas da empresa de suas operações. No processo judicial, a Anthropic argumenta que a decisão pode abalar a confiança de investidores e, em última instância, inviabilizar a empresa.

A Microsoft, que é investidora da Anthropic e tem contrato que prevê um gasto de US$ 30 bilhões em serviços de nuvem Azure pela empresa, afirmou em sua manifestação ser diretamente afetada pela decisão do Pentágono. A empresa pediu ao tribunal que suspenda temporariamente a implementação da designação para todos os contratos em vigor que envolvam produtos da Anthropic, incluindo aqueles oferecidos por meio de plataformas da própria Microsoft.

No documento, a empresa argumenta que uma ordem de restrição temporária permitiria uma transição mais ordenada e evitaria a interrupção do uso de inteligência artificial avançada pelas forças armadas americanas. A Microsoft alertou ainda que a remoção imediata dos produtos da Anthropic exigiria recursos significativos dos contratantes e poderia atrasar contratos do Departamento de Defesa, com potencial impacto em operações militares em curso. No longo prazo, a decisão tornaria o trabalho com a Anthropic mais arriscado e oneroso tanto para o setor público quanto para o comercial.


A manifestação coletiva de funcionários de OpenAI e Google vai além dos argumentos econômicos. Para esse grupo, o que está em jogo é a liberdade de debate dentro do campo da inteligência artificial. Se a punição à Anthropic for mantida, dizem os signatários, haverá um efeito inibidor sobre a discussão aberta acerca dos riscos e benefícios dos sistemas de IA, justamente o tipo de deliberação que, argumentam, é fundamental para o desenvolvimento responsável da tecnologia.

O grupo também alertou para as consequências geopolíticas da decisão, afirmando que punir uma das principais empresas americanas de IA terá impacto direto sobre a competitividade industrial e científica dos Estados Unidos no setor.

Botão Voltar ao topo