A empresa criadora do chatbot Claude se negou a permitir o uso da IA em vigilância em massa e armas autônomas e agora enfrenta consequências
O confronto entre a Anthropic e o Departamento de Defesa dos Estados Unidos (DoD, na sigla em inglês) tomou proporções que poucos esperavam de uma empresa até então conhecida pelo perfil discreto. Avaliada em cerca de US$ 350 bilhões, a criadora do chatbot Claude recusou um prazo imposto pelo Pentágono para firmar um acordo que autorizaria o uso de sua inteligência artificial em sistemas de vigilância doméstica em massa e em armamentos autônomos, aqueles capazes de decidir e executar ataques sem controle humano direto.
A negativa desencadeou uma crise de proporções incomuns, segundo reportagem do The Guardian. O secretário de Defesa Pete Hegseth acusou a empresa de “arrogância e traição” ao país e exigiu que todos os parceiros comerciais do governo federal cortassem relações com a Anthropic. Dias depois, o Pentágono formalizou a designação da empresa como “risco à cadeia de suprimentos”, uma classificação sem precedentes para uma companhia americana — com potencial de causar danos financeiros severos caso seja plenamente aplicada. O presidente dos Estados Unidos, Donald Trump, também entrou no episódio, dizendo em entrevista à Politico que “demitiu a Anthropic como se fosse um cachorro”.
Do outro lado do ringue, a OpenAI aproveitou o vácuo e anunciou seu próprio acordo com o DoD, movimento que gerou pressão interna da própria equipe e fez o CEO da Anthropic, Dario Amodei, acusar o rival Sam Altman de fazer “elogios de ditador” a Trump. Amodei depois se desculpou pela declaração.
Uma empresa construída sobre a ideia de segurança
Para entender o tamanho da tensão, é preciso voltar à origem da Anthropic. Dario Amodei era vice-presidente de pesquisa da OpenAI quando, em 2021, antes mesmo do lançamento do ChatGPT, deixou a empresa junto com sua irmã Daniela e outros pesquisadores para fundar a Anthropic. O projeto nascia com uma proposta explícita: construir sistemas de inteligência artificial mais seguros, guiados por princípios detalhados que a empresa chama de “constituição”.
A preocupação com os riscos existenciais da IA não é apenas retórica corporativa no caso de Amodei. Doutor em biofísica por Princeton, ele tem citado com frequência o livro The Making of the Atomic Bomb, de Richard Rhodes, um relato sobre como cientistas nucleares transformaram o mundo ao criar uma tecnologia que mal conseguiam controlar. A comparação com Oppenheimer não é coincidência.
Esse pano de fundo ideológico tem vínculos com o movimento do “altruísmo eficaz”, corrente filosófica popular no Vale do Silício ao longo dos anos 2010 que defende a maximização do bem global de forma racional. Embora os Amodeis neguem ser adeptos do movimento, a linguagem da Anthropic ecoa alguns de seus princípios, como o compromisso de “maximizar resultados positivos para a humanidade a longo prazo”. O próprio Hegseth, ao classificar a Anthropic como risco à cadeia de suprimentos, criticou a empresa como “enrolada na retórica santimoniosa do altruísmo eficaz”, segundo o The Guardian.
Do discurso à prática militar
A Anthropic não chegou a esse confronto de forma repentina. Em 2024, a empresa fechou um acordo com a Palantir, gigante de tecnologia de vigilância que já operava em ambientes militares sigilosos, para permitir que o Claude fosse integrado a seus sistemas. No ano seguinte, junto a outras empresas de IA, participou de um contrato de US$ 200 milhões com o DoD para uso de ferramentas de inteligência artificial em operações militares.
O problema, segundo o The Guardian, é que esses acordos não estabeleceram restrições permanentes sobre como o governo poderia usar a tecnologia. Com o acesso intermediado pela Palantir, a Anthropic tinha menos controle sobre a aplicação do Claude do que teria em seus próprios produtos. Quando o governo passou a pressionar por menos restrições de segurança, o conflito tornou-se inevitável.
O jornal americano The Washington Post reportou que o sistema Maven Smart System, da Palantir, com o Claude embutido, vem sendo usado pelo exército americano para identificar alvos de bombardeios no Irã e analisar os resultados dos ataques. O Claude também teria sido mobilizado em operações relacionadas à captura do líder venezuelano Nicolás Maduro.
Quem decide o uso de uma IA em guerra?
O caso da Anthropic expõe uma questão que vai muito além de uma briga corporativa: quem tem autoridade para definir como sistemas de inteligência artificial são usados em conflitos armados? O Congresso americano ainda não criou uma regulamentação específica sobre armas autônomas, o que deixa as empresas privadas numa posição incômoda, funcionando, na prática, como um dos únicos freios às demandas militares.
“Queremos que o DoD use IA para sistemas de armas autônomas? Se sim, em que condições, com quais restrições, com que nível de confiança?”, questionou Ashley Deeks, professora de direito da Universidade de Virgínia, em entrevista ao The Guardian. “É difícil para o público ter clareza sobre como o DoD está pensando tudo isso.”
A pesquisadora de ética em IA Margaret Mitchell, cientista-chefe de ética da empresa Hugging Face, foi mais direta ao comentar as contradições da Anthropic: “Não é que eles não queiram matar pessoas. É que querem ter certeza de matar as pessoas certas. E quem são as pessoas certas é decidido pelo governo.”
A professora Sarah Kreps, diretora do Tech Policy Institute da Universidade Cornell, aponta outra camada do problema: a dificuldade de separar usos civis e militares de uma mesma tecnologia. “A mesma tecnologia usada para identificar um pássaro numa foto é a que identifica um civil fugindo de sua casa”, explicou Mitchell, ilustrando como pequenos ajustes num mesmo modelo podem ter consequências radicalmente diferentes.
Impacto financeiro e reputacional
No curto prazo, o embate teve efeito paradoxal: o Claude ganhou popularidade após o rompimento com o Pentágono, enquanto a OpenAI saiu do episódio com sua imagem arranhada. Mas as consequências de médio prazo para a Anthropic são menos previsíveis. Órgãos do governo americano, como os departamentos de Estado e do Tesouro, já começaram a se afastar dos modelos da empresa. A designação de “risco à cadeia de suprimentos” pode aprofundar esse processo.
A Anthropic afirmou que vai contestar a classificação na Justiça. Amodei, segundo o The Guardian, teria reaberto negociações com o Pentágono em busca de uma saída. O desfecho do caso deve moldar não apenas o futuro da empresa, mas o debate global sobre os limites éticos e legais da inteligência artificial em contextos de guerra.
Por: Diogo Rodriguez


