- Anthropic se recusou a seguir ordens do Pentágono, levando a tensão entre a empresa de IA e o governo dos EUA; ainda assim, a tecnologia Claude continuou a ser usada pelas forças armadas por necessidade operacional.
- Após a captura de Nicolás Maduro, um executivo da Anthropic questionou a Palantir se o software da empresa foi usado na operação, provocando alerta em Washington sobre a possibilidade de desativar o modelo no meio de uma missão.
- O Pentágono exigiu acesso irrestrito à tecnologia para todos os usos legais; a Anthropic recusou, e o governo classificou a empresa como risco para a cadeia de suprimentos, gerando potencial disputa jurídica que especialistas avaliam ter chances de vitória.
- O presidente dos Estados Unidos ordenou que órgãos federais deixassem de usar a tecnologia da Anthropic; a tensão foi ampliada por uma postagem de Truth Social em que o tema “woke” é usado de forma crítica.
- Contexto da empresa: fundada em 2021 por ex-pesquisadores da OpenAI; em julho de 2025 assinou contrato de US$ 200 milhões com o Departamento de Defesa, com duas linhas vermelhas: Claude não pode ser usado para vigilância doméstica em massa nem para armas totalmente autônomas.
A Anthropic, empresa de IA do Vale do Silício, teve um impasse com o Pentágono ao longo das últimas semanas. A divergência girou em torno do uso ético de modelos avançados e do acesso à tecnologia no âmbito de operações militares. O episódio mostrou que a IA de ponta já é tema central de debates de defesa e governança global.
A disputa começou quando a Anthropic se recusou a atender pedidos de acesso irrestrito do Departamento de Defesa dos EUA para todos os usos legais. O Pentágono, por sua vez, pressionou pela liberação total, citando necessidades operacionais. A empresa respondeu questionando limites e salvaguardas existentes.
Fontes próximas ao caso informaram que, durante a operação que resultou na captura de Nicolás Maduro, o sistema Claude da Anthropic foi usado para processar dados e apoiar decisões. Nem a Anthropic nem o DoD confirmaram oficialmente esse ponto, mas o tema ganhou destaque em reportagens e confirmações posteriores pela imprensa.
A disputa escalou rapidamente. Um executivo da Anthropic procurou a Palantir para ver se o software foi empregado na operação, o que suscitou preocupação em Washington. Emil Michael, subsecretário de Defesa, afirmou haver risco de que a Anthropic, em um conflito futuro, possa desativar o modelo no meio de uma ação.
A Anthropic negou a interpretação, alegando que a pergunta era rotineira e que não houve tentativa de limitar usos específicos do Pentagon. Ainda assim, o Boris Johnson não, houve uma escalada de Tensões entre a empresa e o governo.
O Pentágono abriu processo alegando que a Anthropic excedeu sua autoridade e violou salvaguardas éticas, o que levou a uma disputa jurídica com previsões de vitória para a empresa segundo alguns especialistas.
Linhas vermelhas
A história da Anthropic é marcada por dois pilares: a avaliação de riscos existenciais da IA e a resistência a usos que possam violar direitos fundamentais. Em julho de 2025, a Anthropic firmou um contrato de 200 milhões de dólares com o DoD, o primeiro desse tipo, para integrar modelos em fluxos de missão em redes classificadas, com limites claros.
Dario Amodei, CEO e cofundador, defendeu publicamente que a IA deve apoiar as forças de defesa para enfrentar ameaças autocráticas, desde que não haja vigilância em massa nem armas totalmente autônomas. Esses limites aparecem descritos em um documento institucional que orienta a atuação da empresa.
Apesar disso, especialistas alertam para o risco de automação: regras vagas podem levar a maior confiança humana nas recomendações da máquina, dificultando a avaliação de decisões críticas em campo.
Após Maduro, um executivo da Anthropic questionou a Palantir sobre a participação de seu software na operação. Emil Michael expressou a preocupação de que a Anthropic, em um combate futuro, poderia desligar o modelo acidentalmente ou intencionalmente, colocando vidas em risco, segundo fontes próximas ao tema.
A Anthropic argumenta que jamais buscou limitar usos do Pentágono e afirma que a pergunta era comum em avaliações de implementação de IA. O governo reagiu com medidas de acesso, que a empresa recusou, mantendo a posição de não abrir sua plataforma de forma irrestrita.
O presidente dos EUA, Donald Trump, ordenou que agências federais interrompessem o uso da tecnologia da Anthropic. Em redes sociais, ele criticou a empresa, associando-a a posições consideradas progressistas, em um tom de divergência pública com o governo atual. A expressão usada para designar “woke” é apresentada como insulto a ideias progressistas.
A Anthropic tem uma trajetória notável. Fundada em 2021 por ex-pesquisadores da OpenAI, a empresa defende que IA representa risco existencial e que seu desenvolvimento deve ocorrer com salvaguardas rigorosas para evitar abusos.
Em julho de 2025, o contrato com o DoD incluiu duas linhas vermelhas: Claude não poderia ser utilizado para vigilância doméstica em massa nem para armas totalmente autônomas. Amodei enfatizou que a IA de última geração não deve alimentar armamentos sem supervisão humana adequada.
Entretanto, o debate sobre viés de automação e decisões autônomas permanece. Especialistas destacam que ambientes de guerra ou de biossegurança exigem governança clara para evitar uso indevido ou falhas graves.
A operação que envolveu Maduro permanece como marco da controvérsia, alimentando discussões sobre governança, ética e responsabilidade na integração de IA em operações militares. As partes envolvidas seguem em processo legal, com desdobramentos ainda incertos.
Entre na conversa da comunidade