Em Alta NotíciasFutebolPolíticaBrasilEsportes

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

Líderes militares dos EUA discutem com Anthropic contra salvaguardas do Claude

Militares dos Estados Unidos e Anthropic discutem condições de uso do Claude; Pentágono ameaça penalidades e suspensão de contrato se termos não forem cumpridos

Dario Amodei and Pete Hegseth.
0:00
Carregando...
0:00
  • Líderes militares dos EUA, incluindo o secretário de defesa, reuniram-se com executivos da Anthropic para discutir o uso do modelo Claude pelo governo.
  • O CEO da Anthropic, Dario Amodei, recebeu prazo até o fim desta sexta-feira para aceitar os termos do DoD, sob risco de penalidades.
  • A Anthropic se posiciona como empresa mais voltada à segurança, enquanto o DoD pressiona por acesso sem restrições a Claude, incluindo aplicações de vigilância em massa ou armas autônomas.
  • O DoD já fechou acordos com outras grandes fornecedoras de IA, como Google e OpenAI; recentemente autorizou o uso de xAI de Elon Musk em sistemas classificados.
  • O impasse levanta a questão sobre até que ponto a indústria de IA cede às exigências militares, em meio a debates éticos e regulatórios.

A pauta entre autoridades norte-americanas e a Anthropic girou em torno do uso do modelo de linguagem Claude em operações militares. Executivos da empresa participaram de uma reunião com líderes do Pentágono na terça-feira para discutir os termos de acesso ao sistema e limites de aplicação. A discussão ocorreu em meio a ameaças de sanções caso não sejam aceitos os requisitos do DoD.

Segundo a imprensa, Pete Hegseth, secretário de defesa, fixou o prazo até sexta-feira para que a Anthropic concorde com as condições do governo. A agência busca permitir usos do Claude de forma ampla, enquanto a Anthropic resiste a permitir vigilância em massa ou armas autônomas sem supervisão humana.

A Anthropic, posicionada como empresa que prioriza segurança, tem enfrentado semanas de divergências com o Pentágono sobre o alcance do Claude. O DoD já integrou o modelo em operações, mas ameaça romper a parceria por entender que existem entraves criados pela empresa.

Entre as questões centrais está se o setor de IA deve ceder a exigências governamentais para uso militar, algo que envolve debates éticos e de política pública. O DoD já sinalizou que pode cancelar contratos e classificar a Anthropic como risco na cadeia de suprimentos.

O governo assinou acordos com outras empresas de IA, como Google e OpenAI, em 2025, com contratos que podem chegar a 200 milhões de dólares. Até o momento, Claude era o único modelo autorizado em sistemas classificados da defesa; recentemente, houve avanço com um acordo para uso do xAI de Elon Musk em sistemas classificados.

Acordos entre o governo e a OpenAI teriam permitido usos para fins legais, de acordo com a imprensa. A OpenAI não respondeu a pedidos de comentário sobre o tema. A Anthropic permanece no centro de uma disputa que envolve limites de supervisão, responsabilidade e aplicações militares de IA.

A reunião ocorre cerca de um mês após relatos de uso do Claude pela defesa dos EUA na captura de Nicolás Maduro. A disputa ocorre em meio a tensões políticas sobre a inserção de IA no aparato militar e sobre o potencial impacto de tais tecnologias no equilíbrio de poder tecnológico global.

Em meio ao tema, Emil Michael, diretor de tecnologia do Pentágono, defendeu que a empresa ajuste as salvaguardas para usos do governo, desde que os casos sejam legais. A Anthropic mantém posição de que medidas de segurança devem limitar usos potencialmente perigosos do sistema.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais