Em Alta NotíciasPolíticaFutebolAcontecimentos internacionaisEsportes

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

EUA usaram Claude, da Anthropic, na operação na Venezuela, diz WSJ

Claude foi utilizado na operação que capturou Nicolás Maduro, via parceria Anthropic-Palantir; políticas da empresa proíbem uso para violência e vigilância

Anthropic logo is seen in this illustration taken May 20, 2024. REUTERS/Dado Ruvic/Illustration/File Photo
0:00
Carregando...
0:00
  • O modelo de IA Claude, da Anthropic, foi usado durante a operação dos EUA para capturar o ex-presidente da Venezuela, Nicolás Maduro, segundo o Wall Street Journal.
  • O uso ocorreu por meio da parceria da Anthropic com a Palantir Technologies, cujas plataformas são amplamente utilizadas pelo Departamento de Defesa e por autoridades federais.
  • Muitas empresas de IA desenvolvem ferramentas para o uso militar; a Anthropic é a única cuja ferramenta fica disponível em ambientes classificados via terceiros, embora existam políticas de uso que regem isso.
  • As diretrizes da Anthropic proíbem usar Claude para apoiar violência, desenhar armas ou realizar vigilância.
  • Maduro foi capturado em uma operação audaciosa e levado para Nova York para enfrentar acusações de tráfico de drogas no início de janeiro.

O modelo de IA Claude, da Anthropic, foi utilizado na operação dos EUA para capturar o ex-presidente venezuelano Nicolás Maduro. A ação ocorreu no início de janeiro, na Venezuela, com maquiagem tecnológica que envolve ferramentas de IA. A captura levou Maduro para Nova York, onde enfrentaria acusações de tráfico de drogas.

A implantação ocorreu por meio da parceria entre a Anthropic e a Palantir Technologies, cuja plataforma é amplamente empregada pelo Departamento de Defesa e por órgãos federais. A notícia cita pessoas familiarizadas com o assunto.

Diversas empresas de IA desenvolvem ferramentas customizadas para uso militar, com acesso frequente apenas a redes não classificadas. A Anthropic é apontada como a única fornecendo, via terceiros, acesso em ambientes classificados. Ainda assim, o governo permanece vinculado às políticas de uso da empresa.

As políticas da Anthropic proíbem usar Claude para apoiar violência, projetar armas ou realizar vigilância. A empresa atraiu investimentos relevantes, elevando seu valor de mercado para cerca de 380 bilhões de dólares após a última rodada de financiamento de 2026, segundo fontes do setor.

O relato traz à tona o papel crescente de IA em operações de segurança, mesmo quando associadas a ações extrajudiciais. Autoridades não detalharam como Claude contribuiu para a operação ou quais dados teriam sido processados.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais