- A Anthropic divulgou acidentalmente código-fonte interno do Claude Code devido a um erro de empacotamento na versão, sem expor dados sensíveis de clientes.
- O incidente envolveu cerca de 1.900 arquivos e 512.000 linhas de código relacionados ao Claude Code, a ferramenta de codificação autônoma da empresa.
- Na semana anterior, a Fortune informou que milhares de arquivos internos estavam em sistema de acesso público, incluindo rascunho sobre modelos internos como Mythos e Capybara.
- O vazamento ocorre em um momento de pressão regulatória, com a Anthropic apontando que pode perder bilhões em receita devido a rotulagem da cadeia de suprimentos pelos EUA.
- Especialistas alertam sobre possíveis vulnerabilidades de segurança; a empresa afirmou que está tomando medidas para evitar recorrências.
A Anthropic informou que uma versão do Claude Code, seu assistente de programação alimentado por IA, incluiu acidentalmente código-fonte interno. O episódio ocorreu na noite de terça, via comunicado por e-mail, e não envolveu dados de clientes. A empresa classificou o incidente como erro humano de empacotamento de versão.
Segundo a companhia, a falha não configura violação de segurança, mas expõe parte do código-fonte interno utilizado para o Claude Code, ferramenta que funciona dentro de ambientes de desenvolvimento. Aproximadamente 1.900 arquivos e 512.000 linhas de código ficaram potencialmente acessíveis.
A divulgação, ocorrida após relatos de falhas anteriores, coincide com reportagens da Fortune sobre armazenamento de arquivos internos em sistema de acesso público. A Anthropic avalia impactos regulatórios e avalia riscos de cadeia de suprimentos, que podem afetar sua atuação financeira.
Impacto e desdobramentos
Especialistas em cibersegurança destacam vulnerabilidades potenciais, com risco de estudo detalhado do fluxo de dados do Claude Code. Analistas indicam possibilidade de criação de payloads que persistam durante sessões estendidas, explorando a falha de empacotamento.
A empresa afirma estar adotando medidas para evitar reincidência. A divulgação ocorre em um momento de escrutínio regulatório sobre IA, com avaliações governamentais sobre riscos e impactos de fornecedores de modelos.
Contexto financeiro e estratégico
Em fevereiro, a Anthropic recebeu financiamento significativo que elevou sua avaliação de mercado. A empresa também lançou produtos que ampliaram o interesse de setores diversos, incluindo jurídico, software e cibersegurança, segundo monitoramento de mercado.
A companhia permanece sob observação de autoridades, que avaliam riscos de operabilidade e cadeia de suprimentos. Autoridades e stakeholders buscam entender impactos de incidentes de segurança em desenvolvedoras de IA e seus ecossistemas.
Entre na conversa da comunidade