- A Anthropic informou que houve um release acidental de parte do código-fonte interno do Claude Code por erro humano, não sendo uma violação de segurança.
- No update de software, um arquivo de uso interno apontou para um arquivo com quase dois mil arquivos e meio milhão de linhas de código, rapidamente copiados para a plataforma de desenvolvedores GitHub.
- O código exposto envolve a arquitetura interna da ferramenta, mas não continha dados confidenciais de clientes nem credenciais.
- A divulgação levou a solicitações de remoção de direitos autorais para conter a disseminação do código, e já houve reedição do código no GitHub.
- Este episódio ocorre semanas após outro vazamento recente da empresa; especialistas veem riscos de vulnerabilidades internas e possível vantagem para concorrentes.
Ao divulgar parte do código-fonte interno do Claude Code, a Anthropic confirmou que houve um erro humano que expôs arquivos de software usados na ferramenta de IA. A empresa informou que não houve vazamento de dados de clientes nem credenciais.
De acordo com a companhia, o incidente ocorreu durante uma atualização de software. Um arquivo de uso interno acabou sendo incluído por engano, abrindo acesso a um arquivo-archive com quase 2 mil itens e cerca de 500 mil linhas de código. O conteúdo foi rapidamente copiado para a plataforma de desenvolvimento GitHub.
O código exposto refere-se à arquitetura interna do Claude Code, o assistente de codificação alimentado por IA. Embora o material tenha chegado a plataformas públicas, a Anthropic assegura que não continha dados confidenciais ou informações sensíveis da modelo subjacente.
A divulgação gerou repercussão nas redes, com links compartilhados e acessos significativos. A empresa registrou pedidos de retirada de direitos autorais para conter a disseminação do código. Relatos apontam a existência de planos de um assistente de codificação estilo Tamagotchi e de um agente de IA sempre ativo.
Contexto e desdobramentos
Analistas ressaltam que já havia conhecimento público parcial do código do Claude Code, com versões anteriores já tendo sido expostas por usuários independentes. A Anthropic enfrenta, ainda, dúvidas sobre vulnerabilidades internas de segurança.
Relatos de imprensa indicam que a divulgação pode oferecer visões sobre o funcionamento do sistema de IA, o que preocupa especialistas em segurança e IA responsável. A empresa já enfrentou episódios semelhantes recentemente, com outra brecha exposta envolvendo materiais internos.
A repercussão ocorre em um momento em que a Anthropic cresce na base de assinantes pagos do Claude Code. Fontes de mercado destacam que o número de assinantes pagos aumentou significativamente neste ano. A empresa está sob escrutínio regulatório em relação a riscos de cadeia de suprimentos.
Contexto regulatório
Além disso, a Anthropic está no centro de uma disputa legal com o governo dos EUA, que a designou como risco de cadeia de suprimentos. A empresa contesta a designação em juízo, e houve uma liminar temporária a respeito.
Entre na conversa da comunidade