Inteligência Artificial

Código fonte do Claude Code é exposto; 5 pontos para entender o vazamento que afetou a Anthropic

A empresa confirmou que um lançamento publicou por engano um arquivo de depuração no npm, repositório de pacotes, o que acabou revelando parte do “manual de montagem” da ferramenta

Anthropic: A empresa de tecnologia é a criadora do modelo de linguagem Claude, concorrente do ChatGPT (Smith Collection/Gado/Getty Images)

Anthropic: A empresa de tecnologia é a criadora do modelo de linguagem Claude, concorrente do ChatGPT (Smith Collection/Gado/Getty Images)

André Lopes
André Lopes

Repórter

Publicado em 31 de março de 2026 às 15h32.

Última atualização em 31 de março de 2026 às 16h05.

A Anthropic, dona do assistente de IA Claude, confirmou que uma versão do Claude Code, ferramenta voltada a programadores, publicou por engano um arquivo interno usado para depuração. O caso foi relatado pelo site VentureBeat e ganhou tração depois de ser apontado por desenvolvedores nas redes sociais.

O episódio não indica, necessariamente, uma invasão a sistemas da empresa. A explicação oficial é que se tratou de um erro de empacotamento durante o lançamento de uma versão do software.

A seguir, cinco pontos para entender o que aconteceu e por que isso importa.

O que foi vazado da Anthropic

Segundo o VentureBeat, o pacote público do Claude Code no npm incluiu um arquivo source map, mapa de código para depuração. Esse tipo de arquivo é usado para transformar o “produto final” em algo mais legível para quem precisa corrigir bugs. Quando cai no lugar errado, ele pode revelar partes grandes do código interno.

Onde isso apareceu

O material estava em um pacote publicado no npm, repositório em que desenvolvedores baixam bibliotecas e ferramentas usadas em programas e sites. Por ser um canal amplamente usado, um erro ali tende a ser rapidamente replicado e espelhado.

O que diz a Anthropic

Em nota citada pelo VentureBeat, a Anthropic afirmou que não houve vazamento de informações sensíveis de clientes nem credenciais. A empresa descreveu o caso como um problema de “pacote” publicado por erro humano, não como uma violação de segurança.

Por que isso preocupa a empresa

O risco central é de propriedade intelectual, o conhecimento que faz um produto funcionar e se diferenciar. Um vazamento desse tipo pode ajudar concorrentes a entender como a ferramenta foi construída, quais escolhas de arquitetura foram feitas e quais soluções foram adotadas para problemas típicos de agentes de IA, como manter contexto em tarefas longas.

O que usuários podem fazer agora

A Anthropic não detalhou, no trecho citado pelo VentureBeat, quais versões seriam consideradas seguras nem se removeu a versão afetada. Para usuários, o caminho prático é acompanhar as orientações oficiais da empresa, manter a ferramenta atualizada e evitar instalar versões que tenham sido sinalizadas como problemáticas até haver confirmação.

Acompanhe tudo sobre:AnthropicHackers

Mais de Inteligência Artificial

O sistema com IA que promete revolucionar a segurança nos aeroportos

Por que a Meta vê nos óculos com IA sua próxima aposta bilionária

Por que talentos de IA viraram os profissionais mais disputados e bem pagos do mundo

Por que a OpenAI desistiu do Sora, seu projeto mais ambicioso de IA