Inteligência Artificial

Código fonte do Claude Code é exposto; 5 pontos para entender o vazamento que afetou a Anthropic

A empresa confirmou que um lançamento publicou por engano um arquivo de depuração no npm, repositório de pacotes, o que acabou revelando parte do “manual de montagem” da ferramenta

Anthropic: empresa de tecnologia é a criadora do modelo de linguagem Claude, concorrente do ChatGPT (Smith Collection/Gado/Getty Images)

Anthropic: empresa de tecnologia é a criadora do modelo de linguagem Claude, concorrente do ChatGPT (Smith Collection/Gado/Getty Images)

André Lopes
André Lopes

Repórter

Publicado em 31 de março de 2026 às 15h32.

Última atualização em 31 de março de 2026 às 19h22.

A Anthropic, dona do assistente de IA Claude, confirmou que uma versão do Claude Code, ferramenta voltada a programadores, publicou por engano um arquivo interno que expos parte do código fonte da empresa. O caso foi relatado pelo site VentureBeat e ganhou tração depois de ser apontado por desenvolvedores nas redes sociais.

O episódio não indica, necessariamente, uma invasão a sistemas da empresa. A explicação oficial é que se tratou de um erro durante o lançamento de uma versão do software.

A seguir, cinco pontos para entender o que aconteceu e por que isso importa.

O que foi vazado da Anthropic

Segundo o VentureBeat, no linguajar técnico, o que aconteceu foi que um pacote público do Claude Code no npm incluiu um arquivo source map, mapa de código para depuração. Esse tipo de arquivo é usado para transformar o “produto final” em algo mais legível para quem precisa corrigir bugs. Quando cai no lugar errado, ele pode revelar como a IA da empresa funciona.

Onde isso apareceu

O material estava em um pacote publicado no npm, repositório em que desenvolvedores baixam bibliotecas e ferramentas usadas em programas e sites. Por ser um canal amplamente usado, um erro ali tende a ser rapidamente replicado e espelhado.

O que diz a Anthropic

Em nota citada pelo VentureBeat, a Anthropic afirmou que não houve vazamento de informações sensíveis de clientes nem credenciais. A empresa descreveu o caso como um problema de “pacote” publicado por erro humano, não como uma violação de segurança.

Por que isso preocupa a empresa

O risco central é de propriedade intelectual, o conhecimento que faz um produto funcionar e se diferenciar. Um vazamento desse tipo pode ajudar concorrentes a entender como a ferramenta foi construída, quais escolhas de arquitetura foram feitas e quais soluções foram adotadas para problemas típicos de agentes de IA, como manter contexto em tarefas longas.

O que usuários podem fazer agora

A Anthropic não detalhou, no trecho citado pelo VentureBeat, quais versões seriam consideradas seguras nem se removeu a versão afetada. Para usuários, o caminho prático é acompanhar as orientações oficiais da empresa, manter a ferramenta atualizada e evitar instalar versões que tenham sido sinalizadas como problemáticas até haver confirmação.

Acompanhe tudo sobre:AnthropicHackers

Mais de Inteligência Artificial

A IA que transforma áudio de reuniões em tarefas automáticas (e como usar)

Como usar o Rewind AI para “buscar” tudo que você já viu no computador

O que é “RAG” (Retrieval-Augmented Generation) — e por que empresas estão adotando

Conheça o Gamma: a IA que cria apresentações completas em minutos