Inteligência Artificial

Anthropic começa a usar dados de usuários para treinar IA

Alterações nos termos de uso permitem que a empresa utilize novas transcrições de chats e sessões de codificação para aprimorar modelos de inteligência artificial

Publicado em 29 de agosto de 2025 às 05h17.

A Anthropic iniciará o treinamento de seus modelos de inteligência artificial utilizando dados de usuários, incluindo transcrições de bate-papo e sessões de codificação. Os clientes da plataforma precisam autorizar o uso. As informações são do The Verge.

"Se você já é um usuário, tem até 28 de setembro de 2025 para aceitar os Termos do Consumidor atualizados e tomar sua decisão. Se optar por aceitar as novas políticas agora, elas entrarão em vigor imediatamente", destacou a empresa em comunicado nesta quinta-feira, 28.

A política se aplica a novos chats e sessões de codificação retomadas, não incluindo conteúdos antigos não continuados, e os dados poderão ser armazenados por até cinco anos.

Caso o usuário exclua uma conversa, ela não será usada para treinamentos futuros. Se o usuário optar por não fornecer seus dados para treinamento, permanecerá o período de retenção atual de 30 dias, segundo o site.

As mudanças atingem todos os planos de assinatura voltados a consumidores, como Claude Free, Pro e Max, incluindo o uso do Claude Code. Os planos comerciais, como Claude Gov, Claude for Work, Claude for Education, ou ao uso de APIs terceirizadas, como Amazon Bedrock e Vertex AI do Google Cloud não serão aplicáveis.

Como funcionará?

Novos usuários devem definir sua preferência durante o processo de inscrição do Claude. Usuários existentes receberão um pop-up para decidir, podendo adiar a escolha com o botão “Agora não”, mas serão obrigados a tomar uma decisão até a data limite.

O pop-up apresenta a mensagem “Atualizações nos Termos e Políticas do Consumidor” e inclui um botão grande “Aceitar”. A opção de permitir o uso dos dados para treinar IA vem ativada por padrão, o que pode levar alguns usuários a concordarem sem alterar a configuração.

Caso o usuário queira cancelar a participação, é possível desativar a opção no mesmo pop-up ou alterar posteriormente em Configurações > Privacidade > Configurações de Privacidade. Mudanças retroativas não são aplicadas a dados já utilizados no treinamento da IA.

A Anthropic afirmou que utiliza processos automatizados para filtrar ou ofuscar dados confidenciais e que não vende dados de usuários a terceiros.

Acompanhe tudo sobre:Inteligência artificialTecnologia

Mais de Inteligência Artificial

Nove em cada 10 brasileiros já usaram inteligência artificial, aponta pesquisa

‘A nova linguagem de programação chama-se humana’, diz CEO da Nvidia

Profissionais de tecnologia permanecem maioria absoluta no uso de IA, diz pesquisa da Anthropic

IA não para de se tornar mais valiosa, mas setor se preocupa com falta de interesse do público