Skip to content
The Claude logo on a computer screen on an orange background.
Source: theverge.com

Anthropic treinará modelos de IA com transcrições de chat a menos que usuário opte por não; retenção de dados de 5 anos e prazo de 28 de setembro

Sources: https://www.theverge.com/anthropic/767507/anthropic-user-data-consumers-ai-models-training-privacy, The Verge AI

TL;DR

  • A Anthropic treinará seus modelos de IA com dados de usuários, incluindo novas transcrições de chat e sessões de codificação, a menos que o usuário opte por não compartilhar.
  • A retenção de dados será de até cinco anos para contas que não optarem por não compartilhar.
  • Todas as decisões devem ser tomadas até 28 de setembro de 2025; usuários novos escolhem no cadastro, usuários existentes veem um pop-up com opção de adiar.
  • As atualizações afetam apenas os níveis de consumidor do Claude (Free, Pro, Max) e não se aplicam a planos comerciais ou uso de API.
  • A Anthropic afirma usar filtros/anonimização para proteger dados sensíveis e não vende dados de usuários a terceiros.

Contexto e background

A Anthropic anunciou atualizações em seus termos de consumo e política de privacidade, descrevendo mudanças em como os dados dos usuários podem ser usados para treinar os seus modelos de IA. A empresa afirma que o treinamento com dados de usuário ocorrerá para chats e sessões de codificação novos e retomados, a menos que o usuário opte por não compartilhar. A mudança de política vem acompanhada de uma janela de retenção de cinco anos para contas que não optarem por não compartilhar. A decisão deve ser tomada até 28 de setembro de 2025. As atualizações dizem respeito aos planos de consumo do Claude, e não afetam planos comerciais ou uso de API (incluindo integrações com terceiros como Amazon Bedrock e Vertex AI do Google Cloud). Para usuários já cadastrados no Claude, a decisão de opt-out ocorrerá por meio de um pop-up na experiência do Claude; usuários novos encontrarão a opção durante o cadastro. Uma nota adicional esclarece que chats ou sessões anteriores que não forem retomadas não serão usados para treinamento, mas retomar uma sessão antiga pode levar o treinamento desses dados. A publicação também enfatiza proteções de privacidade, afirmando que a Anthropic utiliza ferramentas para filtrar/anonimizar dados sensíveis e que não vende dados a terceiros. A matéria original da The Verge traz esses detalhes: https://www.theverge.com/anthropic/767507/anthropic-user-data-consumers-ai-models-training-privacy

O que há de novo

  • Treinamento com dados do usuário: treinamento dos modelos de IA em dados de usuários, incluindo novos chats e sessões de codificação, a menos que o usuário opte por não compartilhar.
  • Retenção de cinco anos: dados coletados de usuários que não optarem por não compartilhar podem ser retidos por até cinco anos.
  • Fluxo de opt-out: novos usuários escolhem a preferência no cadastro; usuários existentes verão um pop-up de privacidade. Se aceitarem, o treinamento pode começar imediatamente; se não, a opção Off pode ser ativada nas Configurações. A decisão deve ser tomada até 28 de setembro de 2025.
  • Escopo da atualização: aplica-se aos serviços de consumo do Claude (Free, Pro, Max) e até ao uso do Claude Code nesses planos. Planos comerciais e uso de API ficam fora.
  • Proteções de dados: a Anthropic afirma usar filtragem/anonimização de dados sensíveis e garante que não vende dados de usuários a terceiros.

Tabela: Alcance das atualizações

EscopoDetalhes
Serviços afetadosPlanos de consumo do Claude: Free, Pro, Max
Dados incluídosNovos chats e sessões de codificação (inclui sessões retomadas)
Serviços excluídosClaude Gov, Claude for Work, Claude for Education, uso de API (incluindo via terceiros)

Por que isso importa (impacto para desenvolvedores/empresas)

Para desenvolvedores e empresas que utilizam Claude para suporte ao cliente, assistência de codificação ou fluxos internos, a mudança de política deixa claro quais dados podem ser usados para treinar modelos que alimentam essas ferramentas. Ao separar o uso do consumidor do uso empresarial, a Anthropic busca limitar o treinamento com dados de workloads empresariais e de API. Contudo, a retenção de dados por até cinco anos para contas que não optarem por compartilhar cria preocupações quanto à privacidade e ao tempo de armazenamento, mesmo com promessas de filtragem de dados sensíveis. Empresas devem considerar como sua equipe usa Claude em contas de consumidor, especialmente se empregados utilizarem a ferramenta para projetos não confidenciais. Canais de integração diferentes (API versus consumidor) podem exigir políticas distintas para evitar mixing de dados que não devem ser usados para treinamento.

Detalhes técnicos ou implementação

  • Fluxo de decisão do usuário: novos usuários encontram uma opção de cadastro para decidir sobre o uso dos dados no treinamento. Usuários existentes recebem um pop-up de privacidade com uma decisão obrigatória, com a opção de adiar.
  • Configurações padrão: o pop-up apresenta um estado On por padrão para permitir o uso de chats e sessões de codificação para treinar e melhorar Claude; a opção Off pode ser ativada nas Configurações de Privacidade. A data efetiva é 28 de setembro de 2025.
  • Medidas de proteção de dados: a Anthropic descreve o uso de filtros/anonimização de dados sensíveis como parte do processo de treinamento.
  • Escopo e exclusões: planos comerciais e uso de API não são cobertos por essas atualizações, incluindo uso por terceiros (Amazon Bedrock e Vertex AI do Google Cloud).

Pontos-chave

  • Treinamento poderá incluir chats e sessões de codificação, a menos que haja opt-out.
  • Retenção de dados pode chegar a cinco anos para usuários sem opt-out.
  • Decisões devem ser tomadas até 28 de setembro de 2025; novos usuários escolhem no cadastro, existentes via pop-up.
  • Atualizações se aplicam aos planos de consumo do Claude e não aos planos comerciais ou uso de API.
  • Compania promete proteção de privacidade e a não venda de dados a terceiros.

FAQ

  • Que dados serão usados para treinar os modelos da Anthropic?

    Dados de usuários de chats e sessões de codificação novas (incluindo sessões retomadas) de usuários que não optarem por não compartilhar.

  • ual é o período de retenção de dados?

    Pode chegar a cinco anos para contas que não optarem por não compartilhar.

  • Posso mudar minha decisão depois?

    Sim. A decisão pode ser alterada a qualquer momento em Configurações de Privacidade, mas a nova escolha se aplica apenas a dados futuros.

  • Essas mudanças afetam API ou produtos empresariais?

    Não. Planos comerciais e uso de API ficam fora dessas atualizações.

  • ue proteções existem para dados sensíveis?

    Anthropic afirma usar filtros e processos para anonimizá-los e não vender dados de usuários a terceiros.

Referências

More news