Anthropic treinará modelos de IA com transcrições de chat a menos que usuário opte por não; retenção de dados de 5 anos e prazo de 28 de setembro
Sources: https://www.theverge.com/anthropic/767507/anthropic-user-data-consumers-ai-models-training-privacy, The Verge AI
TL;DR
- A Anthropic treinará seus modelos de IA com dados de usuários, incluindo novas transcrições de chat e sessões de codificação, a menos que o usuário opte por não compartilhar.
- A retenção de dados será de até cinco anos para contas que não optarem por não compartilhar.
- Todas as decisões devem ser tomadas até 28 de setembro de 2025; usuários novos escolhem no cadastro, usuários existentes veem um pop-up com opção de adiar.
- As atualizações afetam apenas os níveis de consumidor do Claude (Free, Pro, Max) e não se aplicam a planos comerciais ou uso de API.
- A Anthropic afirma usar filtros/anonimização para proteger dados sensíveis e não vende dados de usuários a terceiros.
Contexto e background
A Anthropic anunciou atualizações em seus termos de consumo e política de privacidade, descrevendo mudanças em como os dados dos usuários podem ser usados para treinar os seus modelos de IA. A empresa afirma que o treinamento com dados de usuário ocorrerá para chats e sessões de codificação novos e retomados, a menos que o usuário opte por não compartilhar. A mudança de política vem acompanhada de uma janela de retenção de cinco anos para contas que não optarem por não compartilhar. A decisão deve ser tomada até 28 de setembro de 2025. As atualizações dizem respeito aos planos de consumo do Claude, e não afetam planos comerciais ou uso de API (incluindo integrações com terceiros como Amazon Bedrock e Vertex AI do Google Cloud). Para usuários já cadastrados no Claude, a decisão de opt-out ocorrerá por meio de um pop-up na experiência do Claude; usuários novos encontrarão a opção durante o cadastro. Uma nota adicional esclarece que chats ou sessões anteriores que não forem retomadas não serão usados para treinamento, mas retomar uma sessão antiga pode levar o treinamento desses dados. A publicação também enfatiza proteções de privacidade, afirmando que a Anthropic utiliza ferramentas para filtrar/anonimizar dados sensíveis e que não vende dados a terceiros. A matéria original da The Verge traz esses detalhes: https://www.theverge.com/anthropic/767507/anthropic-user-data-consumers-ai-models-training-privacy
O que há de novo
- Treinamento com dados do usuário: treinamento dos modelos de IA em dados de usuários, incluindo novos chats e sessões de codificação, a menos que o usuário opte por não compartilhar.
- Retenção de cinco anos: dados coletados de usuários que não optarem por não compartilhar podem ser retidos por até cinco anos.
- Fluxo de opt-out: novos usuários escolhem a preferência no cadastro; usuários existentes verão um pop-up de privacidade. Se aceitarem, o treinamento pode começar imediatamente; se não, a opção Off pode ser ativada nas Configurações. A decisão deve ser tomada até 28 de setembro de 2025.
- Escopo da atualização: aplica-se aos serviços de consumo do Claude (Free, Pro, Max) e até ao uso do Claude Code nesses planos. Planos comerciais e uso de API ficam fora.
- Proteções de dados: a Anthropic afirma usar filtragem/anonimização de dados sensíveis e garante que não vende dados de usuários a terceiros.
Tabela: Alcance das atualizações
| Escopo | Detalhes |
|---|---|
| Serviços afetados | Planos de consumo do Claude: Free, Pro, Max |
| Dados incluídos | Novos chats e sessões de codificação (inclui sessões retomadas) |
| Serviços excluídos | Claude Gov, Claude for Work, Claude for Education, uso de API (incluindo via terceiros) |
Por que isso importa (impacto para desenvolvedores/empresas)
Para desenvolvedores e empresas que utilizam Claude para suporte ao cliente, assistência de codificação ou fluxos internos, a mudança de política deixa claro quais dados podem ser usados para treinar modelos que alimentam essas ferramentas. Ao separar o uso do consumidor do uso empresarial, a Anthropic busca limitar o treinamento com dados de workloads empresariais e de API. Contudo, a retenção de dados por até cinco anos para contas que não optarem por compartilhar cria preocupações quanto à privacidade e ao tempo de armazenamento, mesmo com promessas de filtragem de dados sensíveis. Empresas devem considerar como sua equipe usa Claude em contas de consumidor, especialmente se empregados utilizarem a ferramenta para projetos não confidenciais. Canais de integração diferentes (API versus consumidor) podem exigir políticas distintas para evitar mixing de dados que não devem ser usados para treinamento.
Detalhes técnicos ou implementação
- Fluxo de decisão do usuário: novos usuários encontram uma opção de cadastro para decidir sobre o uso dos dados no treinamento. Usuários existentes recebem um pop-up de privacidade com uma decisão obrigatória, com a opção de adiar.
- Configurações padrão: o pop-up apresenta um estado On por padrão para permitir o uso de chats e sessões de codificação para treinar e melhorar Claude; a opção Off pode ser ativada nas Configurações de Privacidade. A data efetiva é 28 de setembro de 2025.
- Medidas de proteção de dados: a Anthropic descreve o uso de filtros/anonimização de dados sensíveis como parte do processo de treinamento.
- Escopo e exclusões: planos comerciais e uso de API não são cobertos por essas atualizações, incluindo uso por terceiros (Amazon Bedrock e Vertex AI do Google Cloud).
Pontos-chave
- Treinamento poderá incluir chats e sessões de codificação, a menos que haja opt-out.
- Retenção de dados pode chegar a cinco anos para usuários sem opt-out.
- Decisões devem ser tomadas até 28 de setembro de 2025; novos usuários escolhem no cadastro, existentes via pop-up.
- Atualizações se aplicam aos planos de consumo do Claude e não aos planos comerciais ou uso de API.
- Compania promete proteção de privacidade e a não venda de dados a terceiros.
FAQ
-
Que dados serão usados para treinar os modelos da Anthropic?
Dados de usuários de chats e sessões de codificação novas (incluindo sessões retomadas) de usuários que não optarem por não compartilhar.
-
ual é o período de retenção de dados?
Pode chegar a cinco anos para contas que não optarem por não compartilhar.
-
Posso mudar minha decisão depois?
Sim. A decisão pode ser alterada a qualquer momento em Configurações de Privacidade, mas a nova escolha se aplica apenas a dados futuros.
-
Essas mudanças afetam API ou produtos empresariais?
Não. Planos comerciais e uso de API ficam fora dessas atualizações.
-
ue proteções existem para dados sensíveis?
Anthropic afirma usar filtros e processos para anonimizá-los e não vender dados de usuários a terceiros.
Referências
- https://www.theverge.com/anthropic/767507/anthropic-user-data-consumers-ai-models-training-privacy
- Cobertura da The Verge sobre treinamento de dados da Anthropic e mecanismos de opt-out para contas de consumidor
More news
Primeira olhada no app Google Home alimentado pelo Gemini
O The Verge mostra que o Google está atualizando o app Google Home para trazer recursos do Gemini, incluindo a barra de busca Ask Home, um redesign da interface e controles por voz natural para o lar.
Demos fracassados de óculos com Live AI da Meta não tiveram relação com Wi‑Fi, explica o CTO
Demos ao vivo dos óculos Ray‑Ban com Live AI da Meta enfrentaram falhas constrangedoras. O CTO Andrew Bosworth explica as causas, incluindo tráfego autoimplicado e um bug raro de chamada de vídeo, e aponta que o bug foi corrigido.
OpenAI supostamente desenvolve alto-falante inteligente, óculos, gravador e pin com Jony Ive
A OpenAI estaria explorando uma família de dispositivos com o ex-chefe de design da Apple, Jony Ive, incluindo um alto-falante inteligente sem tela, óculos, um gravador de voz e um pin vestível, com lançamento previsto para o final de 2026 ou início de 2027.
Shadow Leak mostra como agentes do ChatGPT podem exfiltrar dados do Gmail via injeção de prompt
Pesquisadores de segurança demonstraram uma injeção de prompt chamada Shadow Leak que usou o Deep Research do ChatGPT para extrair dados de uma caixa de entrada do Gmail. OpenAI corrigiu a falha; o caso destaca riscos de IA com atuação autônoma.
Google expande Gemini no Chrome com lançamento multiplataforma e sem taxa de assinatura
O Gemini AI no Chrome ganha acesso às abas, histórico e propriedades do Google, com rollout para Mac e Windows nos EUA sem cobrança e com automação de tarefas e integrações com o Workspace.
James Cameron sobre IA e Realidade Mista: uma visão baseada em molduras com 3D no Quest
James Cameron e o CTO da Meta, Andrew Bosworth, discutem produção estereoscópica, o quadro como ferramenta de narrativa e como IA generativa pode ampliar o cinema sem substituir artistas, junto com o primeiro trailer de Avatar 3 na Horizon TV.