Skip to content
The Claude logo on a computer screen on an orange background.
Source: theverge.com

Anthropic entrenará modelos de IA con transcripciones de chat a menos que el usuario opte por no hacerlo; retención de datos de 5 años y fecha límite 28 de septiembre

Sources: https://www.theverge.com/anthropic/767507/anthropic-user-data-consumers-ai-models-training-privacy, The Verge AI

TL;DR

  • Anthropic entrenará sus modelos de IA con datos de usuarios, incluidas las transcripciones de chat y las sesiones de codificación, a menos que el usuario elija no compartir.
  • La retención de datos puede durar hasta cinco años para cuentas que no opten por no compartir.
  • Todas las decisiones deben tomarse antes del 28 de septiembre de 2025; los usuarios nuevos eligen durante la inscripción, los existentes ven un pop-up con opción de posponer.
  • Las actualizaciones se aplican a los planes de consumo de Claude (Free, Pro, Max) y no afectan a usos comerciales o API.
  • Anthropic afirma usar filtros/anonimización para proteger datos sensibles y no vende datos de usuarios a terceros.

Contexto y antecedentes

Anthropic anunció actualizaciones en sus términos de consumo y política de privacidad, detallando cómo podrían usarse los datos de los usuarios para entrenar sus modelos de IA. La empresa señala que el entrenamiento con datos de usuarios ocurrirá para chats y sesiones de codificación nuevos y retomados, a menos que el usuario elija no compartir. La ventana de retención de cinco años se asocia a estas actualizaciones. La decisión debe tomarse antes del 28 de septiembre de 2025. Estos cambios se aplican a los planes de consumo de Claude y no a planes comerciales ni al uso de API (incluidas integraciones con terceros como Amazon Bedrock y Vertex AI de Google Cloud). Los usuarios existentes recibirán un pop-up de privacidad para decidir; los nuevos usuarios encontrarán la opción durante la inscripción. Se señala que los chats o sesiones anteriores no retomadas no se usarán para entrenamiento, pero retomar una sesión antigua puede implicar entrenamiento de esos datos. The Verge cubrió estos cambios con detalle, destacando el mecanismo de opt-out y el impacto potencial sobre la privacidad de los usuarios: https://www.theverge.com/anthropic/767507/anthropic-user-data-consumers-ai-models-training-privacy

¿Qué hay de nuevo?

  • Entrenamiento con datos de usuario: los modelos de IA se entrenarán con chats y sesiones de codificación de usuarios que no opten por no compartir.
  • Retención de cinco años: los datos pueden conservarse hasta cinco años para usuarios sin opt-out.
  • Flujo de opt-out: los nuevos usuarios eligen su preferencia al registrarse; los existentes recibirán un pop-up de privacidad. Aceptar puede iniciar el entrenamiento de inmediato; negarlo permite desactivar la opción en Configuraciones.
  • Alcance de la actualización: se aplica a Claude en planes de consumo (Free, Pro, Max) e incluye Claude Code; no se aplica a usos comerciales ni a la API.
  • Medidas de protección: Anthropic afirma filtrar/anonymizar datos sensibles y no vender datos a terceros.

Tabla: Alcance de las actualizaciones

AlcanceDetalles
Servicios afectadosClaude consumo: Free, Pro, Max
Datos incluidosChats y sesiones de codificación nuevos (incluidas sesiones retomadas)
Servicios excluidosClaude Gov, Claude for Work, Claude for Education, uso de API (incluido a través de terceros)

Por qué importa (impacto para desarrolladores/empresas)

Para desarrolladores y empresas que usan Claude para soporte al cliente, asistencia de codificación o flujos de trabajo internos, este cambio aclara qué datos pueden usarse para entrenar los modelos que alimentan estas herramientas. Separando datos de consumo de datos empresariales, Anthropic busca limitar el entrenamiento en cargas de trabajo empresariales y en APIs. Sin embargo, la retención de hasta cinco años para cuentas que no opten por no compartir genera preocupaciones sobre la privacidad y la duración del almacenamiento, incluso con promesas de filtrado de datos sensibles. Las organizaciones deben evaluar cómo usan Claude en cuentas de consumo, especialmente si los empleados usan la herramienta para proyectos no confidenciales. Los flujos entre consumo y API pueden requerir políticas específicas para evitar la exposición no intencionada de datos destinados al entrenamiento.

Detalles técnicos o implementación

  • Flujo de decisión del usuario: los nuevos usuarios verán una opción durante la inscripción para decidir sobre el uso de sus datos para el entrenamiento. Los usuarios existentes verán un pop-up de privacidad; la decisión debe tomarse, con la posibilidad de posponer.
  • Configuraciones por defecto: el pop-up muestra un estado On por defecto para permitir el uso de chats y sesiones de codificación para entrenar y mejorar Claude; Off puede activarse en Configuración de Privacidad. La fecha efectiva es el 28 de septiembre de 2025.
  • Medidas de protección de datos: Anthropic afirma usar filtros y procesos automáticos para proteger datos sensibles.
  • Alcance y exclusiones: los planes comerciales y el uso de API no están cubiertos por estas actualizaciones, incluso cuando Claude se utiliza a través de terceros.

Puntos clave

  • El entrenamiento puede incluir chats y sesiones de codificación, a menos que haya opt-out.
  • La retención puede durar hasta cinco años para cuentas sin opt-out.
  • Decisiones antes del 28 de septiembre de 2025; nuevos usuarios eligen al registrarse, existentes vía pop-up.
  • Actualizaciones aplican a Claude en planes de consumo y no a usos comerciales o API.
  • La empresa promete proteger la privacidad y no vender datos a terceros.

FAQ

Referencias

More news