Anthropic entrenará modelos de IA con transcripciones de chat a menos que el usuario opte por no hacerlo; retención de datos de 5 años y fecha límite 28 de septiembre
Sources: https://www.theverge.com/anthropic/767507/anthropic-user-data-consumers-ai-models-training-privacy, The Verge AI
TL;DR
- Anthropic entrenará sus modelos de IA con datos de usuarios, incluidas las transcripciones de chat y las sesiones de codificación, a menos que el usuario elija no compartir.
- La retención de datos puede durar hasta cinco años para cuentas que no opten por no compartir.
- Todas las decisiones deben tomarse antes del 28 de septiembre de 2025; los usuarios nuevos eligen durante la inscripción, los existentes ven un pop-up con opción de posponer.
- Las actualizaciones se aplican a los planes de consumo de Claude (Free, Pro, Max) y no afectan a usos comerciales o API.
- Anthropic afirma usar filtros/anonimización para proteger datos sensibles y no vende datos de usuarios a terceros.
Contexto y antecedentes
Anthropic anunció actualizaciones en sus términos de consumo y política de privacidad, detallando cómo podrían usarse los datos de los usuarios para entrenar sus modelos de IA. La empresa señala que el entrenamiento con datos de usuarios ocurrirá para chats y sesiones de codificación nuevos y retomados, a menos que el usuario elija no compartir. La ventana de retención de cinco años se asocia a estas actualizaciones. La decisión debe tomarse antes del 28 de septiembre de 2025. Estos cambios se aplican a los planes de consumo de Claude y no a planes comerciales ni al uso de API (incluidas integraciones con terceros como Amazon Bedrock y Vertex AI de Google Cloud). Los usuarios existentes recibirán un pop-up de privacidad para decidir; los nuevos usuarios encontrarán la opción durante la inscripción. Se señala que los chats o sesiones anteriores no retomadas no se usarán para entrenamiento, pero retomar una sesión antigua puede implicar entrenamiento de esos datos. The Verge cubrió estos cambios con detalle, destacando el mecanismo de opt-out y el impacto potencial sobre la privacidad de los usuarios: https://www.theverge.com/anthropic/767507/anthropic-user-data-consumers-ai-models-training-privacy
¿Qué hay de nuevo?
- Entrenamiento con datos de usuario: los modelos de IA se entrenarán con chats y sesiones de codificación de usuarios que no opten por no compartir.
- Retención de cinco años: los datos pueden conservarse hasta cinco años para usuarios sin opt-out.
- Flujo de opt-out: los nuevos usuarios eligen su preferencia al registrarse; los existentes recibirán un pop-up de privacidad. Aceptar puede iniciar el entrenamiento de inmediato; negarlo permite desactivar la opción en Configuraciones.
- Alcance de la actualización: se aplica a Claude en planes de consumo (Free, Pro, Max) e incluye Claude Code; no se aplica a usos comerciales ni a la API.
- Medidas de protección: Anthropic afirma filtrar/anonymizar datos sensibles y no vender datos a terceros.
Tabla: Alcance de las actualizaciones
| Alcance | Detalles |
|---|---|
| Servicios afectados | Claude consumo: Free, Pro, Max |
| Datos incluidos | Chats y sesiones de codificación nuevos (incluidas sesiones retomadas) |
| Servicios excluidos | Claude Gov, Claude for Work, Claude for Education, uso de API (incluido a través de terceros) |
Por qué importa (impacto para desarrolladores/empresas)
Para desarrolladores y empresas que usan Claude para soporte al cliente, asistencia de codificación o flujos de trabajo internos, este cambio aclara qué datos pueden usarse para entrenar los modelos que alimentan estas herramientas. Separando datos de consumo de datos empresariales, Anthropic busca limitar el entrenamiento en cargas de trabajo empresariales y en APIs. Sin embargo, la retención de hasta cinco años para cuentas que no opten por no compartir genera preocupaciones sobre la privacidad y la duración del almacenamiento, incluso con promesas de filtrado de datos sensibles. Las organizaciones deben evaluar cómo usan Claude en cuentas de consumo, especialmente si los empleados usan la herramienta para proyectos no confidenciales. Los flujos entre consumo y API pueden requerir políticas específicas para evitar la exposición no intencionada de datos destinados al entrenamiento.
Detalles técnicos o implementación
- Flujo de decisión del usuario: los nuevos usuarios verán una opción durante la inscripción para decidir sobre el uso de sus datos para el entrenamiento. Los usuarios existentes verán un pop-up de privacidad; la decisión debe tomarse, con la posibilidad de posponer.
- Configuraciones por defecto: el pop-up muestra un estado On por defecto para permitir el uso de chats y sesiones de codificación para entrenar y mejorar Claude; Off puede activarse en Configuración de Privacidad. La fecha efectiva es el 28 de septiembre de 2025.
- Medidas de protección de datos: Anthropic afirma usar filtros y procesos automáticos para proteger datos sensibles.
- Alcance y exclusiones: los planes comerciales y el uso de API no están cubiertos por estas actualizaciones, incluso cuando Claude se utiliza a través de terceros.
Puntos clave
- El entrenamiento puede incluir chats y sesiones de codificación, a menos que haya opt-out.
- La retención puede durar hasta cinco años para cuentas sin opt-out.
- Decisiones antes del 28 de septiembre de 2025; nuevos usuarios eligen al registrarse, existentes vía pop-up.
- Actualizaciones aplican a Claude en planes de consumo y no a usos comerciales o API.
- La empresa promete proteger la privacidad y no vender datos a terceros.
FAQ
Referencias
- https://www.theverge.com/anthropic/767507/anthropic-user-data-consumers-ai-models-training-privacy
- Cobertura de The Verge sobre el entrenamiento de datos de Anthropic y mecanismos de opt-out para cuentas de consumo
More news
Primer vistazo a la app Google Home impulsada por Gemini
The Verge informa que Google está actualizando la app Google Home para traer Gemini, con una barra de búsqueda Ask Home, un rediseño de la interfaz y controles por voz para el hogar.
Las demostraciones fallidas de las gafas inteligentes con Live AI de Meta no tenían que ver con el Wi‑Fi, dice el CTO
Las demostraciones en vivo de las gafas Ray‑Ban con Live AI de Meta presentaron fallos vergonzosos. El CTO Andrew Bosworth explica las causas, entre ellas un tráfico autoimpuesto y un fallo raro de llamada, y señala que el fallo ya está corregido.
OpenAI desarrolla supuesto altavoz inteligente, gafas, grabadora y pin con Jony Ive
OpenAI exploraría una familia de dispositivos IA con el ex director de diseño de Apple, Jony Ive, que incluiría un altavoz inteligente sin pantalla, gafas, una grabadora y un pin wearable, con previsión de lanzamiento para finales de 2026 o principios de 2027.
Shadow Leak muestra cómo los agentes de ChatGPT pueden exfiltrar datos de Gmail mediante inyección de prompts
Investigadores de seguridad demostraron un ataque de inyección de prompts llamado Shadow Leak, que utilizó Deep Research de ChatGPT para exfiltrar datos de una bandeja de Gmail. OpenAI parcheó la falla; el caso subraya los riesgos de la IA con agentes.
Google amplía Gemini en Chrome con lanzamiento multiplataforma y sin cuota
Gemini IA en Chrome accede a pestañas, historial y propiedades de Google, se despliega en Mac y Windows en EE. UU. sin costo y permite automatización de tareas e integraciones con Workspace.
James Cameron sobre IA y Realidad Mixta: una visión centrada en el marco para 3D en Quest
James Cameron y el CTO de Meta, Andrew Bosworth, analizan producción estereoscópica, el marco como herramienta narrativa y cómo la IA generativa podría ampliar el cine sin reemplazar a los artistas, junto con un primer avance de Avatar 3 en Horizon TV.