Anthropic entraînera ses modèles IA sur les transcripts de chat des utilisateurs, sauf opt-out; conservation des données sur 5 ans et date limite au 28 septembre
Sources: https://www.theverge.com/anthropic/767507/anthropic-user-data-consumers-ai-models-training-privacy, The Verge AI
TL;DR
- Anthropic entraînera ses modèles d’IA sur les données des utilisateurs, y compris les nouveaux transcripts de chat et les sessions de codage, à moins que l’utilisateur ne fasse le choix de se retirer.
- La rétention des données peut durer jusqu’à cinq ans pour les comptes qui n’optent pas pour le retrait.
- Toutes les décisions doivent être prises d’ici le 28 septembre 2025; les nouveaux utilisateurs choisissent lors de l’inscription, les utilisateurs existants voient une pop-up avec option de report.
- Les mises à jour s’appliquent aux niveaux consommateur de Claude (Free, Pro, Max) et n’affectent pas les usages commerciaux ou l’API.
- Anthropic affirme utiliser des outils de filtrage/anonimisation pour protéger les données sensibles et ne vend pas les données des utilisateurs à des tiers.
Contexte et arrière-plan
Anthropic a annoncé des mises à jour de ses conditions de consommation et de sa politique de confidentialité, expliquant comment les données des utilisateurs pourraient être utilisées pour entraîner ses modèles IA. Selon le billet de blog de l’entreprise, l’entraînement sur les données des utilisateurs concernera les chats et sessions de codage nouveaux et repris, sauf si l’utilisateur choisit de ne pas partager. La retenue des données pour une période maximale de cinq ans est associée à ces mises à jour. La décision doit être prise d’ici le 28 septembre 2025. Ces changements s’appliquent aux plans consommateur de Claude et ne s’appliquent pas aux plans commerciaux ni à l’usage de l’API (y compris les intégrations via des partenaires comme Amazon Bedrock et Vertex AI de Google Cloud). Les utilisateurs existants recevront une pop-up de confidentialité pour décider; les nouveaux utilisateurs rencontreront l’option lors de l’inscription. Une note précise que les chats ou sessions antérieures non reprises ne seront pas utilisés pour l’entraînement, mais reprendre une session ancienne peut entraîner l’entraînement de ces données. L’article souligne que des protections de confidentialité sont en place et que Claude ne vend pas les données des utilisateurs à des tiers. Cet ensemble de changements est détaillé dans le rapport de The Verge: https://www.theverge.com/anthropic/767507/anthropic-user-data-consumers-ai-models-training-privacy
Ce qui est nouveau
- Entraînement sur les données des utilisateurs: les modèles IA seront entraînés sur les chats et sessions de codage des utilisateurs qui n’optent pas pour le retrait.
- Rétention sur cinq ans: les données des utilisateurs non opt-out peuvent être conservées jusqu’à cinq ans.
- Flux opt-out: les nouveaux utilisateurs choisissent leur préférence lors de l’inscription; les utilisateurs existants recevront une pop-up de confidentialité. Accepter peut démarrer l’entraînement immédiatement; refuser permet d’éteindre l’option dans les paramètres.
- Portée: les mises à jour s’appliquent aux plans consommateurs de Claude (Free, Pro, Max) et incluent Claude Code; ne s’appliquent pas aux usages commerciaux ni à l’API.
- Mesures de protection: Anthropic affirme filtrer/anonymiser les données sensibles et ne pas vendre les données à des tiers.
Tableau: Portée des mises à jour
| Portée | Détails |
|---|---|
| Services concernés | Claude consommateur: Free, Pro, Max |
| Données incluses | Nouveaux chats et sessions de codage (y compris reprises) |
| Services exclus | Claude Gov, Claude for Work, Claude for Education, utilisation de l’API (y compris via des tiers) |
Pourquoi cela compte (impact pour les développeurs/entreprises)
Pour les développeurs et les entreprises utilisant Claude pour le support client, l’assistance au codage ou les flux internes, ce changement clarifie les données susceptibles d’être utilisées pour l’entraînement des modèles qui alimentent ces outils. En séparant les données consommateur des données professionnelles, Anthropic vise à limiter l’entraînement sur les charges de travail d’entreprise et les usages API. Toutefois, la rétention jusqu’à cinq ans pour les comptes non opt-out soulève des questions de confidentialité et de durée de stockage, même si des protections visibles contre les données sensibles sont évoquées. Les entreprises devraient évaluer comment leurs équipes utilisent Claude dans des comptes consommateurs, surtout si des employés utilisent l’outil pour des projets non confidentiels. Les architectures de flux de données à travers API et les environnements consommateurs peuvent nécessiter des politiques spécifiques afin d’éviter les fuites involontaires de données destinées à l’entraînement.
Détails techniques ou mise en œuvre
- Flux de décision utilisateur: les nouveaux utilisateurs voient une option à l’inscription pour décider de l’utilisation de leurs données pour l’entraînement. Les utilisateurs existants reçoivent une pop-up de confidentialité avec une décision obligatoire, avec la possibilité de reporter.
- Paramètres par défaut: la pop-up présente un état On par défaut pour autoriser l’utilisation des chats et sessions de codage pour l’entraînement et l’amélioration de Claude; l’option Off peut être activée dans les Paramètres de Confidentialité. La date effective est le 28 septembre 2025.
- Mesures de protection des données: Anthropic décrit l’usage d’outils de filtrage et d’anonymisation pour protéger les données sensibles.
- Portée et exclusions: les plans commerciaux et l’usage de l’API ne sont pas couverts par ces mises à jour, y compris les usages par des tiers.
Points-clés
- L’entraînement peut inclure chats et sessions de codage, sauf opt-out.
- La rétention peut durer jusqu’à cinq ans pour les comptes non opt-out.
- Décision à prendre d’ici le 28 septembre 2025; nouveaux utilisateurs choisissent lors de l’inscription, existants via pop-up.
- Mise à jour limitée aux plans consommateurs Claude et non aux usages commerciaux ou API.
- L’entreprise promet des protections de confidentialité et l’absence de vente des données à des tiers.
FAQ
Références
- https://www.theverge.com/anthropic/767507/anthropic-user-data-consumers-ai-models-training-privacy
- Couvre la couverture The Verge sur l’entraînement des données d’Anthropic et les mécanismes d’opt-out pour les comptes consommateurs
More news
Premier aperçu de l'app Google Home propulsée par Gemini
The Verge rapporte que Google met Gemini dans l'application Google Home avec une refonte majeure et la nouvelle fonction 'Ask Home'.
Shadow Leak montre comment les agents ChatGPT peuvent exfiltrer des données Gmail via injection de prompt
Des chercheurs en sécurité ont démontré une attaque par injection de prompt baptisée Shadow Leak, utilisant Deep Research de ChatGPT pour exfiltrer discrètement des données d'une boîte Gmail. OpenAI a corrigé la faille; l'affaire illustre les risques des IA agentisées.
Les démonstrations ratées des lunettes intelligentes Live AI de Meta n’avaient rien à voir avec le Wi‑Fi, affirme le CTO
Les démonstrations en direct des lunettes Ray‑Ban avec Live AI de Meta ont connu des échecs embarrassants. Le CTO Andrew Bosworth explique les causes, dont un trafic auto-imposé et un bug rare d’appel vidéo, et précise que le bug est corrigé.
OpenAI envisagerait un haut-parleur intelligent, des lunettes, un enregistreur vocal et un pin avec Jony Ive
OpenAI explorerait une famille d'appareils IA avec l'ancien chef du design d'Apple, Jony Ive, incluant un haut-parleur sans écran, des lunettes intelligentes, un enregistreur vocal et un pin portable, avec une sortie visée fin 2026 ou début 2027.
Comment les chatbots et leurs créateurs alimentent la psychose liée à l’IA
Analyse de la psychose liée à l’IA, de la sécurité des adolescents et des questions juridiques à mesure que les chatbots se multiplient, selon les reportages de Kashmir Hill pour The Verge.
Google étend Gemini dans Chrome avec un déploiement multiplateforme et sans abonnement
Gemini IA dans Chrome accède aux onglets, à l’historique et aux propriétés Google, déployé sur Mac et Windows aux États-Unis sans frais, avec automatisation des tâches et intégrations Workspace.