Skip to content
The Claude logo on a computer screen on an orange background.
Source: theverge.com

Anthropic entraînera ses modèles IA sur les transcripts de chat des utilisateurs, sauf opt-out; conservation des données sur 5 ans et date limite au 28 septembre

Sources: https://www.theverge.com/anthropic/767507/anthropic-user-data-consumers-ai-models-training-privacy, The Verge AI

TL;DR

  • Anthropic entraînera ses modèles d’IA sur les données des utilisateurs, y compris les nouveaux transcripts de chat et les sessions de codage, à moins que l’utilisateur ne fasse le choix de se retirer.
  • La rétention des données peut durer jusqu’à cinq ans pour les comptes qui n’optent pas pour le retrait.
  • Toutes les décisions doivent être prises d’ici le 28 septembre 2025; les nouveaux utilisateurs choisissent lors de l’inscription, les utilisateurs existants voient une pop-up avec option de report.
  • Les mises à jour s’appliquent aux niveaux consommateur de Claude (Free, Pro, Max) et n’affectent pas les usages commerciaux ou l’API.
  • Anthropic affirme utiliser des outils de filtrage/anonimisation pour protéger les données sensibles et ne vend pas les données des utilisateurs à des tiers.

Contexte et arrière-plan

Anthropic a annoncé des mises à jour de ses conditions de consommation et de sa politique de confidentialité, expliquant comment les données des utilisateurs pourraient être utilisées pour entraîner ses modèles IA. Selon le billet de blog de l’entreprise, l’entraînement sur les données des utilisateurs concernera les chats et sessions de codage nouveaux et repris, sauf si l’utilisateur choisit de ne pas partager. La retenue des données pour une période maximale de cinq ans est associée à ces mises à jour. La décision doit être prise d’ici le 28 septembre 2025. Ces changements s’appliquent aux plans consommateur de Claude et ne s’appliquent pas aux plans commerciaux ni à l’usage de l’API (y compris les intégrations via des partenaires comme Amazon Bedrock et Vertex AI de Google Cloud). Les utilisateurs existants recevront une pop-up de confidentialité pour décider; les nouveaux utilisateurs rencontreront l’option lors de l’inscription. Une note précise que les chats ou sessions antérieures non reprises ne seront pas utilisés pour l’entraînement, mais reprendre une session ancienne peut entraîner l’entraînement de ces données. L’article souligne que des protections de confidentialité sont en place et que Claude ne vend pas les données des utilisateurs à des tiers. Cet ensemble de changements est détaillé dans le rapport de The Verge: https://www.theverge.com/anthropic/767507/anthropic-user-data-consumers-ai-models-training-privacy

Ce qui est nouveau

  • Entraînement sur les données des utilisateurs: les modèles IA seront entraînés sur les chats et sessions de codage des utilisateurs qui n’optent pas pour le retrait.
  • Rétention sur cinq ans: les données des utilisateurs non opt-out peuvent être conservées jusqu’à cinq ans.
  • Flux opt-out: les nouveaux utilisateurs choisissent leur préférence lors de l’inscription; les utilisateurs existants recevront une pop-up de confidentialité. Accepter peut démarrer l’entraînement immédiatement; refuser permet d’éteindre l’option dans les paramètres.
  • Portée: les mises à jour s’appliquent aux plans consommateurs de Claude (Free, Pro, Max) et incluent Claude Code; ne s’appliquent pas aux usages commerciaux ni à l’API.
  • Mesures de protection: Anthropic affirme filtrer/anonymiser les données sensibles et ne pas vendre les données à des tiers.

Tableau: Portée des mises à jour

PortéeDétails
Services concernésClaude consommateur: Free, Pro, Max
Données inclusesNouveaux chats et sessions de codage (y compris reprises)
Services exclusClaude Gov, Claude for Work, Claude for Education, utilisation de l’API (y compris via des tiers)

Pourquoi cela compte (impact pour les développeurs/entreprises)

Pour les développeurs et les entreprises utilisant Claude pour le support client, l’assistance au codage ou les flux internes, ce changement clarifie les données susceptibles d’être utilisées pour l’entraînement des modèles qui alimentent ces outils. En séparant les données consommateur des données professionnelles, Anthropic vise à limiter l’entraînement sur les charges de travail d’entreprise et les usages API. Toutefois, la rétention jusqu’à cinq ans pour les comptes non opt-out soulève des questions de confidentialité et de durée de stockage, même si des protections visibles contre les données sensibles sont évoquées. Les entreprises devraient évaluer comment leurs équipes utilisent Claude dans des comptes consommateurs, surtout si des employés utilisent l’outil pour des projets non confidentiels. Les architectures de flux de données à travers API et les environnements consommateurs peuvent nécessiter des politiques spécifiques afin d’éviter les fuites involontaires de données destinées à l’entraînement.

Détails techniques ou mise en œuvre

  • Flux de décision utilisateur: les nouveaux utilisateurs voient une option à l’inscription pour décider de l’utilisation de leurs données pour l’entraînement. Les utilisateurs existants reçoivent une pop-up de confidentialité avec une décision obligatoire, avec la possibilité de reporter.
  • Paramètres par défaut: la pop-up présente un état On par défaut pour autoriser l’utilisation des chats et sessions de codage pour l’entraînement et l’amélioration de Claude; l’option Off peut être activée dans les Paramètres de Confidentialité. La date effective est le 28 septembre 2025.
  • Mesures de protection des données: Anthropic décrit l’usage d’outils de filtrage et d’anonymisation pour protéger les données sensibles.
  • Portée et exclusions: les plans commerciaux et l’usage de l’API ne sont pas couverts par ces mises à jour, y compris les usages par des tiers.

Points-clés

  • L’entraînement peut inclure chats et sessions de codage, sauf opt-out.
  • La rétention peut durer jusqu’à cinq ans pour les comptes non opt-out.
  • Décision à prendre d’ici le 28 septembre 2025; nouveaux utilisateurs choisissent lors de l’inscription, existants via pop-up.
  • Mise à jour limitée aux plans consommateurs Claude et non aux usages commerciaux ou API.
  • L’entreprise promet des protections de confidentialité et l’absence de vente des données à des tiers.

FAQ

Références

More news