Claude AI s’apprête à utiliser vos données : comment refuser avant la date limite

Claude AI s’apprête à utiliser les données de ses utilisateurs pour améliorer ses performances. Une démarche d’exclusion est proposée à ceux qui souhaitent préserver leur vie privée, mais il faut agir avant la date limite fixée par l’entreprise.
Tl;dr
- Anthropic demande l’accord des utilisateurs pour entraîner Claude.
- Opt-out obligatoire, sinon perte d’accès après septembre 2025.
- Changement majeur : données stockées jusqu’à cinq ans.
Un tournant dans la gestion des données chez Anthropic
Désormais, l’utilisation du célèbre assistant IA Claude, développé par Anthropic, s’accompagne d’une décision cruciale pour ses usagers : accepter ou refuser que leurs conversations servent à entraîner de futurs modèles. Cette nouvelle politique, qui entre en vigueur dès aujourd’hui, bouscule les habitudes établies jusque-là autour de la confidentialité.
De la confidentialité par défaut à l’opt-out forcé
Jusqu’à présent, la philosophie affichée par Anthropic privilégiait un effacement automatique des discussions et codes au bout de trente jours, sauf obligation légale. Mais les choses changent radicalement : sauf refus explicite de votre part, vos échanges avec Claude seront désormais conservés jusqu’à cinq ans. Leur objectif ? Enrichir et affiner l’IA grâce à des retours réels issus de millions d’utilisateurs.
Il est frappant de constater que ce choix s’impose à tous les clients individuels, qu’ils soient sur l’offre Free, Pro ou Max — y compris pour le service Claude Code. Seuls les usages professionnels (entreprises, institutions publiques, secteur éducatif ou via API) demeurent épargnés par cette collecte étendue.
Une décision nécessaire… mais contraignante
Le dispositif se mettra en place progressivement : nouveaux venus comme habitués verront apparaître un message intitulé « Updates to Consumer Terms and Policies ». L’utilisateur est face à deux options : cliquer sur le bouton « Accepter » — ce qui entraîne la collecte — ou activer un discret interrupteur pour refuser. Aucun choix avant le 28 septembre 2025 ? L’accès à Claude sera tout simplement suspendu.
Une précision mérite toutefois d’être notée : seules les interactions futures sont concernées ; rien de ce qui a été échangé auparavant ne sera utilisé sans action supplémentaire de votre part. La suppression d’une discussion reste également respectée — si vous l’effacez, elle n’intègre pas le processus d’entraînement. Attention cependant : une fois les données intégrées à la formation du modèle, elles ne peuvent être retirées a posteriori.
L’utilisateur face à ses responsabilités
Selon Anthropic, cette évolution s’avère essentielle pour permettre à Claude de progresser en raisonnement comme en sécurité ou en génération de code. L’entreprise tient néanmoins à rassurer : aucune donnée n’est vendue à des tiers et des filtres automatiques sont censés supprimer les informations sensibles avant utilisation.
Reste que la bascule du « privacy by default » vers le partage automatique place désormais toute la responsabilité sur l’usager. Pour beaucoup, cela ne posera guère problème ; mais ceux qui abordent des sujets délicats via Claude pourraient bien y voir un sérieux signal d’alarme.