La vague de mécontentement qui secoue Anthropic
Depuis quelques jours, les forums, Reddit et Twitter explosent. Des milliers d’utilisateurs de Claude rapportent des baisses de performance spectaculaires : réponses plus courtes, raisonnements moins poussés, hallucinations en hausse, refus systématiques là où Claude acceptait avant. Fortune vient de publier un article sur cette vague de critiques, et en tant qu’utilisateur quotidien de Claude (parfois 12h par jour), je dois dire : ils n’ont pas tort.
Ce qui est fascinant, c’est que cette crise arrive pile au moment où Anthropic négocie avec l’administration Trump, lève des milliards, signe des partenariats stratégiques avec Google et Broadcom. L’entreprise n’a jamais été aussi visible, aussi valorisée… et aussi vulnérable.
Parce que contrairement à OpenAI qui peut compter sur ChatGPT gratuit pour absorber les critiques, ou Google qui a des dizaines de produits, Anthropic n’a qu’un seul atout : la qualité perçue de Claude. Et cette qualité vient de prendre un sérieux coup.
Ce que je constate vraiment (avec des exemples concrets)
Je ne vais pas faire semblant : oui, j’ai remarqué des changements. Pas systématiques, mais récurrents.
Exemple 1 : Les refus en cascade
Il y a deux semaines, je demandais à Claude d’analyser un dataset médical anonymisé (aucune donnée personnelle). Accepté sans problème. Même prompt cette semaine ? Refus catégorique avec un message sur “les données de santé sensibles”. Aucune donnée n’a changé, juste le modèle.
Exemple 2 : Les réponses tronquées
Sur des tâches de refactoring de code Python (mon usage principal), Claude s’arrête maintenant régulièrement en plein milieu d’une fonction. Pas d’erreur, pas de message, juste… il arrête. Avant, il terminait systématiquement, quitte à découper en plusieurs messages.
Exemple 3 : La perte de contexte
Les conversations longues (20+ échanges) deviennent chaotiques. Claude “oublie” des décisions prises 10 messages plus tôt, alors que c’était sa force absolue face à GPT-4.
Alors, qu’est-ce qui se passe ?
Les trois hypothèses (et celle que je crois vraiment)
Hypothèse 1 : La dégradation silencieuse
Certains utilisateurs parlent de “model degradation” : Anthropic aurait discrètement remplacé Claude 3.5 Sonnet par une version allégée pour réduire les coûts. C’est une pratique connue dans l’industrie (OpenAI l’a fait avec GPT-4).
Mais je n’y crois pas trop. Anthropic a tout misé sur la transparence et l’éthique. Faire ça en catimini détruirait leur réputation en 48h.
Hypothèse 2 : Le durcissement des guardrails
Là, c’est beaucoup plus probable. Face à la pression réglementaire (AI Act en Europe, négociations avec le gouvernement US), Anthropic a peut-être renforcé ses filtres de sécurité. Résultat : plus de refus, même sur des demandes légitimes.
C’est cohérent avec ce que je vois : les refus portent souvent sur des sujets “sensibles” (santé, finance, données personnelles) même quand le contexte est parfaitement légitime.
Hypothèse 3 : La surcharge infrastructure
Voilà celle que je crois vraiment. Anthropic a signé des dizaines de partenariats B2B ces derniers mois. Google, Broadcom, des gouvernements, des entreprises. Ils ont probablement des milliers de nouveaux clients corporate qui tapent dans les mêmes ressources que nous, utilisateurs individuels.
Et devinez qui passe en priorité quand les serveurs sont saturés ? Pas vous. Pas moi. Les clients qui paient des centaines de milliers de dollars par an.
Pourquoi cette crise révèle la fragilité du modèle Anthropic
Ce qui m’inquiète, ce n’est pas tant la baisse de performance (tous les services ont des hauts et bas), c’est l’absence totale de communication d’Anthropic.
Pas de tweet. Pas de blog post. Pas de status page. Rien.
Quand OpenAI a des problèmes, ils communiquent (pas toujours bien, mais ils communiquent). Quand Google a un bug, il y a un status. Anthropic ? Radio silence.
Et ça, c’est un problème structurel. Parce qu’Anthropic s’est construit sur une promesse : être différent. Être transparent. Être éthique. Mettre l’utilisateur au centre.
Mais dès qu’il y a une vraie crise, on découvre qu’ils réagissent comme toutes les autres boîtes tech : en se terrant en espérant que ça passe.
Ce que ça change pour les utilisateurs (et ce que je fais concrètement)
En tant que praticien quotidien, voici comment j’adapte mon workflow :
1. Je diversifie mes outils
J’utilisais Claude à 90% de mon temps. Je suis maintenant à 60% Claude, 30% GPT-4, 10% Gemini. Pas par plaisir, par nécessité. Si Claude plante en plein projet client, j’ai besoin d’un backup.
2. Je garde des traces
Je screenshot systématiquement les prompts qui marchent VS ceux qui sont refusés. Si un jour Anthropic sort de son silence, j’aurai des preuves concrètes.
3. Je repense ma dépendance
C’est le point crucial. Beaucoup d’entre nous ont construit des workflows entiers autour de Claude. Des scripts, des automatisations, des processus métier. Cette crise nous rappelle brutalement : on ne contrôle rien.
Demain, Anthropic peut changer le modèle, multiplier les prix par 10, arrêter le service. Et on n’aura aucun recours.
La leçon pour l’industrie (et pour nous)
Cette affaire révèle une vérité inconfortable : l’IA conversationnelle repose sur la confiance. Et la confiance, ça se détruit en quelques jours.
OpenAI l’a appris avec la crise Sam Altman. Google l’a appris avec Gemini et ses images “woke”. Anthropic l’apprend maintenant.
La différence ? OpenAI et Google ont des ressources, des produits alternatifs, des années d’existence. Anthropic a 3 ans, un seul produit, et une réputation d’entreprise “éthique” qui vacille.
Pour nous, utilisateurs et développeurs, la leçon est claire : construisez des systèmes multi-modèles. Ne misez jamais tout sur un seul provider. Gardez des alternatives. Testez régulièrement la concurrence.
Parce que le jour où votre modèle préféré vous lâche (et il vous lâchera), vous devrez pouvoir basculer en quelques heures, pas en quelques semaines.
Ce que j’attends d’Anthropic maintenant
Premièrement : de la transparence.
Un simple blog post qui dit “Oui, on a durci les guardrails pour raison X” ou “Oui, on a eu des problèmes d’infra, voilà comment on règle ça”. N’importe quoi vaut mieux que le silence.
Deuxièmement : un status page.
C’est la base pour tout service critique. On doit pouvoir voir en temps réel si Claude a des problèmes, si c’est localisé, si c’est en cours de résolution.
Troisièmement : une vraie roadmap utilisateur.
Pas juste des annonces grandiloquentes sur Mythos ou les partenariats stratégiques. Des choses concrètes : “On améliore la gestion des longs contextes”, “On optimise les temps de réponse”, “On réduit les refus injustifiés”.
Parce que sans ça, Anthropic risque de perdre ce qui a fait son succès : une communauté d’early adopters ultra-engagés qui évangélisent Claude partout, qui paient sans broncher, qui pardonnent les bugs.
Cette communauté est en train de vaciller. Et dans l’IA, quand la communauté part, elle ne revient jamais.
Et vous, vous avez remarqué des changements sur Claude ces derniers jours ? Partagez vos expériences en commentaire, j’aimerais comparer avec ce que je vois de mon côté. Et si vous êtes dev, dites-moi : vous avez déjà un plan B si Claude vous lâche demain ?