La décision qui révèle tout
Anthropic vient d’annoncer qu’ils gardent Claude Mythos loin du public. Trop puissant, trop dangereux. Cette décision, présentée comme un acte de responsabilité, est en réalité l’aveu le plus brutal que j’ai vu dans l’industrie IA : nous développons des technologies dont nous ne maîtrisons pas les conséquences, et notre seule réponse est de verrouiller l’accès.
Comme utilisateur quotidien de Claude et observateur de l’écosystème IA, cette annonce me met profondément mal à l’aise. Non pas parce que Mythos est gardé secret — peut-être que c’est la bonne décision — mais parce que toute la logique sous-jacente révèle que personne ne sait vraiment ce qu’il fait.
Laissez-moi vous expliquer pourquoi cette histoire va bien au-delà d’un simple choix de distribution.
Le théâtre de la sécurité IA
Quand Anthropic dit « Mythos est trop dangereux pour le public », ils admettent implicitement plusieurs choses :
-
Ils ont développé quelque chose dont ils ne peuvent garantir la sécurité. Si c’était vraiment sûr, pourquoi le retenir ?
-
Leurs propres garde-fous (Constitutional AI, RLAIF, etc.) ne suffisent pas face aux capacités émergentes du modèle.
-
La distinction entre « utilisateurs de confiance » et public général est une fiction. Qui décide qui est digne de confiance ? Sur quels critères ?
En pratique, j’ai vu passer des dizaines d’entreprises qui ont accès à des versions avancées de Claude. Certaines ont des équipes de sécurité solides. D’autres… disons qu’elles ont un stagiaire qui fait tourner l’API sur un serveur non sécurisé.
Le « contrôle d’accès » n’est qu’un théâtre de sécurité. Ce n’est pas une vraie barrière technique, c’est une barrière administrative qui donne l’illusion du contrôle.
Ce que ça change pour nous, utilisateurs
Concrètement, cette décision crée une IA à deux vitesses :
Niveau 1 : Claude public (Sonnet, Opus, Haiku) C’est ce que nous utilisons au quotidien. Des modèles bridés, limités, « sûrs ». Excellents pour 90% des tâches, mais frustrante quand on sent qu’il pourrait faire plus.
Niveau 2 : Les modèles réservés (Mythos, versions internes) Réservés aux entreprises partenaires, gouvernements, chercheurs triés sur le volet. Capacités supérieures, accès privilégié.
Et voilà le problème : cette stratification ne repose sur rien de technique. Ce n’est pas que Mythos a des fonctionnalités « pro » comme Photoshop. C’est qu’Anthropic a décidé arbitrairement qui peut accéder à quoi.
Pour un développeur ou un créateur indépendant, c’est frustrant. Je paie mon abonnement Claude Pro comme tout le monde. Je développe des outils, j’expérimente, je pousse les limites. Mais il y a un plafond invisible au-dessus de ma tête, et la seule façon de le franchir est d’être « approuvé » par Anthropic.
L’illusion du modèle « responsable »
Anthropuic s’est construit sur l’image de l’entreprise IA « responsable ». Constitutional AI, alignement, sécurité. Tout le branding tourne autour de ça.
Mais gardez Mythos secret, c’est l’antithèse même de la transparence qu’ils prêchent.
Si le modèle est vraiment sûr grâce à Constitutional AI, pourquoi ne pas le diffuser ?
Si Constitutional AI ne suffit pas à sécuriser Mythos, alors toute la promesse de sécurité d’Anthropic s’effondre.
C’est un paradoxe logique dont Anthropic ne peut pas sortir. Et honnêtement, en tant qu’utilisateur qui leur fait confiance au quotidien, ça me pose question.
Le précédent dangereux
Cette décision crée un précédent inquiétant pour l’industrie :
Si Anthropic peut décider unilatéralement qui a accès à quoi, tous les autres labos vont faire pareil. OpenAI le fait déjà avec GPT-5 (ou quel que soit son nom). Google commence à segmenter Gemini. Meta joue sur deux tableaux avec du open-source grand public et des versions fermées pour les gros clients.
On se dirige vers un monde où l’accès aux capacités IA devient une question de privilège, pas de compétence ou de besoin.
Imaginons un scénario concret :
Vous êtes une startup en santé. Vous développez un outil de diagnostic basé sur l’IA. Vous avez besoin des meilleures capacités de raisonnement médical possibles — des vies en dépendent.
Mais Anthropic décide que vous n’êtes pas assez « de confiance » pour Mythos. Peut-être que vous n’avez pas le bon réseau. Peut-être que votre boîte est trop petite. Peut-être qu’ils préfèrent réserver l’accès à un concurrent mieux connecté.
Votre innovation est bridée non par des limites techniques, mais par des décisions arbitraires d’accès.
C’est exactement ce qui s’est passé dans d’autres industries (cloud, télécoms) et ça finit toujours mal.
Ce qu’Anthropic aurait dû faire
Je ne suis pas naïf. Je comprends qu’un modèle très avancé peut poser des risques réels. Mythos a probablement des capacités de raisonnement qui le rendent meilleur pour générer du code malveillant, concevoir des stratégies de manipulation, ou autres joyeusetés.
Mais retenir un modèle n’est pas une stratégie de sécurité, c’est une stratégie d’évitement.
Voici ce qu’ils auraient pu faire :
1. Diffusion progressive avec monitoring renforcé Commencer par un cercle restreint, oui, mais avec un plan de diffusion publique progressive. Monitorer les usages, détecter les abus, ajuster les garde-fous.
2. Transparence sur les risques identifiés Publier exactement quelles capacités de Mythos posent problème. Quels scénarios d’abus ont été testés. Quels garde-fous ont échoué. Ça permettrait à la communauté de chercher des solutions.
3. Développer des outils de détection Plutôt que de garder Mythos secret, développer en parallèle des outils pour détecter ses outputs malveillants. Si quelqu’un leak le modèle (ça arrivera), au moins on a des défenses.
4. Critères publics d’accès Si l’accès est restreint, au moins publier les critères exacts. Transparence totale sur qui peut demander l’accès et pourquoi.
Mais non. À la place, on a droit au classique « faites-nous confiance, on sait ce qu’on fait ». Sauf que non, visiblement, vous ne savez pas.
L’ironie de la situation
Le plus ironique dans tout ça ? Mythos va fuiter. C’est inévitable.
Soit par un chercheur frustré, soit par une entreprise partenaire peu scrupuleuse, soit par une faille de sécurité chez Anthropic eux-mêmes (rappelez-vous, ils ont déjà fuité 500 000 lignes de leur propre code il y a quelques semaines).
Et quand ça arrivera, on se retrouvera dans le pire des scénarios : un modèle puissant dans la nature, sans les garde-fous et le monitoring qu’une diffusion publique contrôlée aurait permis de mettre en place.
C’est exactement ce qui s’est passé avec les modèles de deep fake. Les labos ont gardé leurs meilleurs modèles secrets pour des raisons « éthiques ». Résultat : des versions leakées circulent sans aucun contrôle, et on n’a aucune infrastructure pour détecter ou contrer leurs usages malveillants.
Ce que ça signifie pour l’avenir de l’IA
Cette décision d’Anthropic est un symptôme d’un problème plus large : l’industrie IA développe des technologies qu’elle ne sait pas gouverner.
On construit des modèles toujours plus puissants, on découvre des capacités émergentes qu’on n’avait pas prévues, et notre seule réponse est de verrouiller l’accès en espérant que ça suffira.
Ce n’est pas tenable.
Soit on admet qu’on ne devrait pas développer ces technologies avant d’avoir résolu le problème de gouvernance.
Soit on accepte qu’il faut les diffuser largement pour que toute la communauté (chercheurs, développeurs, société civile) puisse participer à trouver des solutions.
Ce statu quo — développer en secret, diffuser de manière opaque, espérer que ça ira — est la pire des options.
Mon point de vue de praticien
Je continue à utiliser Claude quotidiennement. C’est un outil extraordinaire. Mais cette histoire de Mythos me laisse un goût amer.
Elle me rappelle que je construis mes workflows, mes outils, mes processus de travail sur une plateforme dont les règles peuvent changer du jour au lendemain selon le bon vouloir d’Anthropic.
Aujourd’hui, c’est Mythos qui est réservé. Demain, ce sera peut-être Opus 4 qui sera limité aux entreprises. Ou Claude Code qui nécessitera une validation manuelle. Ou l’API qui sera segmentée par tiers.
La promesse de l’IA était de démocratiser l’accès à des capacités surhumaines. On se dirige vers l’exact opposé : une aristocratie de l’accès IA, où ce que vous pouvez faire dépend de qui vous connaissez et de combien vous pesez.
Et franchement, en tant que praticien qui croit au potentiel de ces technologies, ça me désole.
Si vous développez sur Claude ou d’autres IA propriétaires, gardez ça en tête : vous construisez sur du sable mouvant. Prévoyez toujours un plan B.