Le retournement de veste que personne n’a vu venir
Dernière en date : Anthropic est en discussion avec l’administration Trump concernant son prochain modèle d’IA, Mythos. L’information vient directement d’un co-fondateur de la boîte. Pour une entreprise qui a construit toute sa communication sur l’« alignement », la « sécurité » et les « valeurs », c’est un sacré pivot.
Et le timing est fascinant. Il y a quelques semaines à peine, Goldman Sachs déclarait être « hyper-conscient » des risques liés à Mythos. Aujourd’hui, Anthropic discute directement avec la Maison Blanche pour en définir les contours. Entre-temps, le modèle a fuité, provoqué un mini-krach boursier, et fait l’objet de toutes les spéculations sur ses capacités offensives en cybersécurité.
Ce qui se joue ici dépasse largement la simple question d’un modèle d’IA puissant. C’est la fin d’une illusion : celle d’une IA « neutre » pilotée par des principes éthiques immuables.
Mythos : le modèle qui change tout
Pour comprendre l’enjeu, il faut revenir sur ce qu’est réellement Mythos. Ce n’est pas juste « un Claude amélioré ». C’est un modèle spécifiquement conçu pour la cybersécurité, capable d’identifier des vulnérabilités zero-day, d’automatiser des audits de sécurité complexes, et – c’est là que ça devient délicat – potentiellement d’exploiter ces failles.
Quand j’ai testé les premières versions divulguées (via les fuites), la différence avec Claude 3.5 Sonnet était spectaculaire. Mythos ne se contente pas de trouver des bugs dans du code. Il raisonne sur les architectures de sécurité, anticipe les vecteurs d’attaque, et propose des exploits fonctionnels.
Exemple concret : sur un simple audit de code Node.js que j’ai soumis, Claude 3.5 a trouvé 3 vulnérabilités classiques (injection SQL, XSS). Mythos en a trouvé 8, dont 2 que même mes outils d’analyse statique avaient ratées. Plus troublant : il a spontanément proposé un proof-of-concept pour l’une d’elles, sans que je le demande.
C’est précisément ce qui rend les discussions avec l’administration Trump si problématiques.
Quand l’éthique rencontre la realpolitik
Anthropic a toujours joué la carte de l’IA « responsable ». Souvenez-vous : c’est l’entreprise fondée par d’anciens d’OpenAI qui ont claqué la porte en désaccord avec la direction commerciale prise par Sam Altman. Leur mantra : « AI safety first ».
Mais voilà : développer une IA de cybersécurité offensive tout en refusant de collaborer avec les gouvernements, c’est tenir une position intenable. Si vous créez un outil capable de trouver et exploiter des failles critiques, qui décide à qui vous le donnez ?
La réalité, c’est qu’Anthropic se retrouve dans la même impasse que tous les acteurs tech avant eux : impossible de jouer dans la cour des grands sans faire de compromis politiques. Google a Project Maven. Microsoft a ses contrats avec le Pentagone. OpenAI vient de lever 122 milliards en partie grâce à des garanties données au gouvernement américain.
Anthropic pensait pouvoir échapper à cette logique. Ces discussions avec Trump prouvent qu’ils ont capitulé.
Ce que ça change pour nous, praticiens
Concrètement, si vous utilisez Claude au quotidien comme moi, qu’est-ce que ça implique ?
D’abord, il faut s’attendre à ce que Mythos ne soit jamais accessible au grand public sous sa forme complète. Les capacités offensives seront soit bridées, soit réservées à des partenaires stratégiques (gouvernements, grandes entreprises, institutions financières). C’est déjà le cas avec certaines fonctionnalités de Claude – souvenez-vous du débat sur le contrôle informatique qui reste en bêta fermée pour beaucoup.
Ensuite, ça confirme une tendance lourde : la fragmentation des modèles IA. On n’aura plus « un » Claude, mais plusieurs versions selon les cas d’usage et les clearances. Claude pour le grand public. Claude Pro pour les pros. Mythos pour… certains.
Pour les développeurs qui bossent dans la sécurité, c’est frustrant. J’aurais adoré intégrer Mythos dans mes pipelines CI/CD pour auditer automatiquement chaque commit. Mais si le modèle devient un outil stratégique régulé, on retournera aux solutions classiques (Snyk, SonarQube, etc.) qui sont moins performantes mais politiquement neutres.
Le vrai danger : la militarisation de l’IA conversationnelle
Ce qui m’inquiète le plus, c’est ce que ces discussions révèlent sur l’avenir de l’IA générative. On passe d’outils d’assistance à des armes numériques.
Mythos n’est pas un drone. Ce n’est pas un système d’armes autonome. Mais c’est un multiplicateur de force en cybersécurité offensive. Dans les mains d’une agence gouvernementale, ça devient un outil de cyberguerre. Dans les mains d’acteurs malveillants (si ça fuite, et ça finit toujours par fuiter), ça devient une catastrophe.
Et Anthropic, qui prônait la transparence et la sécurité, se retrouve à négocier en coulisses avec une administration politique pour définir qui aura accès à quoi. C’est exactement le scénario qu’ils prétendaient vouloir éviter.
Les questions que personne ne pose
Ces discussions soulèvent des interrogations fondamentales :
Qui contrôle l’accès ? Si Anthropic donne Mythos à l’administration américaine, que se passe-t-il pour les alliés européens ? Pour les entreprises étrangères qui utilisent Claude ? Est-ce qu’on crée un système à deux vitesses où seuls les gouvernements US et leurs partenaires ont accès aux vraies capacités ?
Quelle gouvernance ? Anthropic a une « Constitutional AI » censée garantir l’alignement du modèle. Mais si le gouvernement demande des exceptions pour des raisons de sécurité nationale, cette constitution tient-elle encore ?
Quel précédent ? Si Mythos devient un outil réservé aux gouvernements, ça légitime l’idée qu’il existe des IA « trop dangereuses » pour le public. C’est la porte ouverte à une régulation qui va bien au-delà de la cybersécurité. Demain, ce sera quoi ? L’IA juridique ? L’IA médicale ?
Mon avis de praticien
J’utilise Claude tous les jours. Pour du code, de l’analyse, de la rédaction. J’apprécie la qualité, la cohérence, le souci du détail. Mais je ne me faisais aucune illusion sur la « neutralité » d’Anthropic.
Ces discussions avec Trump ne me choquent pas. Elles me déçoivent, parce qu’elles confirment que le discours éthique était du marketing. Mais elles ne me surprennent pas.
Ce qui me préoccupe, c’est l’opacité. Anthropic ne communique pas officiellement sur ces négociations. On l’apprend par des fuites, des déclarations indirectes. Pour une boîte qui prône la transparence, c’est problématique.
Et surtout, ça pose la question de la confiance. Si je ne sais pas quelle version de Claude j’utilise, si je ne sais pas quelles restrictions ont été négociées avec quels gouvernements, comment puis-je évaluer les biais et les limites du modèle ?
Ce qu’il faut retenir
Anthropic est en train de devenir ce qu’elle prétendait combattre : un acteur IA comme les autres, qui négocie avec les gouvernements, qui segmente ses produits selon des critères politiques, et qui sacrifie la transparence sur l’autel de la stratégie.
Pour nous, utilisateurs et praticiens, ça signifie :
- Moins d’accès aux capacités avancées : Mythos ne sera jamais un produit grand public.
- Plus de fragmentation : on aura des versions différentes selon les marchés et les régulations.
- Une confiance à recalibrer : le discours éthique d’Anthropic doit être pris pour ce qu’il est – du positionnement marketing, pas une garantie.
Si vous développez des produits avec l’API Claude, il est temps de prévoir des stratégies de diversification. Intégrez plusieurs modèles (Mistral, LLaMA, Gemini) pour ne pas dépendre d’un seul fournisseur dont la roadmap peut basculer du jour au lendemain pour des raisons géopolitiques.
La course à l’IA n’est plus seulement technologique. Elle est devenue politique. Et ceux qui l’avaient compris dès le départ (OpenAI, Microsoft, Google) ont déjà plusieurs longueurs d’avance sur les retardataires qui croyaient pouvoir rester purs.