← Articles

Claude utilisé par l'armée US contre l'Iran : le scandale qui révèle l'hypocrisie d'Anthropic

Anthropic refuse de travailler avec le Pentagone mais Claude aurait été utilisé lors de frappes en Iran. Entre principes éthiques et réalité du terrain, décryptage d'un scandale qui change tout.

Le jour où les principes d’Anthropic se sont crashés contre la réalité

Alors qu’Anthropic claquait la porte au nez du Pentagone il y a quelques semaines, refusant tout contrat militaire par « principe éthique », voilà que Claude aurait été utilisé par l’armée américaine lors des frappes contre l’Iran. Quelques heures seulement après que Trump ait banni Anthropic des contrats gouvernementaux.

Le timing est tellement ironique que ça en devient presque drôle. Presque.

Parce que derrière ce scandale, il y a une question bien plus importante que personne ne veut vraiment aborder : est-ce qu’on peut réellement contrôler l’usage d’une IA une fois qu’elle est accessible au public ?

Ce qui s’est vraiment passé

D’après les rapports, l’armée américaine aurait utilisé Claude via l’API publique d’Anthropic pour analyser des données et assister dans la planification des frappes contre des cibles iraniennes. Pas besoin de contrat officiel, pas besoin d’accès privilégié. Juste un compte API comme vous et moi.

Et c’est là que ça devient intéressant.

Anthropic a refusé un contrat à plusieurs millions de dollars avec le Pentagone. Ils ont dit non à OpenAI qui, elle, a signé sans hésiter. Ils se sont positionnés comme la “boîte éthique” de l’IA. Celle qui refuse de mettre ses mains dans le cambouis militaire.

Mais pendant ce temps, leur API était accessible à qui voulait. Y compris à des contractants militaires, des agences gouvernementales, ou simplement des militaires avec une carte bleue.

L’hypocrisie confortable de la Tech

Voilà ce qui m’énerve dans cette histoire : Anthropic veut le beurre et l’argent du beurre.

Ils veulent l’image de marque de la “safe AI company”, celle qui refuse les contrats militaires pour des raisons éthiques. Ça rassure les investisseurs ESG, ça plaît aux chercheurs en éthique, ça fait bien dans les communiqués de presse.

Mais en même temps, ils laissent leur API grande ouverte, sans aucun contrôle réel sur qui l’utilise et pour quoi faire.

C’est comme vendre des couteaux en disant “attention, on ne vend pas aux criminels” mais sans jamais vérifier l’identité de l’acheteur ni ce qu’il compte en faire.

OpenAI, au moins, assume. Ils ont signé avec le Pentagone et ils l’annoncent publiquement. Leur position : “L’IA militaire existera de toute façon, autant que ce soit nous qui la contrôlions avec nos garde-fous plutôt qu’un acteur moins scrupuleux.”

On peut ne pas être d’accord avec cette position, mais au moins elle est cohérente.

Pourquoi c’est impossible à contrôler (et pourquoi c’est grave)

J’utilise Claude tous les jours. Pour écrire, coder, analyser des données, préparer des formations. Je paye mon abonnement Pro, j’ai accès à l’API.

Et devinez quoi ? Anthropic n’a absolument aucune idée de ce que je fais avec.

Ils ne peuvent pas savoir si j’utilise Claude pour :

  • Rédiger des articles de blog (ce que je fais)
  • Analyser des images satellites (je pourrais)
  • Optimiser des algorithmes de surveillance (techniquement possible)
  • Planifier des opérations militaires (rien ne m’en empêche)

L’API est agnostique. Elle prend un prompt en entrée, elle retourne une réponse. Point. Il n’y a pas de filtre magique qui détecte “tiens, ce prompt semble militaire, on bloque”.

Certes, Anthropic a des filtres de sécurité. Claude refusera de vous expliquer comment fabriquer une bombe ou comment pirater un système. Mais analyser des données géospatiales ? Optimiser une logistique complexe ? Traduire des documents en farsi ? Rien de tout ça ne déclenchera d’alerte.

Ce que ça change pour nous, utilisateurs

Concrètement, pour vous et moi qui utilisons Claude au quotidien, rien ne change. L’API fonctionne pareil, les modèles sont les mêmes, les performances aussi.

Mais symboliquement, c’est énorme.

Ce scandale révèle que le discours éthique d’Anthropic, aussi bien intentionné soit-il, se heurte à une réalité technique : on ne peut pas contrôler l’usage d’une technologie une fois qu’elle est disponible publiquement.

C’est le paradoxe fondamental de l’IA moderne. Plus elle est puissante et accessible, moins on peut contrôler ce qu’on en fait.

Et ça, ça pose des questions qui dépassent largement Anthropic ou Claude :

  • Doit-on restreindre l’accès aux IA avancées ?
  • Doit-on créer des versions “bridées” pour le grand public ?
  • Doit-on imposer une traçabilité stricte de tous les usages ?

Chacune de ces solutions a des implications énormes sur la liberté, la vie privée, et l’innovation.

La vraie question : qui décide ?

Ce qui me frappe le plus dans cette histoire, c’est que personne n’a élu Anthropic pour décider si l’armée américaine peut ou non utiliser l’IA.

Anthropic est une entreprise privée. Fondée par d’anciens d’OpenAI qui n’étaient pas d’accord avec la direction prise par Sam Altman. Financée par Google, Amazon, et d’autres géants de la tech.

Leur vision éthique de l’IA est respectable, mais c’est leur vision. Pas la nôtre, pas celle de la société, pas celle d’un cadre démocratique.

Quand OpenAI signe avec le Pentagone, au moins c’est transparent. On peut être pour ou contre, mais on le sait. Quand Anthropic refuse officiellement mais que Claude est utilisé quand même via l’API publique, c’est de l’hypocrisie déguisée en vertu.

Mon avis de praticien

Je vais être direct : je préfère l’honnêteté d’OpenAI à l’hypocrisie d’Anthropic sur ce sujet.

Pas parce que je suis pro-militaire ou anti-militaire. Mais parce que la cohérence compte.

Si vous ne voulez vraiment pas que votre IA soit utilisée par l’armée, alors il faut :

  1. Bloquer les comptes API des contractants militaires
  2. Limiter l’accès à certains types d’analyses
  3. Mettre en place une vraie traçabilité
  4. Accepter que ça va tuer votre business

Sinon, assumez que votre IA est un outil générique, utilisable par tous, y compris par l’armée, et arrêtez de faire semblant d’être plus éthiques que les autres.

En attendant, Claude reste un excellent modèle. Je continue de l’utiliser quotidiennement. Mais je ne me fais plus d’illusions sur le discours éthique d’Anthropic.

Ce que ça signifie pour l’avenir de l’IA

Ce scandale est un tournant. Il marque la fin de la naïveté sur le contrôle de l’IA.

On ne peut plus prétendre qu’on peut développer des IA ultra-puissantes, les rendre accessibles au grand public, et en même temps contrôler strictement qui les utilise et pour quoi.

C’est techniquement impossible. Et toute tentative de le faire sera soit inefficace (comme ici), soit liberticide.

Les prochains mois vont être intéressants. Est-ce qu’Anthropic va durcir ses conditions d’utilisation ? Est-ce que d’autres scandales vont émerger ? Est-ce que les régulateurs vont s’en mêler ?

Une chose est sûre : l’ère de l’innocence est terminée. L’IA est un outil de pouvoir. Et comme tout outil de pouvoir, elle sera utilisée par ceux qui en ont les moyens, avec ou sans la bénédiction de ses créateurs.


Vous utilisez Claude ou une autre IA au quotidien ? Comment vous positionnez-vous sur cette question éthique ? Venez en discuter sur askjeanclaude.com ou contactez-moi directement. Et si cet article vous a fait réfléchir, partagez-le. Cette conversation doit avoir lieu.