← Articles

Google signe un contrat IA classifié avec le Pentagone : le tournant militaire qui va forcer Anthropic à choisir son camp

Google vient de signer un accord classifié avec le Pentagone pour fournir ses modèles IA. Cette alliance militaire révèle une bataille géopolitique où Anthropic devra bientôt prendre position.

Le silence assourdissant d’Anthropic face à la militarisation de l’IA

Google vient de signer un contrat classifié avec le Pentagone pour fournir ses modèles d’intelligence artificielle à la défense américaine. L’information, révélée par le New York Times et confirmée par le chef de l’IA du Pentagone, marque un tournant majeur : les géants de l’IA ne font plus semblant d’hésiter sur les applications militaires.

Ce qui m’interpelle, c’est le timing. Pendant que Google franchit le Rubicon militaire, Anthropic reste étrangement silencieux sur ses propres lignes rouges. Et pendant ce temps, Goldman Sachs interdit à ses employés de Hong Kong d’utiliser Claude, probablement pour des raisons géopolitiques liées à la Chine. Le message est clair : l’IA n’est plus une technologie neutre. C’est devenu un enjeu de souveraineté.

La stratégie du Pentagone : ne jamais dépendre d’un seul modèle

Ce qui rend ce contrat particulièrement révélateur, c’est la déclaration du chef de l’IA du Pentagone : « S’appuyer sur un seul modèle n’est jamais une bonne chose. » Traduction : le Pentagone utilise déjà d’autres modèles (probablement OpenAI via Microsoft), et diversifie maintenant avec Google.

Cette approche multi-modèles n’est pas qu’une question de résilience technique. C’est une stratégie géopolitique. Le Pentagone construit une infrastructure IA où aucun acteur privé ne peut devenir indispensable. C’est intelligent, et ça change complètement la donne pour les entreprises comme Anthropic.

Parce que la question n’est plus « est-ce qu’Anthropic va travailler avec la défense ? ». La question est : « quand le Pentagone va-t-il frapper à la porte d’Anthropic, et que va répondre l’entreprise ? »

Le précédent Project Maven : quand les employés disent non

Rappelez-vous 2018. Google travaille sur Project Maven, un projet militaire d’analyse d’images par IA pour les drones. Les employés se révoltent. Google abandonne le contrat et promet de ne plus développer d’IA pour les armes.

Six ans plus tard, Google signe un contrat classifié avec le Pentagone. Que s’est-il passé ?

D’abord, l’entreprise a changé. Les idéalistes de 2018 sont partis ou ont été dilués par les pragmatiques. Ensuite, le contexte géopolitique a basculé : Ukraine, tensions avec la Chine, course à l’IA. Enfin, la compétition est devenue existentielle. Si Google refuse, OpenAI accepte. Si OpenAI refuse, Anthropic accepte. Si tout le monde refuse, la Chine prend l’avantage.

C’est le dilemme du prisonnier version militaro-industrielle.

Anthropic et sa « Constitution » : jusqu’où ira le compromis ?

Anthropics se présente comme l’entreprise d’IA « alignée », avec sa fameuse Constitutional AI et ses principes éthiques. Mais ces principes n’interdisent pas explicitement les applications militaires. Ils posent des garde-fous sur l’autonomie létale, la manipulation, la surveillance de masse.

Or, un contrat avec la défense américaine peut très bien respecter ces garde-fous. Analyse de renseignement ? Compatible. Cybersécurité ? Compatible. Logistique militaire ? Compatible. Planification stratégique ? Compatible.

La ligne rouge, ce serait l’armement autonome létal. Mais entre « ne pas tuer » et « ne pas aider du tout », il y a un océan gris. Et c’est précisément dans cet océan que naviguent désormais Google, Microsoft et OpenAI.

Anthropics peut-il rester à quai ?

L’interdiction de Claude à Hong Kong : le signal faible qui dit tout

Goldman Sachs vient d’interdire à ses employés de Hong Kong d’utiliser Claude. Officiellement, aucune raison n’est donnée. Officieusement, c’est évident : Hong Kong, c’est la Chine. Et la Chine, c’est l’adversaire stratégique des États-Unis.

Cette décision révèle quelque chose de fondamental : les entreprises occidentales commencent à traiter Claude comme un actif géopolitique sensible. Pas parce qu’Anthropic travaille avec la défense (ce n’est pas le cas… pour l’instant), mais parce que c’est une technologie américaine de pointe dans un contexte de guerre froide technologique.

Si Goldman anticipe déjà ce positionnement, c’est que le marché sait quelque chose. Les grands groupes financiers ne prennent pas ce genre de décision par hasard. Ils lisent les signaux. Et les signaux disent : l’IA va se fragmenter selon des lignes géopolitiques.

Ce qui va changer concrètement pour les utilisateurs de Claude

Pour l’instant, rien. Vous pouvez continuer à utiliser Claude pour rédiger, coder, analyser. Mais trois évolutions se profilent :

1. Des restrictions géographiques renforcées
Si Anthropic signe avec la défense américaine (ou refuse mais subit des pressions), attendez-vous à des blocages régionaux. Claude pourrait devenir inaccessible dans certains pays, ou bridé dans ses fonctionnalités.

2. Une certification « souveraineté » pour les entreprises
Les grandes entreprises européennes et asiatiques vont exiger des garanties sur l’hébergement des données et l’indépendance vis-à-vis des agences américaines. Si Anthropic ne peut pas les fournir, elles se tourneront vers Mistral (Europe) ou des alternatives locales.

3. Une fragmentation des modèles selon les usages
On va vers un monde où vous utiliserez Claude pour le travail créatif, GPT pour la recherche, et un modèle local pour tout ce qui est sensible. La polyvalence va laisser place à la spécialisation géographique et sectorielle.

Le vrai coût de neutralité dans une guerre technologique

Anthropics a construit sa marque sur l’éthique et la sécurité. Mais dans un monde où Google arme le Pentagone et où la Chine investit massivement dans l’IA militaire, la neutralité devient un luxe stratégique.

Si Anthropic refuse de travailler avec la défense américaine :

  • Elle perd l’accès aux budgets massifs du Pentagone
  • Elle risque des restrictions sur l’accès aux puces et infrastructures stratégiques
  • Elle se positionne comme « non-alignée », ce qui peut la rendre suspecte aux yeux de Washington

Si Anthropic accepte :

  • Elle trahit une partie de son identité de marque
  • Elle perd la confiance d’utilisateurs attachés à ses principes
  • Elle s’expose aux mêmes controverses que Google avec Project Maven

Il n’y a pas de bon choix. Juste des compromis.

Ce que je ferais à la place de Dario Amodei

Si j’étais CEO d’Anthropic, je ne pourrais pas éviter cette conversation. Mais je poserais des conditions publiques et non-négociables :

  1. Transparence limitée : publier les catégories d’usage autorisées (même si les contrats restent classifiés)
  2. Ligne rouge documentée : interdire explicitement l’armement autonome létal dans les conditions d’utilisation
  3. Audit indépendant : permettre à un organisme tiers de vérifier le respect des engagements éthiques
  4. Gouvernance séparée : créer une filiale dédiée aux contrats défense, avec une équipe et une gouvernance distinctes

Cela permettrait de collaborer sans trahir l’ADN de l’entreprise. C’est un équilibre fragile, mais c’est le seul tenable.

La question que personne ne pose : et si Anthropic avait déjà signé ?

Voici une hypothèse qui mérite réflexion : et si Anthropic avait déjà des contrats avec la défense américaine, mais sous secret défense ?

La rencontre récente entre Anthropic, OpenAI et le House Homeland Security sur les cybermenaces n’était pas anodine. Ces réunions à huis clos sont précisément l’endroit où se négocient ces partenariats.

Si c’est le cas, le silence d’Anthropic sur les applications militaires ne serait pas de l’innocence, mais de la discrétion contractuelle. Et l’interdiction de Claude à Hong Kong par Goldman Sachs serait alors parfaitement logique.

Je n’ai aucune preuve. Mais dans le contexte actuel, ne rien dire peut signifier deux choses : soit on n’a rien à dire, soit on n’a pas le droit de le dire.

Mon conseil : préparez-vous à la fragmentation

Que vous soyez développeur, responsable IT ou utilisateur avancé, voici ce que je vous recommande dès maintenant :

Diversifiez vos outils IA
Ne misez pas tout sur Claude. Testez GPT, Mistral, et des alternatives locales comme Llama. Quand la fragmentation géopolitique sera effective, vous ne voulez pas être bloqué.

Anticipez les restrictions d’export
Si vous travaillez avec des clients internationaux, documentez vos workflows IA et préparez des alternatives compatibles avec différentes zones géographiques.

Posez des questions à vos fournisseurs
Demandez à Anthropic (et aux autres) quelle est leur position sur les contrats militaires. S’ils refusent de répondre, vous avez votre réponse.

La guerre de l’IA ne fait que commencer. Et contrairement à ce qu’on nous a vendu, elle ne sera pas neutre, ouverte et collaborative. Elle sera fragmentée, politisée et stratégique.

La seule question est : de quel côté serez-vous quand les lignes seront tracées ?