← Articles

Anthropic considéré « inacceptable » par le gouvernement US (bis) : le conflit qui ne finira jamais

Le Pentagone rejette à nouveau Anthropic pour des raisons de risque « inacceptable ». Au-delà du scandale, cette affaire révèle une impasse structurelle entre éthique IA et réalité militaire.

Quand l’éthique devient un boulet stratégique

Le Figaro rapporte que le gouvernement américain juge Anthropic comme présentant un risque « inacceptable ». Encore. Cette fois, ce n’est pas juste une déclaration de principe : c’est le Pentagone qui refuse explicitement de travailler avec l’entreprise créée par les transfuges « éthiques » d’OpenAI.

Et franchement, à ce stade, ce n’est même plus surprenant. C’est presque mécanique.

Ce qui m’intéresse ici, ce n’est pas de rejouer le match « Anthropic gentil vs OpenAI méchant ». J’ai déjà écrit sur ce sujet. Ce qui m’interpelle, c’est la répétition. Anthropic se retrouve systématiquement dans cette position inconfortable : trop éthique pour les militaires, pas assez pour les puristes, et coincé entre deux mondes qui ne peuvent pas coexister.

La vraie question n’est pas « Anthropic a-t-il raison ou tort ? ». C’est : peut-on vraiment construire une entreprise d’IA de pointe en refusant les contrats militaires américains ?

Le piège structurel des « IA éthiques »

Anthropic a été fondé en 2021 par d’anciens cadres d’OpenAI qui ne supportaient plus la dérive commerciale et l’abandon progressif des principes de sécurité. L’idée : créer une entreprise d’IA « responsable », avec des garde-fous, de la transparence, et un refus clair des applications militaires offensives.

Noble intention. Mais voilà le problème : les États-Unis ne laissent pas leurs champions technologiques choisir leurs clients.

Quand vous développez l’un des modèles de langage les plus avancés au monde, vous n’êtes pas juste une startup. Vous êtes un actif stratégique. Et les actifs stratégiques américains ont historiquement deux options :

  1. Collaborer avec le complexe militaro-industriel
  2. Être marginalisés, voire détruits

Google a essayé de résister avec Project Maven en 2018. Résultat : une révolte interne, un retrait du projet… et une perte massive d’influence au Pentagone. Aujourd’hui, Google rampe pour regagner ce terrain, pendant qu’OpenAI et Palantir trustent les contrats.

Anthropic pensait pouvoir esquiver ce dilemme en se positionnant sur le segment « entreprise » et « recherche ». Mais le gouvernement US ne l’entend pas ainsi. Si vous refusez de jouer, vous êtes considéré comme un risque.

Ce que « inacceptable » veut vraiment dire

Le terme « risque inacceptable » n’est pas anodin. Il ne signifie pas « technologie insuffisante » ou « prix trop élevé ». Il signifie : on ne peut pas vous faire confiance.

Dans le langage du Pentagone, cela se traduit concrètement par :

  • Pas d’accès aux appels d’offres gouvernementaux
  • Pas de partenariats avec les sous-traitants militaires (Lockheed, Northrop Grumman, etc.)
  • Pas de financement via les programmes DARPA ou In-Q-Tel
  • Surveillance accrue de vos collaborations internationales

En clair, vous êtes marqué. Et dans un secteur où les contrats publics représentent des milliards, c’est un handicap massif.

Pour Anthropic, cela signifie qu’ils devront compenser par :

  1. Des levées de fonds privées encore plus massives (Amazon et Google ont déjà injecté des milliards)
  2. Une expansion agressive sur le marché B2B civil
  3. Une internationalisation rapide (Europe, Asie) pour diversifier les revenus

Mais tout cela a un coût. Et surtout, cela crée une dépendance vis-à-vis de financeurs privés qui ont leurs propres agendas.

L’ironie de la position éthique

Voici le paradoxe cruel : en refusant les contrats militaires pour rester « éthique », Anthropic se retrouve encore plus dépendant de Google et Amazon.

Or, ces deux entreprises ne sont pas exactement des modèles de vertu. Google collabore avec le Pentagone via d’autres filiales. Amazon Web Services héberge des infrastructures de surveillance de masse via AWS GovCloud.

Donc Anthropic dit « non » au Pentagone directement… mais accepte des milliards de dollars d’entreprises qui, elles, disent « oui » au Pentagone.

C’est de l’éthique à géométrie variable. Ou plutôt, c’est la démonstration que l’éthique absolue est structurellement impossible dans le capitalisme de surveillance américain.

Ce que ça change pour nous, utilisateurs de Claude

Concrètement, est-ce que cette affaire change quelque chose pour quelqu’un qui utilise Claude au quotidien ?

Oui et non.

Non, parce que Claude reste accessible, performant, et que l’API fonctionne toujours. Si vous êtes développeur ou entreprise, rien ne change à court terme.

Oui, parce que cette marginalisation militaire fragilise Anthropic sur le long terme. Si l’entreprise ne peut pas accéder aux mêmes sources de financement et de légitimité qu’OpenAI ou Google, elle risque :

  • De ralentir ses investissements en R&D (les modèles militaires financent souvent la recherche civile)
  • De perdre des talents attirés par les projets de défense (oui, certains chercheurs veulent bosser sur des drones)
  • De devoir accepter des compromis avec ses financeurs privés pour survivre

Et là, on se retrouve dans une situation absurde : Anthropic, fondé pour échapper aux compromis d’OpenAI, finit par faire des compromis différents, mais tout aussi discutables.

La vraie leçon : l’IA éthique n’existe pas (encore)

Ce que cette affaire révèle, c’est que l’IA « éthique » ne peut pas exister dans le cadre géopolitique actuel.

Tant que les États-Unis considèrent l’IA comme un enjeu de sécurité nationale (et ils ont raison de le faire), toute entreprise américaine qui développe des modèles de pointe sera sommée de choisir un camp.

Et ce camp, c’est celui de l’armée américaine. Point.

Les alternatives ?

  1. Déménager hors des États-Unis (mais alors, exit les talents, les financements, les infrastructures)
  2. Devenir une organisation à but non lucratif (mais alors, exit la compétitivité face aux géants)
  3. Accepter le compromis (et assumer l’hypocrisie)

Anthropic est coincé dans ce trilemme. Et honnêtement, je ne vois pas comment ils peuvent en sortir sans sacrifier soit leur éthique, soit leur viabilité économique.

Ce que je ferais à leur place

Si j’étais Dario Amodei (CEO d’Anthropic), voici ce que je considérerais :

  1. Assumer la position européenne : se repositionner clairement comme l’alternative « RGPD-compatible » et « non-militaire » pour les entreprises et gouvernements qui veulent de l’IA sans l’alignement US.

  2. Créer une fondation indépendante : séparer la recherche fondamentale (financée par des dotations) de l’activité commerciale. Comme ce qu’a tenté de faire OpenAI avant de tout foutre en l’air.

  3. Transparence totale : publier tous les contrats, tous les partenariats, toutes les décisions stratégiques. Si vous voulez être « éthique », allez jusqu’au bout.

Mais je sais aussi que tout cela est probablement impossible. Parce que le marché de l’IA est une guerre, et que les guerres ne laissent pas de place aux neutres.

Conclusion : l’impasse permanente

Cette affaire n’est pas un incident isolé. C’est un schéma répétitif qui va continuer tant qu’Anthropic refusera de plier.

Et franchement, je ne sais pas ce qui est pire : qu’ils plient (et trahissent leurs principes fondateurs), ou qu’ils tiennent bon (et finissent marginalisés, rachetés ou détruits).

Ce que je sais, c’est que pour nous, utilisateurs, cette instabilité structurelle est un problème. Parce que si Anthropic disparaît ou se compromet, on perd l’un des rares contrepouvoirs face à OpenAI et Google.

Et ça, c’est un risque bien plus « inacceptable » que tout ce que le Pentagone pourrait imaginer.

Pour aller plus loin : Si vous utilisez Claude dans vos projets, commencez à réfléchir à des stratégies de backup. Non pas parce que Claude va disparaître demain, mais parce que dépendre d’un seul fournisseur d’IA est structurellement risqué. Testez GPT-4, Mistral, voire des modèles open source. La diversification est votre meilleure assurance.