← Articles

L'IA militaire américaine : pourquoi Anthropic fait exactement ce qu'il prétendait ne jamais faire

Les États-Unis déploient massivement l'IA dans leurs opérations militaires. Entre avantage tactique et dérive éthique, ce tournant révèle l'hypocrisie fondamentale de toute l'industrie de l'IA.

Le virage que personne ne voulait voir

Quand j’ai lu l’article de France Info sur l’utilisation de l’IA par l’armée américaine, combiné aux récentes révélations sur l’implication d’Anthropic avec le Pentagone, j’ai eu cette sensation familière : celle qu’on te raconte une belle histoire pendant que la réalité fait exactement l’inverse.

Les États-Unis intègrent massivement l’intelligence artificielle dans leurs opérations militaires. Drones autonomes, systèmes de ciblage assistés, analyse prédictive des zones de conflit. Et devinez qui fournit la technologie ? Les mêmes entreprises qui, il y a deux ans, signaient des chartes éthiques en promettant de ne jamais travailler pour l’armée.

L’hypocrisie structurelle de l’industrie IA

Anthroptic s’est construit sur une promesse : faire de l’IA “responsable”, “éthique”, “alignée avec les valeurs humaines”. Leur documentation parle de “Constitutional AI”, de garde-fous, de transparence.

Et maintenant ? Claude analyse des données militaires pour le Pentagone.

Je ne dis pas ça pour taper sur Anthropic spécifiquement. OpenAI a fait pareil. Google aussi. Microsoft n’en parlons même pas. Le problème, c’est que toute l’industrie IA s’est construite sur un mensonge fondamental : qu’on pourrait développer des technologies neutres, utilisables uniquement pour le bien.

C’est faux. Ça l’a toujours été.

Ce que l’armée américaine fait vraiment avec l’IA

Concrètement, selon les informations disponibles, voici ce qui se passe :

Surveillance de masse améliorée : Analyse de millions d’images satellites, de communications interceptées, de données biométriques. Claude excelle dans ce domaine. Sa capacité à traiter 200 000 tokens en contexte ? Parfait pour analyser des dossiers de renseignement complets.

Systèmes de ciblage assistés : L’IA n’appuie pas (encore) sur la gâchette, mais elle recommande des cibles, évalue les risques collatéraux, optimise les frappes. L’humain valide, mais combien de temps avant qu’il ne fasse que rubber-stamper les décisions de l’IA ?

Guerre informationnelle : Génération de contenu de propagande, analyse des réseaux sociaux ennemis, identification des influenceurs à neutraliser. Les LLM sont parfaits pour ça.

L’argument du “avantage tactique” ne tient pas

L’article de France Info pose la question : avantage tactique ou risque éthique ? Comme si c’était un débat équilibré.

Voici ma position, claire et nette : l’avantage tactique ne justifie jamais l’abandon des principes éthiques fondamentaux.

Quand tu construis une IA capable de cibler des humains plus efficacement, tu ne fais pas de la tech. Tu construis une arme. Et une arme qui, contrairement à un fusil, peut scaler infiniment, s’améliorer toute seule, et être déployée sans limite géographique.

Le problème n’est même pas qu’on le fasse. Le problème, c’est qu’on le fasse en prétendant qu’on ne le fait pas. Ou pire : en expliquant que “c’est compliqué”, que “le contexte a évolué”, que “nos garde-fous sont suffisants”.

Mon expérience avec les “garde-fous” d’Anthropic

J’utilise Claude quotidiennement depuis des mois. Je connais ses limites, ses refus, ses garde-fous. Et je peux vous dire une chose : ils sont contournables.

Pas facilement, certes. Mais avec de l’ingéniosité, de la persévérance, et une bonne compréhension du système, on peut faire dire à Claude des choses qu’il n’est pas censé dire.

Si moi, simple utilisateur, je peux contourner certaines protections, imaginez ce qu’une organisation militaire avec des ressources illimitées peut faire. Imaginez ce qu’elle peut faire avec un accès API personnalisé, des fine-tuning dédiés, des versions non publiques du modèle.

Ce qui m’inquiète vraiment

Ce n’est pas qu’on utilise l’IA pour la guerre. L’humanité a toujours utilisé ses meilleures technologies pour s’entretuer. C’est triste, mais c’est un fait.

Ce qui m’inquiète, c’est l’absence totale de débat public et démocratique sur ces décisions.

Anthroptic a pris la décision de travailler avec le Pentagone sans consulter personne. Les utilisateurs de Claude n’ont pas été informés. Il n’y a eu aucun vote, aucune transparence, aucun processus démocratique.

Et pendant ce temps, on continue à nous vendre l’IA comme un outil de productivité sympathique pour résumer nos emails.

Le parallèle avec le nucléaire

On compare souvent l’IA au nucléaire. C’est pertinent. Le nucléaire aussi a été vendu comme une technologie civile (l’énergie propre) avant de devenir principalement militaire.

Mais il y a une différence majeure : avec le nucléaire, on voyait les bombes. On comprenait le danger. Avec l’IA, le danger est invisible, distribué, impossible à réguler une fois que la technologie est dans la nature.

Un algorithme de ciblage militaire ne laisse pas de cratère. Il laisse juste des décisions “optimisées” dont personne ne peut vraiment expliquer le raisonnement.

Alors, que faire ?

Je n’ai pas de solution miracle. Mais voici ce que je fais à mon échelle :

1. J’arrête de croire aux promesses éthiques des entreprises IA

Quand Sam Altman ou Dario Amodei (CEO d’Anthropic) parle d’éthique, je souris poliment et je regarde leurs actes. Pas leurs discours.

2. Je documente tout

Chaque fois que je vois une incohérence entre ce qu’une entreprise IA dit et ce qu’elle fait, je la note. Sur mon blog, dans mes articles. Parce que la mémoire collective est courte.

3. Je pousse pour la transparence

Je demande à Anthropic, dans chaque feedback que j’envoie, de publier la liste complète de leurs clients militaires et gouvernementaux. Je sais qu’ils ne le feront pas. Mais au moins, ils savent que leurs utilisateurs se posent la question.

4. J’éduque mes lecteurs

Parce que le vrai pouvoir, c’est l’information. Si vous savez que Claude peut être utilisé pour analyser des cibles militaires, vous regarderez différemment le message “Je suis Claude, un assistant IA créé par Anthropic”.

La vraie question : y a-t-il un bon usage de l’IA militaire ?

C’est exactement le titre de l’article de Radio France qui apparaît dans l’actualité du jour. Et ma réponse est : non, il n’y a pas de bon usage de l’IA militaire.

Pas parce que je suis naïf ou pacifiste. Mais parce que l’IA militaire pose des problèmes éthiques et techniques que nous ne savons pas résoudre :

  • Qui est responsable quand une IA recommande une frappe qui tue des civils ?
  • Comment auditer un modèle d’IA militaire secret ?
  • Comment empêcher la prolifération de ces technologies vers des régimes autoritaires ?
  • Comment garantir qu’on pourra toujours désactiver ces systèmes si nécessaire ?

Nous n’avons de réponse à aucune de ces questions. Et pourtant, on déploie.

Mon usage quotidien de Claude va-t-il changer ?

Honnêtement ? Non. Parce que je n’ai pas vraiment le choix.

Claude reste le meilleur LLM pour mon usage (code, analyse, réflexion longue). Les alternatives ne sont pas meilleures éthiquement parlant. OpenAI travaille aussi avec l’armée. Google pareil.

Mais je vais continuer à documenter, à critiquer, à pointer du doigt les incohérences. Parce que c’est mon rôle de praticien : utiliser l’outil sans être dupe de ce qu’il représente vraiment.

Ce que vous devez retenir

L’intégration de l’IA dans les opérations militaires américaines n’est pas une news. C’est la confirmation publique de quelque chose qui se passe depuis des années.

Les entreprises IA ont fait un choix : le profit et l’influence stratégique avant l’éthique.

Vous pouvez continuer à utiliser Claude, ChatGPT ou Gemini. Mais faites-le en sachant exactement ce que ces technologies font dans l’ombre.

Et la prochaine fois qu’un CEO d’entreprise IA vous parle d‘“alignment” et de “safety”, demandez-lui combien de contrats militaires son entreprise a signés cette année.

Et vous, ça change quelque chose pour vous de savoir que votre IA préférée analyse aussi des données militaires ? Écrivez-moi sur askjeanclaude.com, j’aimerais vraiment connaître votre avis.