← Articles

OpenAI et le Pentagone ajoutent des protections de surveillance : trop peu, trop tard ?

OpenAI révise son accord avec le Pentagone en ajoutant des garde-fous anti-surveillance. Mais après le scandale Anthropic-Iran, ces protections sont-elles crédibles ou juste du damage control ?

Le timing qui sent le roussi

Quand OpenAI annonce qu’ils ajoutent des protections contre la surveillance dans leur accord avec le Pentagone, ma première réaction c’est : “Ah bon, elles n’y étaient pas avant ?”

Parce que soyons clairs, ce n’est pas un hasard si cette annonce arrive pile après le scandale Anthropic-Iran. Vous savez, cette histoire où Claude a été utilisé par l’armée américaine pour de la surveillance de masse contre l’Iran, révélée par Mediapart ? Oui, celle-là même qui a fait exploser Twitter pendant 48h.

Alors là, OpenAI sort du bois avec un communiqué tout propre sur leur blog : “On a ajouté des protections supplémentaires, promis juré craché, notre IA ne sera pas utilisée pour de la surveillance de masse.”

Mon œil.

Les protections en question : du concret ou du flou artistique ?

D’après ce qu’on sait (parce que les détails sont rares, évidemment), OpenAI et le Pentagone auraient ajouté des clauses spécifiques interdisant l’utilisation de GPT pour :

  • La surveillance généralisée de populations civiles
  • L’analyse de masse de communications privées
  • Le profilage comportemental à grande échelle

Sur le papier, ça a l’air bien. Dans la réalité ? J’ai trois gros problèmes avec ça.

Problème numéro 1 : La définition de “surveillance de masse”

Qu’est-ce qui distingue la “surveillance de masse” de “l’analyse d’intelligence militaire légitime” ? Parce que spoiler alert : pour le Pentagone, analyser 10 millions de messages Telegram iraniens, ce n’est pas de la surveillance de masse, c’est de “l’intelligence gathering”.

C’est exactement le même débat qu’on a eu avec la NSA et Snowden. Les mots changent, les pratiques restent.

Problème numéro 2 : Qui vérifie ?

OpenAI peut mettre toutes les clauses qu’ils veulent dans un contrat. Mais concrètement, qui va aller vérifier que le Pentagone respecte ces règles ? Un auditeur indépendant ? Une commission de surveillance ? Un interne d’OpenAI avec une clearance militaire ?

La réponse est probablement : personne. Ou alors quelqu’un qui a tout intérêt à ce que le partenariat continue.

Problème numéro 3 : Les exceptions

Je parie ma chemise qu’il y a des clauses d’exception. “Sauf en cas de menace pour la sécurité nationale”, “sauf urgence opérationnelle”, “sauf décision du commandement”.

Et devinez quoi ? En contexte militaire, TOUT peut être justifié par la sécurité nationale. C’est le joker ultime.

Ce que ça change concrètement : rien du tout

Pour nous, utilisateurs quotidiens de ChatGPT, Claude ou autre ? Absolument rien.

Ces accords concernent des déploiements spécifiques pour les forces armées américaines. Pas l’API publique, pas l’interface web que vous utilisez tous les jours.

Mais il y a quand même deux implications importantes :

1. La normalisation de l’IA militaire

Chaque annonce de ce type normalise un peu plus l’idée que les IA génératives sont des outils militaires légitimes. Et ça, ça change la façon dont ces entreprises se positionnent.

OpenAI n’est plus “l’entreprise qui veut distribuer l’AGI au bénéfice de toute l’humanité”. C’est devenu “l’entreprise qui vend de l’IA au Pentagone avec quelques garde-fous rassurants”.

La différence est énorme.

2. Le précédent pour les autres acteurs

Si OpenAI et Anthropic peuvent travailler avec le Pentagone, pourquoi pas Google ? Meta ? Mistral ?

Et si le Pentagone américain, pourquoi pas l’armée française ? Britannique ? Saoudienne ?

On ouvre une boîte de Pandore, et ces “protections” sont juste un petit verrou symbolique sur un couvercle qui ne fermera plus jamais.

Mon expérience avec les “protections” IA

J’ai passé les trois dernières années à utiliser Claude quotidiennement. Et je peux vous dire que les garde-fous, les politiques d’utilisation acceptable, les filtres de contenu… tout ça, c’est flexible.

Pas parce qu’Anthropic triche ou ment. Mais parce que la réalité est toujours plus complexe que les règles.

Exemple concret : je bosse avec un client dans la cybersécurité. On utilise Claude pour analyser des patterns d’attaques, identifier des vulnérabilités, générer des scénarios de menace.

C’est 100% légal et éthique dans notre contexte. Mais techniquement ? On utilise exactement les mêmes capacités qu’un acteur malveillant pourrait exploiter.

La différence n’est pas dans la technologie ou les protections. Elle est dans l’intention et le contexte.

Et c’est exactement pareil pour le militaire. Les mêmes outils qui peuvent servir à “protéger les troupes” peuvent servir à “surveiller des dissidents”. C’est juste une question de perspective.

Ce qu’OpenAI aurait DÛ faire

Plutôt que d’ajouter des clauses floues après coup, voilà ce qu’une approche vraiment responsable aurait été :

1. Transparence totale

Publier les contrats complets (avec redaction des infos classifiées si nécessaire). Laisser la société civile, les chercheurs, les ONG examiner ces accords.

2. Audit indépendant

Mettre en place un organisme de surveillance externe avec un vrai pouvoir. Pas un conseil d’éthique symbolique, mais une entité qui peut suspendre le contrat en cas de violation.

3. Limites techniques

Ne pas se contenter de règles contractuelles. Implémenter des limites techniques dans les modèles déployés. Par exemple, refuser de traiter plus de X requêtes par seconde sur du contenu personnel, ou bloquer certains types d’analyses à grande échelle.

Mais ça ? Ça coûte de l’argent. Ça crée des contraintes. Ça peut faire perdre le contrat.

Alors on préfère les belles déclarations et les protections qui rassurent sans vraiment protéger.

L’hypocrisie des géants de l’IA

Ce qui me tue dans cette histoire, c’est le décalage entre le discours et la réalité.

Quand Sam Altman parle d’OpenAI, c’est toujours avec cette rhétorique grandiose : “On construit l’IA pour le bénéfice de l’humanité”, “notre mission est de s’assurer que l’AGI profite à tous”.

Mais quand il faut signer un chèque, bizarrement, le Pentagone est un client comme un autre.

Et Anthropic ? Pareil. Leur Constitution Claude, leurs principes d’IA “helpful, harmless, honest”… tout ça s’évapore dès qu’il y a un contrat juteux sur la table.

Je ne dis pas qu’il ne faut pas travailler avec les gouvernements ou les militaires. Mais assumez-le. Arrêtez de vous draper dans une posture morale que vous abandonnez à la première occasion.

Ce que vous pouvez faire

Vous, utilisateurs, développeurs, entrepreneurs qui utilisez ces IA au quotidien :

Exigez de la transparence. Quand une entreprise IA annonce un partenariat militaire, demandez les détails. Tweetez, écrivez, posez des questions. La pression publique est la seule chose qui marche.

Diversifiez vos outils. Ne mettez pas tous vos œufs dans le même panier. Utilisez Claude pour certaines tâches, GPT pour d’autres, peut-être un modèle open-source local pour les trucs sensibles. Ça limite votre dépendance et ça envoie un message.

Votez avec votre argent. Si vous payez pour ChatGPT Plus ou Claude Pro et que ces pratiques vous dérangent, résiliez. Et dites pourquoi. Les entreprises écoutent quand ça touche leur chiffre d’affaires.

Personnellement, je continue à utiliser Claude parce que c’est le meilleur outil pour mon travail. Mais je le fais en ayant les yeux ouverts sur qui est Anthropic et ce qu’ils font vraiment.

Pas d’illusions, pas de naïveté. Juste une utilisation pragmatique d’un outil puissant créé par une entreprise qui, comme toutes les autres, fait des compromis entre ses principes et son business model.

Bienvenue dans le vrai monde de l’IA en 2025.