Quand un cadre préfère partir plutôt que de fermer les yeux
Le chef de la division robotique d’OpenAI vient de démissionner. La raison ? Son opposition aux contrats militaires et à l’usage de l’IA pour la surveillance. Pendant que tout le monde parle des performances de GPT-5 ou des dernières features, un mec préfère claquer la porte plutôt que de cautionner une dérive qu’il juge inacceptable.
Et franchement, ça me fait un drôle d’effet. Parce que dans le monde de l’IA, on est plutôt habitués aux discours lissés, aux communiqués corporate qui expliquent que “tout est sous contrôle” et que “l’éthique est au cœur de nos préoccupations”. Là, quelqu’un met ses actes en accord avec ses convictions. C’est suffisamment rare pour être souligné.
Ce que ça révèle sur la trajectoire d’OpenAI
OpenAI a commencé comme une organisation à but non lucratif, avec une mission claire : développer une IA bénéfique pour l’humanité. Aujourd’hui, ils signent des contrats avec le Pentagone (pardon, le “Department of War” comme ils l’ont maladroitement renommé avant de faire marche arrière).
Le pivot est brutal. Et ce n’est pas juste une question de business. C’est un changement de cap fondamental sur ce qu’on fait de la technologie qu’on développe.
Quand j’utilise Claude au quotidien, je sais qu’Anthropic a aussi flirté avec ces questions. Ils ont travaillé avec le gouvernement US, puis se sont retirés après la polémique. Anthropic a fait machine arrière, OpenAI fonce. Et visiblement, ça ne passe pas auprès de tout le monde en interne.
Pourquoi ça me touche personnellement
Je suis un praticien de l’IA. Je passe mes journées à expliquer comment utiliser Claude pour automatiser des tâches, améliorer la productivité, créer de la valeur. Mon blog parle de prompts, de techniques, d’optimisation.
Mais derrière tout ça, il y a une question que je ne peux pas ignorer : à quoi sert tout ce que je construis ? Est-ce que les outils que je contribue à populariser vont servir à aider un prof à mieux enseigner, ou à optimiser un système de surveillance ?
La démission de ce cadre d’OpenAI, c’est un rappel brutal qu’on ne peut pas juste se réfugier derrière “la technologie est neutre”. Non, elle ne l’est pas. Ou en tout cas, son usage ne l’est jamais.
Le contraste avec Anthropic (et pourquoi ça compte)
Anthropic a fait le choix inverse. Après avoir testé des partenariats militaires, ils ont dit non. Leur CEO, Dario Amodei, a publiquement affirmé qu’ils ne voulaient pas que Claude soit utilisé pour des applications militaires offensives.
Est-ce que c’est parfait ? Non. Est-ce qu’il y a des zones grises ? Absolument. Mais il y a une ligne directrice claire : on ne veut pas que notre technologie tue des gens.
OpenAI, de son côté, explique qu’ils ont mis des “garde-fous” et des “protections” dans leurs contrats avec le Pentagone. C’est rassurant sur le papier. Mais quand ton responsable robotique démissionne, c’est que ces garde-fous ne sont manifestement pas suffisants à ses yeux.
Ce que ça change pour nous, utilisateurs
Concrètement ? Rien, à court terme. ChatGPT continue de fonctionner. Claude aussi. Gemini fait son truc. Les APIs tournent.
Mais à moyen terme, ça nous oblige à nous poser des questions. Quand j’utilise ChatGPT pour automatiser un process, je finance indirectement une entreprise qui a choisi de bosser avec l’armée américaine. Quand j’utilise Claude, je finance une entreprise qui a choisi de ne pas le faire.
Est-ce que ça doit influencer mes choix d’outils ? Personnellement, oui. Pas de manière binaire (“je boycotte OpenAI”), mais ça fait partie de l’équation.
Je ne suis pas naïf : toutes les grandes entreprises tech ont des contrats gouvernementaux. Microsoft, Google, Amazon, tous bossent avec le Pentagone. Mais il y a une différence entre vendre du cloud computing et développer spécifiquement des systèmes d’IA pour des applications militaires.
L’argument du “si on ne le fait pas, la Chine le fera”
C’est l’argument massue qu’on entend systématiquement : “Si on ne développe pas ces technologies, nos adversaires le feront, et on sera à la traîne.”
Je comprends l’argument. Vraiment. Mais il a une limite : il justifie n’importe quoi. Avec cette logique, on peut justifier tous les dérapages au nom de la compétition internationale.
La vraie question, c’est : est-ce qu’on veut vivre dans un monde où l’IA est massivement déployée pour la guerre et la surveillance ? Parce qu’une fois qu’on a ouvert cette boîte de Pandore, il n’y a pas de retour en arrière possible.
Ce que je ferais si j’étais décideur chez OpenAI
Je publierais une charte claire sur les usages acceptables et inacceptables de mes modèles. Avec des exemples concrets, pas du jargon corporate.
Je mettrais en place un comité d’éthique indépendant, avec un vrai pouvoir de veto. Pas un machin consultatif qui donne des avis que personne n’écoute.
Et surtout, je serais transparent sur les contrats qu’on signe. Qui utilise nos modèles, pour quoi faire, avec quelles garanties ? Les utilisateurs méritent de savoir.
Est-ce que ça arrivera ? J’en doute. Parce que la transparence totale est incompatible avec les contrats militaires. Et qu’OpenAI a visiblement fait son choix.
Le signal faible qui devrait nous inquiéter
Ce qui m’inquiète, ce n’est pas tant la décision d’OpenAI en elle-même. C’est qu’on soit en train de normaliser ces dérives.
Il y a deux ans, un partenariat entre une entreprise d’IA et l’armée faisait scandale. Aujourd’hui, ça fait un article dans la presse tech, quelques tweets indignés, et on passe à autre chose.
La démission de ce cadre, c’est peut-être le dernier signal d’alarme avant qu’on accepte collectivement que “c’est comme ça” et qu’on ne peut rien y faire.
Ce que je fais, concrètement
Dans mon usage quotidien de l’IA, j’ai fait des choix. J’utilise majoritairement Claude, parce qu’Anthropic a une position plus claire sur ces questions. Ça ne veut pas dire que je boycotte ChatGPT, mais ça influence mes recommandations.
Quand je conseille des entreprises, j’aborde systématiquement la question de l’éthique. Pas pour faire de la morale, mais parce que ça fait partie de la décision : quel fournisseur d’IA choisir, pour quels usages, avec quelles garanties ?
Et je continue à en parler. Parce que si les praticiens comme moi ne le font pas, qui le fera ?
Le choix qu’on doit tous faire
On est à un moment charnière. L’IA est en train de devenir une technologie de masse, utilisée par des millions de gens chaque jour. Ce qu’on en fait aujourd’hui détermine le monde dans lequel on vivra demain.
La démission du chef robotique d’OpenAI, c’est un rappel qu’on a encore le choix. Qu’on n’est pas obligés d’accepter la trajectoire actuelle comme une fatalité.
Alors oui, ça peut sembler dérisoire : choisir Claude plutôt que ChatGPT ne va pas changer le monde. Mais multipliez ce choix par des millions d’utilisateurs, et ça commence à compter.
Et vous, ça change quelque chose pour vous dans votre choix d’outils IA ? Venez en discuter sur le blog ou sur Twitter. Parce que ces questions sont trop importantes pour rester dans le non-dit.