← Articles

Le patron de l'AGI chez OpenAI prend un « congé » : le signal faible qui confirme que tout le monde bluffe

Jakub Pachocki, responsable de l'AGI chez OpenAI, prend un congé sabbatique au moment le plus critique. Décryptage d'un départ qui en dit long sur l'état réel de la course à l'intelligence artificielle générale.

Quand le capitaine quitte le navire en pleine tempête

Jakub Pachocki, le directeur de la recherche sur l’AGI chez OpenAI, vient d’annoncer qu’il prend un congé sabbatique. Pas un poste dans une autre boîte, pas une promotion, pas une réorientation : un congé. Au moment précis où OpenAI affirme être à quelques années (mois ?) de l’intelligence artificielle générale.

Si vous ne voyez pas le problème, laissez-moi reformuler : imaginez que le chef de projet d’une fusée lunaire annonce qu’il prend six mois de vacances trois semaines avant le décollage. Vous monteriez dans cette fusée ?

Ce départ – pardon, ce « congé temporaire » – est le énième signal faible qui confirme ce que beaucoup d’entre nous soupçonnent depuis des mois : personne ne sait vraiment où on va avec l’AGI. Et surtout, personne n’y croit vraiment autant qu’on veut nous le faire croire.

Le timing qui tue

Pachocki n’est pas n’importe qui. C’est lui qui a dirigé le développement de GPT-4, supervisé l’architecture de la série o1, et piloté la recherche fondamentale sur le raisonnement. C’est littéralement l’homme qui était censé nous amener à l’AGI.

Et il part. Maintenant. Alors qu’OpenAI vient de lever 122 milliards de dollars (un record historique), que Sam Altman parcourt le monde en annonçant l’AGI pour 2026-2027, et que toute la stratégie de l’entreprise repose sur cette promesse.

Le communiqué officiel parle de « pause pour se ressourcer après des années intenses ». Traduction habituelle dans la Silicon Valley : « Je suis épuisé et/ou en profond désaccord avec la direction prise ». OpenAI a précisé qu’il restait employé et qu’il reviendrait. Mais dans cette industrie, un « congé sabbatique » est souvent l’antichambre d’un départ définitif.

J’ai vu ce schéma se répéter chez Google (avec plusieurs chercheurs de DeepMind), chez Meta (avec l’équipe LLaMA originale), et maintenant chez OpenAI. À chaque fois, le récit officiel est le même : besoin de repos, burnout naturel dans un secteur intense. À chaque fois, six mois plus tard, la personne rejoint un concurrent ou lance sa propre startup.

L’hémorragie silencieuse des cerveaux

Ce qui est fascinant, c’est qu’on ne parle presque jamais de ces départs. OpenAI a perdu une partie substantielle de son équipe de sécurité (Jan Leike, Ilya Sutskever), plusieurs chercheurs clés, et maintenant le patron de l’AGI prend du recul. Google a vu partir les créateurs de Transformers. Anthropic est né d’une scission massive chez OpenAI.

Mais dans le narratif public, tout va bien. L’AGI arrive. Les investissements pleuvent. Les modèles progressent de version en version. Le train avance à pleine vitesse.

Sauf que les conducteurs descendent un par un en marche.

J’utilise Claude et ChatGPT quotidiennement depuis plus d’un an. Je vois les progrès. GPT-4 était impressionnant. o1 l’est encore plus sur certaines tâches. Claude 3.5 Sonnet a des capacités de raisonnement bluffantes. Mais soyons honnêtes : on est encore très, très loin d’une intelligence générale.

Ce que « AGI » veut vraiment dire (pour eux)

Le problème, c’est que personne ne s’accorde sur la définition de l’AGI. Pour Sam Altman, c’est un système capable de faire 80% des tâches intellectuelles humaines. Pour d’autres, c’est une conscience artificielle. Pour les investisseurs, c’est un mot magique qui justifie des valorisations délirants.

Quand Jensen Huang (Nvidia) affirme que l’AGI est « déjà là » si on baisse suffisamment les critères, il dit tout haut ce que beaucoup pensent tout bas : on déplace constamment les poteaux de but pour que l’objectif reste atteignable.

J’ai une théorie : Pachocki sait exactement à quelle distance on est de l’AGI réelle. Et cette distance est probablement beaucoup plus grande que ce qu’OpenAI communique publiquement. Quand vous avez passé des années dans les entrailles des modèles, vous savez où sont les limitations fondamentales. Et vous savez aussi quand le marketing prend le pas sur la science.

Les signaux d’alarme s’accumulent

Ce départ s’inscrit dans une série de signaux contradictoires :

Côté hype : OpenAI lève des montants records, annonce des partenariats stratégiques, promet l’AGI pour bientôt.

Côté réalité :

  • Sora (leur modèle vidéo) a été fermé après 3 mois d’exploitation car trop coûteux
  • GPT-4 Turbo coûte toujours une fortune à faire tourner
  • Les modèles de raisonnement (o1, o3) sont encore plus chers et plus lents
  • Les gains marginaux entre versions diminuent
  • Les talents clés partent ou prennent du recul

Pour quelqu’un qui travaille quotidiennement avec ces outils, le décalage est frappant. Oui, Claude m’aide énormément dans mon travail. Oui, ces modèles sont des assistants extraordinaires. Non, on n’est pas à deux ans d’une intelligence artificielle générale.

Ce que ça change pour nous, utilisateurs

Concrètement, ce départ ne change rien à court terme. Claude fonctionne toujours. ChatGPT aussi. Les API restent accessibles. Vos workflows continuent.

Mais à moyen terme, ça pose des questions essentielles :

Sur la fiabilité des roadmaps : Si OpenAI perd son chef de recherche AGI, qu’est-ce que ça dit sur leur calendrier annoncé ? Faut-il vraiment croire aux promesses d’AGI pour 2026-2027 ?

Sur la stabilité technique : Les grands modèles sont le fruit d’équipes soudées qui accumulent des connaissances tacites. Quand ces équipes se disloquent, la continuité technique en souffre.

Sur l’allocation des ressources : OpenAI va-t-elle ralentir la recherche fondamentale pour se concentrer sur la rentabilité ? C’est déjà la tendance avec la fermeture de Sora et le focus sur les produits B2B.

Pour les développeurs et les entreprises qui construisent sur ces technologies, le message est clair : ne pariez jamais tout sur une seule plateforme. J’ai toujours prôné une approche multi-modèles (Claude pour le raisonnement complexe, GPT-4 pour certains formats, Gemini pour d’autres), et ce genre d’événement me conforte dans cette stratégie.

La vraie question

Ce qui m’intéresse vraiment, ce n’est pas pourquoi Pachocki part. C’est ce que ça révèle sur l’état d’esprit dans ces labos.

Si vous croyez vraiment que vous êtes à 18 mois de créer l’intelligence artificielle générale – la plus grande révolution technologique de l’histoire humaine, celle qui va transformer radicalement notre civilisation – vous ne prenez pas de « congé sabbatique » pour vous ressourcer.

Vous travaillez nuit et jour. Vous êtes galvanisé. Vous êtes obsédé. C’est littéralement le moment le plus important de votre carrière, de votre vie.

Le fait qu’il parte suggère soit un épuisement profond (ce qui est compréhensible), soit un désaccord stratégique (ce qui est inquiétant), soit – et c’est mon hypothèse – la conscience que l’objectif est beaucoup plus lointain qu’annoncé publiquement.

Ce qu’il faut retenir

Je ne dis pas qu’OpenAI va s’effondrer. Je ne dis pas que l’AGI est impossible. Je dis simplement : regardez ce que les gens font, pas ce qu’ils disent.

Quand les investisseurs mettent des centaines de milliards mais que les chercheurs clés prennent du recul, il y a une histoire plus complexe que le narratif officiel.

Pour ma part, je continue d’utiliser ces outils intensivement. Ils sont extraordinaires pour ce qu’ils font aujourd’hui. Mais je ne construis plus mes projets sur la promesse d’une AGI imminente. Je les construis sur la réalité de ce qui existe maintenant, avec des plans de contingence pour plusieurs scénarios futurs.

Et vous devriez faire pareil. Parce que le patron de l’AGI vient de quitter le navire. Peut-être pour quelques mois. Peut-être pour toujours. Mais dans tous les cas, ça en dit long sur la confiance qu’il a dans la destination finale.

Vous construisez des projets IA ? Partagez en commentaire : misez-vous tout sur une plateforme ou diversifiez-vous vos paris ? J’aimerais savoir comment vous gérez cette incertitude stratégique.