← Articles

OpenAI lève 122 milliards de dollars : le montant qui signe la fin de la course à l'AGI (et le début d'autre chose)

OpenAI vient de lever 122 milliards de dollars, un record absolu. Mais cette levée record cache une transformation radicale : l'abandon discret de la course à l'AGI au profit d'une logique d'infrastructure. Décryptage d'un tournant historique.

Le chiffre qui change tout

122 milliards de dollars. Pas millions. Milliards.

OpenAI vient d’annoncer la plus grosse levée de fonds de l’histoire de la tech, et probablement de l’histoire du capitalisme tout court. Pour contextualiser : c’est plus que le PIB annuel de la Slovaquie. C’est 40 fois la valorisation d’Anthropic il y a deux ans. C’est suffisant pour acheter Netflix, Uber et Airbnb en même temps.

Mais ce qui m’intéresse, ce n’est pas le montant. C’est ce qu’il révèle : OpenAI a abandonné la course à l’AGI. Pas officiellement, évidemment. Mais dans les faits, cette levée marque un virage stratégique radical que personne ne semble avoir remarqué.

Et ce virage va redéfinir toute l’industrie de l’IA pour la décennie à venir.

L’AGI ne se finance pas, elle se rentabilise

Pendant des années, OpenAI nous a vendu un rêve : l’AGI (Artificial General Intelligence), cette IA capable de comprendre et d’accomplir n’importe quelle tâche intellectuelle humaine. Sam Altman répétait que c’était « à portée de main », que GPT-5 ou GPT-6 nous y amènerait, que c’était une question de mois, pas d’années.

Mais 122 milliards, ce n’est pas de l’argent pour financer la recherche. C’est de l’argent pour construire des infrastructures. Des datacenters. Des partenariats avec des fabricants de puces. Des accords d’exclusivité avec des fournisseurs d’énergie. De la capacité de calcul à l’échelle industrielle.

En d’autres termes : OpenAI n’essaie plus de créer l’AGI. Elle essaie de devenir AWS pour l’IA.

La différence est colossale. L’AGI, c’est une promesse scientifique incertaine, un pari sur une percée technique qui pourrait ne jamais arriver. L’infrastructure IA, c’est un business model éprouvé, prévisible, rentable. Amazon ne gagne pas d’argent avec Alexa. Elle en gagne avec AWS. OpenAI a compris la leçon.

Ce que ça change pour nous, utilisateurs de Claude

Vous vous demandez peut-être : « Pourquoi je devrais m’en soucier ? Je n’utilise même pas ChatGPT, j’utilise Claude. »

Parce que cette transformation d’OpenAI force Anthropic à réagir. Et la réaction risque de ne pas être celle que vous attendez.

Avec 122 milliards en poche, OpenAI peut se permettre de vendre l’accès à GPT-4 et GPT-5 à perte pendant des années. Elle peut subventionner ChatGPT Pro à 20$ par mois alors que le coût réel par utilisateur est probablement trois fois supérieur. Elle peut offrir des crédits API massifs aux entreprises pour les verrouiller dans son écosystème.

Anthropic, même avec ses récentes levées de fonds, ne peut pas rivaliser sur ce terrain. L’entreprise a levé environ 10 milliards au total. C’est déjà énorme, mais c’est 12 fois moins qu’OpenAI.

Alors Anthropic doit choisir : soit elle entre dans une guerre des prix qu’elle perdra, soit elle se différencie autrement.

Et c’est exactement ce qu’elle fait. Claude n’essaie pas de battre ChatGPT sur le volume. Il essaie de le battre sur la qualité de raisonnement, sur la fiabilité, sur la transparence des process, sur l’éthique. Regardez Claude 3.5 Sonnet : moins massif que GPT-4, mais plus cohérent. Moins omniscient, mais plus honnête sur ses limites.

Cette différenciation est une bonne nouvelle pour nous, praticiens. Ça signifie qu’on aura au moins deux modèles de développement radicalement différents : le rouleau compresseur infrastructurel d’OpenAI, et l’approche chirurgicale d’Anthropic.

Le piège de l’infrastructure

Mais il y a un risque énorme que tout le monde ignore : quand vous devenez une entreprise d’infrastructure, vos clients deviennent vos concurrents.

Amazon a vécu ça avec AWS. Netflix utilisait AWS pour streamer ses contenus. Puis Amazon a lancé Prime Video. Du jour au lendemain, AWS hébergeait son propre concurrent. La relation est devenue toxique, et Netflix a progressivement migré vers son infrastructure maison.

OpenAI va vivre exactement la même chose. Aujourd’hui, elle vend de la puissance de calcul et des API à des milliers d’entreprises qui construisent leurs propres produits IA. Demain, quand OpenAI lancera ses propres produits verticalisés (l’assistant médical, l’outil juridique, le copilot marketing), ces mêmes entreprises deviendront ses ennemies.

Et contrairement à AWS qui héberge simplement des serveurs, OpenAI a accès à toutes les requêtes, tous les prompts, tous les use cases de ses clients. Elle sait exactement ce qui marche, ce qui ne marche pas, où sont les opportunités.

C’est un avantage concurrentiel déloyal massif. Et ça va provoquer un exode.

L’impact concret sur notre quotidien

Concrètement, qu’est-ce que ça change pour quelqu’un comme moi, qui utilise Claude 12 heures par jour ?

Trois choses.

Premièrement, les prix vont fluctuer de manière imprévisible. OpenAI peut se permettre de casser les prix pour gagner des parts de marché, puis de les remonter brutalement une fois la concurrence étouffée. On l’a déjà vu avec les tokens GPT-4 Turbo, dont le prix a varié de 300% en six mois.

Deuxièmement, la fragmentation va s’accélérer. Les entreprises vont multiplier les prestataires IA pour éviter de dépendre d’un seul fournisseur. Ça signifie plus de complexité pour nous : gérer plusieurs APIs, plusieurs formats de réponse, plusieurs politiques de rate limiting. Le multi-model devient la norme, pas l’exception.

Troisièmement, et c’est le plus important : la course à la performance brute ralentit. Avec 122 milliards, OpenAI n’a plus besoin de sortir GPT-5 pour lever des fonds. Elle peut prendre son temps, optimiser, industrialiser. Ça veut dire moins de sauts qualitatifs spectaculaires, et plus d’améliorations incrémentales.

C’est une bonne ou une mauvaise nouvelle ? Les deux. Bonne parce que ça stabilise l’écosystème et permet aux entreprises de planifier à moyen terme. Mauvaise parce que l’innovation va ralentir.

Ce que je vais faire différemment

Pour ma part, cette annonce change ma stratégie sur trois points.

D’abord, je double mes efforts sur l’indépendance vis-à-vis des modèles. Jusqu’ici, j’optimisais mes workflows pour Claude. Désormais, je les conçois pour être model-agnostic. Un prompt qui fonctionne sur Claude doit aussi fonctionner sur GPT-4, Gemini, et Mistral avec des adaptations minimales. Ça demande plus de travail en amont, mais ça me protège contre les monopoles.

Ensuite, je réduis ma confiance dans les roadmaps publiques. OpenAI va annoncer des fonctionnalités qu’elle ne livrera peut-être jamais, parce qu’elle a désormais plus intérêt à rassurer les investisseurs qu’à servir les utilisateurs. Je me concentre sur ce qui existe aujourd’hui, pas sur les promesses de demain.

Enfin, je surveille de très près les alternatives européennes et open-source. Avec cette concentration de capitaux aux États-Unis, les régulateurs européens vont forcément réagir. L’IA Act est déjà en place. Les prochaines étapes seront probablement des incitations fiscales pour les alternatives locales. Mistral, Aleph Alpha, et d’autres pourraient bénéficier d’un coup de pouce politique massif.

La question que personne ne pose

Mais la vraie question, celle que personne ne semble poser, c’est : pourquoi maintenant ?

Pourquoi OpenAI a-t-elle besoin de 122 milliards aujourd’hui, alors qu’elle vient de lever 10 milliards il y a six mois ?

Deux hypothèses.

Soit elle anticipe une guerre des prix brutale avec Google et Anthropic, et elle veut avoir les moyens de tenir un siège de plusieurs années.

Soit elle sait quelque chose que nous ne savons pas. Peut-être que l’amélioration des modèles coûte beaucoup plus cher que prévu. Peut-être que GPT-5 est bloqué depuis des mois et qu’ils ont besoin de financer des alternatives. Peut-être que les coûts d’infrastructure explosent avec la montée en charge.

Dans tous les cas, 122 milliards, ce n’est pas une levée de fonds. C’est un signal de détresse déguisé en victoire.

Et ça, ça devrait nous inquiéter tous.