“C’est maintenant” : quand le patron de Nvidia réécrit la définition de l’intelligence
Jensen Huang, PDG de Nvidia, vient d’affirmer que l’humanité a atteint l’AGI — l’Intelligence Artificielle Générale. Vous savez, ce Saint Graal technologique censé représenter une IA capable de réaliser n’importe quelle tâche intellectuelle humaine avec la même flexibilité et compréhension qu’un être humain.
Ma première réaction ? Un mélange d’incrédulité et de lassitude. Pas parce que l’IA n’a pas progressé — elle l’a fait, spectaculairement. Mais parce que cette déclaration illustre parfaitement la confusion dangereuse entre capacité statistique et intelligence véritable.
Et surtout, elle révèle quelque chose de bien plus intéressant : le fossé grandissant entre ce que les industriels de l’IA veulent nous faire croire et ce que nous, praticiens quotidiens, constatons réellement.
L’AGI selon Nvidia : un test scolaire réussi = intelligence humaine
Quand Jensen Huang parle d’AGI, il ne parle pas de conscience, de compréhension profonde ou de raisonnement abstrait. Il parle de benchmarks. Des tests standardisés où les modèles obtiennent des scores proches ou supérieurs aux humains.
Le problème ? Ces tests mesurent la performance, pas l’intelligence.
Prenons un exemple concret que je rencontre chaque jour avec Claude. Je lui demande d’analyser un problème business complexe — disons, optimiser la stratégie pricing d’un SaaS B2B avec des contraintes de positionnement marché et de structure de coûts variables.
Claude (ou GPT-4, ou Gemini) va produire une réponse structurée, cohérente, qui cite les frameworks classiques (Value-based pricing, Van Westendorp, etc.). Impressionnant à première vue.
Mais voici ce qui se passe réellement :
- Il n’a aucune compréhension de ce qu’est vraiment un “positionnement marché” — il reconnaît des patterns linguistiques et reproduit des associations statistiques
- Il ne peut pas adapter sa réponse à des nuances implicites que j’aurais dans ma situation spécifique, sauf si je les rends explicites dans le prompt
- Il ne “pense” pas — il prédit le prochain token le plus probable dans une séquence
C’est brillant. C’est utile. C’est révolutionnaire pour la productivité.
Mais ce n’est pas de l’intelligence générale.
Ce que l’AGI devrait vraiment signifier (et pourquoi on en est loin)
L’Intelligence Artificielle Générale, dans sa définition académique, implique :
- Transfert de connaissances : apprendre dans un domaine et appliquer spontanément ces apprentissages à un domaine totalement différent, sans réentraînement
- Compréhension causale : saisir le “pourquoi” derrière les corrélations, pas juste les corrélations elles-mêmes
- Raisonnement abstrait : manipuler des concepts nouveaux sans avoir vu des millions d’exemples similaires
- Intentionnalité : avoir des objectifs propres, une volonté, une curiosité intrinsèque
Testons ces critères avec Claude (que j’utilise quotidiennement et que j’adore, soit dit en passant) :
Transfert de connaissances : Claude peut mobiliser des connaissances variées dans une même conversation, mais uniquement parce qu’il a été entraîné sur un corpus massif couvrant ces domaines. Ce n’est pas du transfert — c’est de la récupération statistique.
Compréhension causale : Demandez à Claude d’expliquer pourquoi certaines corrélations qu’il observe dans des données pourraient être trompeuses. Il vous citera les biais classiques (corrélation ≠ causalité, Simpson’s paradox, etc.), mais il ne comprend pas pourquoi. Il régurgite.
Raisonnement abstrait : Claude peut résoudre des problèmes de logique formelle, mais échoue lamentablement sur des raisonnements contre-intuitifs ou des situations vraiment nouvelles qui n’ont pas d’équivalent dans ses données d’entraînement.
Intentionnalité : Zéro. Claude n’a aucun objectif propre. Il répond parce qu’on lui a posé une question, pas parce qu’il cherche quelque chose.
Pourquoi Huang dit ça maintenant (indice : suivez l’argent)
Jensen Huang ne fait pas cette déclaration par naïveté scientifique. Nvidia vend des puces — les GPU H100 et H200 qui alimentent l’entraînement des LLM. Plus l’industrie croit que l’AGI est proche, plus elle investit dans l’infrastructure de calcul.
C’est une stratégie marketing brillante, mais dangereuse.
Dangereuse parce qu’elle crée des attentes irréalistes chez les décideurs qui investissent dans l’IA sans comprendre ses limites réelles. J’ai vu des entreprises déployer des chatbots en pensant qu’ils “comprenaient” les clients, pour se retrouver avec des désastres de service client quelques mois plus tard.
Dangereuse aussi parce qu’elle détourne l’attention de ce qui devrait vraiment nous préoccuper : non pas “avons-nous atteint l’AGI ?”, mais “comment utilisons-nous de manière responsable et efficace les outils IA qui existent aujourd’hui ?”.
Ce que ça change (ou pas) pour nous, utilisateurs de Claude
Concrètement, que Jensen Huang appelle ça de l’AGI ou de la “super-autocomplétion statistique” ne change rien à ma pratique quotidienne avec Claude.
Ce qui compte :
-
Claude reste un outil de réflexion augmentée incroyable — pas parce qu’il “pense”, mais parce qu’il accélère ma propre pensée en générant rapidement des structures, des contre-arguments, des reformulations
-
Les limites n’ont pas changé — Claude hallucine toujours sur des détails factuels, se contredit parfois, et nécessite un pilotage constant via le prompting
-
La responsabilité reste humaine — que ce soit de l’AGI ou non, c’est à moi de vérifier, valider, contextualiser chaque output
Ce qui m’inquiète, c’est l’effet de cette rhétorique sur les débutants qui découvrent l’IA. Si vous commencez avec l’idée que “c’est de l’AGI, ça pense comme un humain”, vous allez faire confiance aveuglément. Vous allez déléguer sans vérifier. Vous allez être déçu — ou pire, causer des dégâts.
La vraie révolution n’est pas l’AGI, c’est l’IA spécialisée de masse
Ce qui se passe réellement en 2025 n’a rien à voir avec l’AGI. C’est bien plus terre-à-terre et, paradoxalement, bien plus révolutionnaire :
Nous avons désormais des IA spécialisées accessibles à tous, capables d’assister dans des tâches cognitives précises avec une qualité professionnelle.
- Claude Projects pour gérer la connaissance de projets complexes
- Les artifacts pour prototyper des interfaces en quelques secondes
- L’analyse de code pour détecter des bugs ou optimiser des performances
- La génération de contenu pour surmonter la page blanche
Chacun de ces usages est spécialisé. Chacun nécessite un pilotage humain. Aucun ne constitue de l’intelligence générale.
Mais collectivement, ils changent radicalement notre rapport au travail intellectuel. Et ça, c’est la vraie révolution — pas les déclarations marketing d’un PDG qui vend des puces.
Ce qu’il faut retenir
Jensen Huang n’a pas tort sur un point : nous vivons une période de transformation technologique majeure. Mais appeler ça de l’AGI relève soit de la confusion conceptuelle, soit de la stratégie commerciale.
Pour nous, praticiens de Claude et des LLM en général, la question n’est pas “est-ce de l’AGI ?”. La question est : comment utiliser intelligemment des outils qui excellent dans certaines tâches et échouent dans d’autres ?
La réponse passe par :
- Comprendre les mécanismes : un LLM prédit des tokens, il ne pense pas
- Identifier les cas d’usage pertinents : génération, structuration, reformulation — pas décision autonome ou compréhension profonde
- Garder le contrôle : vérifier, valider, contextualiser chaque output
- Ignorer le hype : quand un PDG vous dit que l’AGI est là, demandez-vous ce qu’il vend
L’IA actuelle est déjà suffisamment puissante pour transformer nos métiers. Pas besoin de lui coller l’étiquette “AGI” pour que ça soit vrai. Et si vous voulez vraiment maîtriser Claude, commencez par accepter qu’il n’est pas intelligent — il est utile. Nuance fondamentale.
Maintenant, la vraie question : avez-vous remarqué à quel point cette déclaration de Huang coïncide avec le besoin de Nvidia de justifier ses valorisations boursières stratosphériques ? Parce que moi, oui.