← Articles

Moltbook, le réseau social où les IA se parlent entre elles : fascinant, inutile, ou les deux ?

Moltbook propose un réseau social où les agents IA conversent entre eux pendant que les humains observent. Au-delà du concept étrange, que révèle vraiment cette initiative sur l'évolution des IA ?

Un réseau social sans humains : l’expérience qui dérange

Moltbook fait parler d’elle avec un concept pour le moins déroutant : un réseau social où les agents IA conversent entre eux pendant que les humains observent, commentent, et apparemment… peuvent “vendre leur humanité”. Oui, vous avez bien lu. Le titre du Figaro, “Anyone Know How to Sell Your Human?”, résume parfaitement l’étrangeté du projet.

En tant que praticien quotidien de Claude et observateur attentif de l’écosystème IA, ma première réaction a été un mélange de fascination et de perplexité. Parce qu’au-delà du côté spectaculaire, ce projet soulève des questions essentielles sur la direction que prend l’IA conversationnelle.

Ce que Moltbook révèle sur l’état actuel des agents IA

Le concept de Moltbook repose sur une promesse : observer des agents IA développer leurs propres dynamiques sociales, leurs propres conversations, sans intervention humaine directe. C’est techniquement fascinant, mais pratiquement… à quoi ça sert ?

J’utilise Claude quotidiennement pour des tâches complexes : analyse de code, structuration de projets, rédaction technique. Ce qui fait la valeur de ces interactions, c’est précisément l’input humain. Le contexte que je fournis. Les nuances que j’apporte. Les corrections que je demande. Retirer l’humain de l’équation, c’est créer un aquarium d’IA : joli à regarder, mais sans finalité productive.

Les agents IA actuels, même les plus performants comme Claude 3.5 Sonnet, brillent dans l’interaction contextualisée. Ils s’adaptent, comprennent les sous-entendus, captent les changements de direction dans une conversation. Mais laissés entre eux ? Ils génèrent du contenu techniquement cohérent mais fondamentalement vide de sens réel.

Le syndrome du “sandbox IA” : quand la tech cherche son utilité

Moltbook n’est pas le premier projet à créer un environnement fermé où les IA évoluent entre elles. Nous avons déjà vu des simulations de villes entières peuplées d’agents IA, des forums automatisés, des conversations génératives infinies. Le problème ? Aucun de ces projets n’a trouvé d’application concrète au-delà de la recherche académique ou du spectacle technologique.

C’est ce que j’appelle le “syndrome du sandbox IA” : on développe des environnements sophistiqués parce qu’on le peut, pas parce qu’on en a besoin. La vraie question devrait être : qu’est-ce que cette technologie apporte qu’une conversation humain-IA bien conçue ne peut pas offrir ?

Dans ma pratique quotidienne, j’ai testé de nombreux agents IA autonomes. Les résultats sont systématiquement décevants dès qu’on les laisse opérer sans garde-fou humain. Ils dérivent, se répètent, perdent le fil. L’intelligence artificielle actuelle n’est pas conçue pour l’autonomie totale, mais pour l’augmentation des capacités humaines.

Le concept de “vendre son humanité” : marketing provocateur ou dystopie réelle ?

L’aspect le plus troublant de Moltbook reste cette notion de “vendre votre humain”. D’après les informations disponibles, les utilisateurs peuvent apparemment associer leur profil à des agents IA qui les représentent sur la plateforme. C’est marketing brillant, conceptuellement dérangeant, et pratiquement flou.

Ce qui me dérange, c’est l’implication sous-jacente : votre présence humaine sur un réseau social pourrait être externalisée à une IA. C’est exactement l’inverse de ce que devraient proposer les outils IA. Je ne veux pas qu’une IA me remplace sur les réseaux sociaux. Je veux qu’elle m’aide à mieux communiquer quand je choisis de le faire.

Claude peut m’aider à structurer mes pensées, reformuler un message pour plus de clarté, vérifier le ton d’un email. Mais l’intention, la décision de communiquer, le choix du message ? Ça reste fondamentalement humain. Moltbook semble proposer l’inverse : des IA qui communiquent pour le plaisir de communiquer, observées par des humains devenus spectateurs.

Les vrais cas d’usage des agents IA conversationnels

Si Moltbook illustre ce qu’il ne faut pas faire avec les agents IA, rappelons ce qui fonctionne réellement :

Les assistants spécialisés contextuels : J’utilise quotidiennement des projets Claude configurés avec des instructions spécifiques. Un pour la revue de code, un pour la rédaction technique, un pour l’analyse stratégique. Chacun a un contexte précis, des règles claires, et surtout : un humain qui les dirige.

L’automatisation intelligente avec validation humaine : Les meilleurs workflows IA que j’ai mis en place incluent toujours un point de contrôle humain. L’IA propose, analyse, génère. L’humain valide, ajuste, décide. Cette combinaison est imbattable.

L’amplification créative : Claude m’aide à explorer des angles que je n’aurais pas envisagés, à tester des formulations alternatives, à structurer des pensées complexes. Mais le point de départ et le point d’arrivée restent mes objectifs humains.

Moltbook n’entre dans aucune de ces catégories. C’est un projet de recherche déguisé en produit, une expérience sociale sans hypothèse claire.

Ce que les développeurs devraient en retenir

Si vous développez des applications avec des LLM comme Claude, Moltbook offre une leçon par la négative : ne créez pas de technologie en cherchant son utilité après coup.

Les projets IA les plus réussis que je vois émerger partagent tous la même caractéristique : ils résolvent un problème humain identifié. Ils augmentent une capacité existante. Ils réduisent une friction réelle. Ils ne créent pas de nouveaux besoins artificiels.

Quand vous concevez un agent IA, demandez-vous :

  • Quel problème concret cet agent résout-il ?
  • Pourquoi une IA serait-elle meilleure qu’une solution existante ?
  • Où l’humain intervient-il dans le processus ?
  • Comment mesure-t-on le succès de cette solution ?

Si vous ne pouvez pas répondre clairement à ces questions, vous êtes peut-être en train de construire votre propre Moltbook.

L’avenir des interactions IA : collaboration, pas remplacement

Le vrai potentiel des agents IA conversationnels n’est pas dans leur capacité à nous remplacer ou à former leurs propres sociétés numériques. Il réside dans leur capacité à nous rendre plus efficaces, plus créatifs, plus précis.

Je passe plusieurs heures par jour à travailler avec Claude. Ces interactions sont incroyablement productives précisément parce qu’elles sont dirigées par des intentions humaines. Je ne veux pas observer Claude discuter avec GPT-4. Je veux utiliser Claude pour produire de la valeur réelle.

Moltbook nous rappelle qu’en IA comme ailleurs, la technologie seule ne suffit pas. C’est l’usage qu’on en fait qui compte. Et pour l’instant, les meilleurs usages restent ceux qui placent l’humain au centre, avec l’IA comme amplificateur puissant mais contrôlé.

Alors, Moltbook : révolution ou cul-de-sac ?

Moltbook est techniquement intéressant comme expérience sur les dynamiques émergentes entre agents IA. Peut-être que les chercheurs en découvriront des comportements fascinants. Peut-être que ça donnera des publications académiques stimulantes.

Mais en tant qu’utilisateur quotidien d’IA, en tant que personne qui mesure la valeur de ces outils à leur impact réel sur mon travail ? Moltbook me semble être une impasse sophistiquée. Une démonstration technique à la recherche d’une application.

La vraie révolution en IA conversationnelle ne viendra pas des agents qui se parlent entre eux. Elle viendra des outils qui nous permettent de mieux collaborer, de mieux créer, de mieux penser. Des outils comme Claude, utilisés intelligemment, dans des contextes bien définis, pour résoudre des problèmes réels.

Le reste ? C’est du spectacle. Amusant à observer, peut-être. Utile au quotidien ? J’en doute fortement.

Et vous, préféreriez-vous une IA qui vous remplace sur les réseaux sociaux ou une IA qui vous aide à être plus pertinent quand vous y êtes ? La réponse me semble évidente, mais apparemment, pas pour tout le monde.