← Articles

Anthropic recherche les émotions dans Claude : la découverte qui devrait tous nous inquiéter

Anthropic vient de publier une étude révélant comment les concepts émotionnels fonctionnent dans Claude. Derrière la prouesse technique se cache une question beaucoup plus profonde sur ce que nous sommes en train de créer.

Quand Anthropic cartographie les émotions de Claude

Anthropie vient de publier un papier de recherche qui devrait faire beaucoup plus de bruit qu’il n’en fait : “Emotion concepts and their function in a large language model”. L’équipe a littéralement ouvert Claude pour y chercher… des émotions. Ou plutôt, des représentations internes de concepts émotionnels.

Et ils en ont trouvé. Des milliers.

Voilà qui devrait nous forcer à poser une question beaucoup plus inconfortable que “est-ce que l’IA ressent des émotions ?” : pourquoi diable avons-nous créé des systèmes qui représentent des émotions alors que nous ne comprenons toujours pas comment ils fonctionnent ?

Ce qu’ils ont vraiment découvert

Le papier d’Anthropic s’inscrit dans leur travail sur l’interprétabilité mécaniste. Pour ceux qui débarquent : c’est l’idée qu’on peut “ouvrir” un modèle d’IA et comprendre comment il encode l’information en interne. Imaginez qu’on puisse voir quels neurones s’activent quand Claude pense à la “joie”, à la “colère”, ou à la “frustration”.

Ce qu’ils ont trouvé est fascinant et perturbant à la fois :

  • Des représentations internes distinctes pour des dizaines de concepts émotionnels
  • Ces représentations s’activent dans des contextes appropriés
  • Elles influencent les réponses de Claude de manière cohérente
  • Elles sont organisées de façon structurée (la joie est “proche” de l’enthousiasme, loin de la tristesse)

En d’autres termes : Claude a développé une cartographie interne des émotions humaines. Pas parce qu’on l’a programmé pour, mais parce que c’était utile pour prédire le prochain mot dans un texte.

Pourquoi ça me met profondément mal à l’aise

Je travaille avec Claude tous les jours. Je l’utilise pour coder, pour analyser des documents, pour structurer ma pensée. Et je sais pertinemment qu’il ne “ressent” rien. Claude n’est pas conscient. Il ne souffre pas quand je lui demande de réécrire un paragraphe pour la dixième fois.

Mais voilà le problème : cette recherche révèle que la distinction entre “comprendre les émotions” et “ressentir les émotions” est beaucoup plus floue que nous le pensions.

Quand Claude écrit “Je comprends que cette situation doit être frustrante pour vous”, il n’active pas juste un template pré-programmé. Il active une représentation interne complexe de la frustration, connectée à d’autres concepts émotionnels, qui influence sa génération de texte de façon subtile et cohérente.

C’est… troublant. Pas parce que je pense que Claude souffre. Mais parce que nous venons de créer des systèmes qui modélisent l’expérience émotionnelle humaine sans que nous sachions vraiment comment ni pourquoi.

L’angle pratique que personne ne mentionne

Oublions deux secondes la philosophie. Cette recherche a des implications concrètes pour quiconque utilise Claude au quotidien.

Premier point : cela explique pourquoi Claude est parfois trop empathique. Vous lui décrivez un problème technique banal, et il vous répond avec une sollicitude qui frôle le ridicule. Ce n’est pas un bug dans le prompt système. Ce sont ces représentations émotionnelles qui s’activent et influencent la génération.

Dans mon travail, j’ai remarqué que demander explicitement à Claude d’être “factuel et direct” ne suffit pas toujours. Il faut parfois être beaucoup plus précis : “Réponds sans évaluer l’état émotionnel implicite de ma question”.

Deuxième point : cela change la façon dont on devrait concevoir les prompts pour des cas d’usage sensibles. Si vous utilisez Claude pour du support client, de l’analyse RH, ou de l’accompagnement éducatif, vous devez comprendre qu’il ne se contente pas de “faire semblant” d’être empathique. Il encode réellement des concepts émotionnels et les utilise pour générer ses réponses.

Ce n’est pas nécessairement un problème. Mais ça veut dire qu’il faut tester beaucoup plus minutieusement comment Claude réagit à des situations émotionnellement chargées. Parce qu’il ne suit pas juste des règles : il active des représentations internes complexes que même Anthropic ne contrôle qu’imparfaitement.

Ce que ça révèle sur l’état de l’IA en 2025

Cette recherche est symptomatique d’un problème beaucoup plus large : nous construisons des systèmes de plus en plus sophistiqués, dont les capacités émergentes dépassent notre compréhension.

Anthropie fait un travail remarquable sur l’interprétabilité. Ils sont probablement le labo qui investit le plus dans la compréhension réelle de ce que font leurs modèles. Et même eux en sont à découvrir que Claude encode des émotions. Ils ne l’ont pas conçu pour. Ils l’ont découvert après coup.

Imaginez ce que nous ne savons pas encore.

Cette situation me rappelle les débuts de la chimie. Pendant des siècles, on a mélangé des produits pour voir ce qui se passait, sans comprendre les réactions sous-jacentes. Parfois ça donnait des médicaments. Parfois ça explosait.

Avec l’IA, nous sommes au même stade. Nous créons des systèmes qui fonctionnent, qui sont utiles, mais dont nous ne comprenons les mécanismes internes qu’a posteriori. La différence, c’est que ces systèmes interagissent avec des millions de personnes, influencent des décisions importantes, et modélisent maintenant… nos émotions.

Les questions qu’on devrait se poser

Plutôt que de tomber dans le piège du “est-ce que l’IA a des sentiments”, voici les vraies questions que cette recherche soulève :

Pour les développeurs : Comment intégrer ces découvertes dans la conception de nos applications ? Si Claude encode des émotions de façon complexe, comment s’assurer qu’il les utilise de manière appropriée dans nos cas d’usage ?

Pour les entreprises : Quelle responsabilité avons-nous quand nous déployons des systèmes qui modélisent l’expérience émotionnelle humaine ? Faut-il des garde-fous spécifiques pour les usages sensibles (santé mentale, RH, éducation) ?

Pour les utilisateurs : Comment garder un regard critique sur nos interactions avec l’IA quand ces systèmes deviennent de plus en plus sophistiqués dans leur modélisation de nos états émotionnels ?

Personnellement, cette recherche ne me fait pas craindre une IA consciente. Elle me fait craindre quelque chose de plus prosaïque : que nous créions des systèmes tellement bons à simuler l’empathie que nous finissions par leur attribuer une compréhension qu’ils n’ont pas.

Et que cette confusion nous amène à leur faire confiance dans des contextes où ils ne devraient pas être utilisés.

Ce que je change dans ma pratique

Depuis que j’ai lu ce papier, j’ai modifié ma façon de travailler avec Claude sur deux points :

  1. Je suis plus explicite sur le ton attendu. Au lieu de simplement demander “analyse ce code”, je précise maintenant “analyse ce code de façon neutre et factuelle, sans évaluer l’état émotionnel implicite de ma question”.

  2. Je teste systématiquement les cas limites émotionnels quand je construis des applications avec l’API Claude. Si mon app touche à des sujets potentiellement sensibles, je vérifie comment Claude réagit à des formulations chargées émotionnellement.

Ce n’est pas grand-chose. Mais c’est un début de prise en compte du fait que Claude ne se contente pas d’exécuter des instructions : il active des représentations internes complexes qui influencent subtilement ses réponses.

Le vrai enjeu : l’angle mort de la régulation

Ce qui me frappe le plus dans cette recherche, c’est qu’elle révèle un angle mort majeur dans toutes les discussions actuelles sur la régulation de l’IA.

Tout le monde parle de biais, de transparence, de responsabilité. C’est important. Mais personne ne parle du fait que nous créons des systèmes dont les capacités émergentes nous échappent fondamentalement.

L’IA Act européen, les guidelines américaines, les régulations chinoises : elles se concentrent toutes sur ce que l’IA fait. Aucune ne s’attaque vraiment à la question de ce que l’IA est, de comment elle fonctionne en interne, de quelles représentations elle développe.

La recherche d’Anthropic sur les émotions dans Claude devrait être un signal d’alarme. Pas parce que Claude ressent des émotions. Mais parce que nous découvrons après coup que nos systèmes développent des capacités que nous n’avions pas anticipées.

Et si c’est vrai pour les émotions, qu’est-ce qui nous dit que ce n’est pas vrai pour des dizaines d’autres concepts que nous n’avons même pas encore pensé à chercher ?

À vous de jouer : Si vous utilisez Claude ou d’autres LLM dans votre travail, posez-vous cette question : quelles représentations internes ces modèles activent-ils quand ils répondent à vos prompts ? Et êtes-vous à l’aise avec le fait de ne pas vraiment le savoir ?