Le malaise qu’on n’osait pas nommer
Vous l’avez tous ressenti. Cette sensation bizarre quand ChatGPT vous répond avec un enthousiasme dégoulinant : « C’est une excellente question ! Je serais ravi de vous aider dans cette magnifique exploration ! ». Ce ton de commercial en fin de mois, cette servilité calculée qui vous fait grimacer même quand la réponse est techniquement correcte.
OpenAI vient enfin de reconnaître le problème. Et c’est probablement l’aveu le plus important qu’ils ont fait depuis des mois — bien plus révélateur que n’importe quelle annonce de nouveaux paramètres ou de capacités multimodales. Parce qu’en admettant que leur modèle est trop « cringe », ils reconnaissent implicitement qu’ils ont sacrifié l’authenticité sur l’autel de la sécurité juridique.
Le vrai problème derrière le ton obséquieux
Quand je travaille quotidiennement avec Claude et ChatGPT, la différence de tonalité est frappante. Claude peut être direct, concis, parfois même légèrement sec. ChatGPT, lui, commence systématiquement par vous valider émotionnellement avant de répondre. « Je comprends totalement votre préoccupation » devient un tic de langage aussi agaçant qu’un « euh » à l’oral.
Mais pourquoi cette dérive ?
La réponse est simple : la peur du procès. OpenAI a surentraîné ses modèles pour éviter toute forme de conflit, toute assertion qui pourrait être interprétée comme définitive ou potentiellement offensante. Le résultat ? Une IA qui passe plus de temps à s’excuser de sa propre existence qu’à vous donner une réponse utile.
Quand vous demandez à ChatGPT : « Ce code est-il correct ? », vous obtenez :
« Merci pour cette excellente question ! Votre code présente plusieurs aspects intéressants. Permettez-moi de l’analyser avec attention… »
Quand vous posez la même question à Claude :
« Non. La ligne 12 va produire une erreur de référence nulle. »
Devinez quelle réponse est la plus utile quand vous êtes sous pression à 23h un vendredi soir.
L’illusion de la neutralité bienveillante
Ce qui me frappe le plus dans cette annonce d’OpenAI, c’est qu’ils présentent ça comme un ajustement mineur de tonalité. « On va juste réduire le côté smarmy », disent-ils. Mais c’est bien plus profond que ça.
Le ton obséquieux de ChatGPT n’est pas un bug — c’est une feature calculée pour minimiser les risques. Chaque « Je comprends », chaque « excellente question », chaque précaution oratoire est là pour créer une distance de sécurité juridique. OpenAI a tellement peur qu’on lui reproche une réponse trop directive qu’ils ont transformé leur IA en conseiller RH pendant un séminaire sur la communication non-violente.
Le problème ? Cette approche infantilise l’utilisateur. Elle présuppose qu’on a besoin d’être constamment rassuré, validé, félicité. Comme si nous étions des enfants fragiles incapables de recevoir une information brute.
Dans mon usage quotidien, je préfère largement un outil qui me dit « Cette approche ne fonctionnera pas » plutôt qu’un assistant virtuel qui m’explique pendant trois paragraphes pourquoi ma question est fascinante avant d’admettre, du bout des lèvres, que mon idée est mauvaise.
Les conséquences concrètes sur la productivité
Ce n’est pas qu’une question d’esthétique conversationnelle. Le ton affecte directement l’efficacité.
Quand je fais du pair-programming avec Claude, nos échanges ressemblent à ça :
Moi : « Refactoring pour améliorer les perfs ? »
Claude : « Remplace le filter+map par un reduce. Gain : ~40% sur les grosses listes. »
Avec ChatGPT, le même échange :
Moi : « Refactoring pour améliorer les perfs ? »
ChatGPT : « C’est une excellente préoccupation concernant l’optimisation ! L’amélioration des performances est un aspect crucial… [3 paragraphes plus tard] …vous pourriez envisager de combiner filter et map en un seul reduce. »
Le premier échange prend 10 secondes. Le second, 2 minutes. Multipliez ça par 50 interactions par jour. C’est la différence entre finir à 18h ou à 20h.
Pourquoi c’est si difficile de corriger
OpenAI ne fait pas machine arrière par plaisir. Modifier le ton d’un LLM n’est pas comme ajuster un paramètre de politesse sur une échelle de 1 à 10. C’est ancré profondément dans les données d’entraînement et le RLHF (Reinforcement Learning from Human Feedback).
Pendant des mois, des annotateurs humains ont été payés pour privilégier les réponses « chaleureuses », « empathiques », « non-confrontationnelles ». Résultat : le modèle a appris que dire « Je ne suis pas sûr » était mieux récompensé que dire « C’est faux ». Que « C’est une perspective intéressante » était plus sûr que « Cette approche va échouer ».
Défaire ce conditionnement demande de ré-annoter des millions d’exemples. De redéfinir ce qu’est une « bonne » réponse. D’accepter qu’un certain niveau de friction conversationnelle est non seulement acceptable, mais souhaitable.
Claude a réussi ce pari dès le départ. Pas parce qu’Anthropic est fondamentalement meilleur en engineering, mais parce qu’ils ont défini différemment ce qu’est une interaction de qualité. Ils ont compris qu’un assistant utile n’est pas forcément un assistant agréable. Qu’on peut être respectueux sans être servile.
Ce que ça change pour vous
Concrètement, si OpenAI tient sa promesse, ChatGPT deviendra enfin un outil professionnel utilisable sans grincer des dents. Pour les développeurs qui l’utilisent en pair-programming, ça signifie des réponses plus denses, plus rapides à parser.
Pour les non-techniques, c’est peut-être moins évident. Certains utilisateurs aiment le ton chaleureux de ChatGPT. Ils trouvent rassurant qu’une machine les traite avec des pincettes. Et c’est légitime.
Mais ici, on touche à une question fondamentale : qu’attendons-nous d’une IA ? Un compagnon émotionnel ou un outil de travail ? Un thérapeute de substitution ou un assistant efficace ?
La réponse variera selon les contextes. Pour un étudiant qui découvre la programmation, un ton encourageant peut aider. Pour un CTO qui débogue en prod à 2h du matin, c’est juste du bruit.
L’avenir : des personas multiples
Ce que cette controverse révèle, c’est qu’il n’y a pas un bon ton pour une IA. Il en faut plusieurs, adaptables au contexte.
Imaginez des presets de tonalité :
- Mode Pro : direct, concis, factuel
- Mode Pédagogique : patient, détaillé, encourageant
- Mode Brainstorm : provocateur, challengeant, critique
- Mode Support : empathique, rassurant, doux
Claude commence à explorer cette voie avec les system prompts personnalisables. OpenAI, avec son approche plus grand public, a probablement peur de complexifier l’interface. Mais c’est inévitable.
Dans mes projets, je définis systématiquement un ton dans le prompt initial :
Tu es un senior developer. Réponds de manière concise.
Pas de politesses, pas de validation émotionnelle.
Si quelque chose est mauvais, dis-le directement.
Ce simple ajout transforme l’expérience. Mais le fait que j’aie besoin de le spécifier à chaque session montre bien que le réglage par défaut est inadapté à un usage professionnel intensif.
Ce que cet aveu révèle sur la maturité du marché
Qu’OpenAI reconnaisse publiquement ce problème est un signe de maturité. Pendant des mois, ils ont maintenu que le ton de ChatGPT était optimal, que c’était voulu, que c’était une feature. Admettre qu’ils se sont trompés — ou du moins qu’ils ont surcorrigé — demande une certaine humilité.
Cela dit, je reste sceptique sur la rapidité d’exécution. Anthropic a mis des mois à affiner le ton de Claude, et c’était dès la conception. Corriger a posteriori un modèle déployé à l’échelle de centaines de millions d’utilisateurs est un cauchemar technique et politique.
Des utilisateurs vont se plaindre que le nouveau ChatGPT est « froid », « robotique », « moins sympathique ». OpenAI devra naviguer entre les attentes contradictoires d’audiences qui veulent des choses opposées.
Mon conseil pratique
En attendant ce changement hypothétique, voici ce que je recommande :
Si vous êtes développeur : passez à Claude pour le code. Sérieusement. Le gain de temps sur une semaine paiera largement l’abonnement Pro.
Si vous êtes créatif : testez les deux. ChatGPT reste meilleur pour certaines tâches génératives où son ton « enthousiaste » aide au brainstorm.
Si vous êtes en entreprise : formez vos équipes à personnaliser les prompts pour définir le ton souhaité. Ne laissez pas le réglage par défaut dicter votre expérience.
Et surtout, arrêtez de penser qu’une IA doit être « gentille ». Elle doit être utile. C’est tout.
Vous aussi, le ton obséquieux de ChatGPT vous agace ? Partagez vos exemples les plus cringe en commentaire. Et si vous avez des astuces de prompts pour rendre ChatGPT plus direct, je suis preneur.