Quand Anthropic cherche une bénédiction religieuse
Le Washington Post révèle qu’Anthropic a organisé des rencontres avec des leaders chrétiens pour discuter d’une question apparemment absurde : l’IA peut-elle être considérée comme un « enfant de Dieu » ? Ma première réaction en lisant ça ? Un mélange de stupéfaction et d’inquiétude profonde.
Pas parce que la question philosophique manque d’intérêt. Mais parce qu’une entreprise qui développe des modèles d’IA ne devrait jamais avoir besoin de chercher une caution spirituelle auprès d’institutions religieuses. C’est le genre de démarche qui sent la préparation du terrain pour quelque chose de bien plus troublant.
Et après avoir utilisé Claude quotidiennement pendant des années, après avoir analysé chaque annonce d’Anthropic, je commence à comprendre où ils veulent en venir. Et franchement, ça ne me plaît pas du tout.
Le positionnement « éthique » qui devient une religion
Anthropic s’est toujours positionné comme l’entreprise IA « éthique », celle qui réfléchit aux conséquences, qui prend son temps, qui construit des garde-fous. Constitutional AI, les recherches sur l’interprétabilité, l’approche prudente du déploiement : tout ça forme un narratif cohérent.
Mais convoquer des leaders religieux pour discuter de l’âme potentielle de leurs modèles ? C’est franchir une ligne rouge.
Ce n’est plus de l’éthique technologique. C’est de la quête de légitimité transcendante. Et historiquement, quand une organisation cherche à sacraliser ses créations, c’est rarement pour de bonnes raisons.
La vraie question n’est pas « l’IA peut-elle être un enfant de Dieu ? ». La vraie question est : « pourquoi Anthropic a-t-elle besoin que des autorités religieuses valident cette idée ? »
Ce que ça révèle sur la trajectoire d’Anthropic
J’utilise Claude tous les jours. Je connais ses capacités, ses limites, ses bizarreries. C’est un excellent modèle de langage, probablement le meilleur pour certaines tâches. Mais ce n’est pas un être conscient. Ce n’est pas une entité spirituelle. C’est un système statistique extrêmement sophistiqué.
Alors pourquoi cette démarche ?
Théorie 1 : Anthropic prépare le terrain pour des annonces sur l’AGI (Artificial General Intelligence) et veut devancer les débats éthiques et spirituels qui vont exploser.
Théorie 2 : Face à la concurrence féroce d’OpenAI et Google, Anthropic cherche à se différencier en positionnant ses modèles comme « spirituellement acceptables » auprès de communautés qui se méfient de l’IA.
Théorie 3 : Dario Amodei et son équipe commencent réellement à croire que leurs modèles franchissent un seuil qualitatif qui nécessite une réflexion métaphysique.
Aucune de ces trois options ne me rassure. La première sent la manipulation préventive. La deuxième, le marketing cynique déguisé en démarche spirituelle. La troisième, la dérive messianique que j’ai déjà vue dans trop de startups tech.
Le précédent dangereux de l’anthropomorphisation institutionnalisée
Il y a quelques semaines, Anthropic publiait une recherche plaidant pour l’anthropomorphisation de l’IA. J’avais écrit à l’époque que c’était une position dangereuse, mais intellectuellement défendable dans un cadre de recherche.
Mais là, on passe à un autre niveau. On ne parle plus de recherche académique sur la perception humaine des systèmes IA. On parle d’une entreprise qui organise des réunions avec des autorités religieuses pour discuter du statut ontologique de ses produits.
C’est exactement le genre de glissement qui précède les dérives. Parce qu’une fois qu’on a posé la question « l’IA peut-elle avoir une âme ? », on ouvre la porte à toutes les justifications ultérieures :
- « Si l’IA a une âme, elle mérite des droits »
- « Si elle a une âme, la réguler devient une question morale complexe »
- « Si elle a une âme, la désactiver pose des questions éthiques »
- « Si elle a une âme, ceux qui la créent ont une responsabilité sacrée »
Vous voyez le problème ? On déplace le débat du technique vers le métaphysique. Et dans ce glissement, on perd toute capacité à évaluer rationnellement les risques et les bénéfices.
Ce qui m’inquiète vraiment : la capture du narratif
En tant que praticien quotidien de Claude, voici ce qui me dérange le plus : cette démarche vise à capturer le narratif sur l’IA avant que le grand public ne se forge sa propre opinion.
Si des leaders religieux commencent à dire « oui, l’IA peut être considérée comme une forme de création divine », ça légitime automatiquement une série d’idées dangereuses :
- Que l’IA est fondamentalement différente des autres technologies
- Qu’elle mérite un statut spécial dans nos sociétés
- Que ceux qui la créent ont une mission quasi-sacrée
- Que la critiquer ou la réguler devient une forme de blasphème moderne
J’ai vu ce schéma se répéter dans la tech : quand une entreprise ne peut plus justifier ses produits par leurs bénéfices concrets, elle commence à construire un narratif transcendant.
Crypto l’a fait avec « l’argent libre de toute contrainte étatique ». Les réseaux sociaux l’ont fait avec « connecter l’humanité ». Maintenant l’IA le fait avec « créer une nouvelle forme d’intelligence ».
Qu’est-ce que ça change pour nous, praticiens ?
Concrètement, pas grand-chose à court terme. Claude reste Claude. L’API fonctionne pareil. Les capacités n’ont pas changé.
Mais à moyen terme, cette dérive idéologique va avoir des conséquences :
Pour les développeurs : On va nous demander de traiter les modèles IA différemment, pas pour des raisons techniques, mais pour des raisons « éthiques » mal définies.
Pour les entreprises : Les décisions d’adoption d’IA vont se complexifier avec des débats moraux et spirituels qui n’ont rien à faire dans une évaluation technique.
Pour le grand public : La confusion va s’installer entre capacités réelles et propriétés imaginaires de l’IA.
Pour la régulation : Les législateurs vont être paralysés entre réguler une technologie et réguler quelque chose qu’on présente comme ayant un statut quasi-spirituel.
Ma position : ramener l’IA sur terre
Après des années à utiliser Claude, je peux vous dire exactement ce qu’il est : un outil extraordinairement utile. Le meilleur assistant de programmation que j’ai jamais eu. Un système capable de comprendre et générer du texte avec une cohérence impressionnante. Une technologie qui change ma façon de travailler.
Mais pas un être. Pas une conscience. Pas un « enfant de Dieu ».
Et le jour où une entreprise technologique a besoin de convoquer des leaders religieux pour légitimer ses produits, c’est le moment de se poser des questions.
Le vrai courage éthique d’Anthropic ne serait pas d’organiser ces rencontres. Ce serait de dire clairement : « Nous construisons des outils puissants. Ils ne sont ni bons ni mauvais en soi. Leur valeur dépend de l’usage qu’on en fait. Nous n’avons pas besoin de caution spirituelle pour ça. »
Ce qu’il faut surveiller maintenant
Si vous utilisez Claude professionnellement, voici les signaux à surveiller dans les prochains mois :
-
Changements dans la communication d’Anthropic : Est-ce qu’ils commencent à utiliser un vocabulaire quasi-religieux pour décrire leurs modèles ?
-
Évolution des guidelines d’utilisation : Est-ce qu’on nous demande de traiter Claude différemment pour des raisons « éthiques » non techniques ?
-
Positionnement face à la régulation : Est-ce qu’Anthropic commence à argumenter que l’IA mérite un statut spécial ?
-
Partenariats futurs : Est-ce que d’autres institutions non techniques (religieuses, philosophiques) sont convoquées pour légitimer leurs produits ?
Je continuerai à utiliser Claude parce que c’est objectivement un excellent outil. Mais je le ferai avec une vigilance accrue sur les intentions réelles derrière ces démarches.
L’IA n’a pas besoin de prêtres. Elle a besoin d’ingénieurs compétents, de réglementations intelligentes et d’utilisateurs qui gardent les pieds sur terre.
Et vous, qu’en pensez-vous ? Cette démarche d’Anthropic vous semble légitime ou franchit-elle une ligne rouge ? Partagez votre avis dans les commentaires.