← Articles

Le Pape François dénonce l'IA « de guerre et de peur » : pourquoi il a raison (et où il se trompe)

Le Vatican vient de pointer les usages « violents » de l'IA. Analyse d'un praticien : où la critique est légitime, où elle rate sa cible, et ce que ça change pour nous.

Une prise de position qui tombe à pic

Le Pape François vient de dénoncer l’utilisation de l’intelligence artificielle pour « alimenter les conflits, les peurs et la violence ». Après des mois de polémiques autour de Mythos (le modèle de cybersécurité offensive d’Anthropic), de ChatGPT utilisé pour générer de la désinformation, et de systèmes de reconnaissance faciale déployés dans des zones de conflit, cette déclaration ne sort pas de nulle part.

Et en tant que praticien quotidien de Claude et observateur du secteur, je dois admettre : il a raison sur le fond. Mais pas pour les raisons qu’on croit. Et surtout, sa critique passe à côté d’un problème bien plus urgent.

Les trois usages « violents » de l’IA que personne ne nie plus

Commençons par là où le Vatican vise juste. Trois catégories d’applications IA posent effectivement des problèmes éthiques majeurs.

Premier cas : l’IA militaire et de surveillance. Des systèmes comme ceux développés par Palantir ou utilisés dans certains conflits permettent d’identifier des cibles, d’optimiser des frappes, de traquer des populations. Ce n’est pas de la science-fiction : c’est déployé, documenté, et ça pose des questions légitimes sur l’automatisation de décisions létales.

Deuxième cas : l’amplification de la désinformation. Générer du contenu qui sème le doute, manipule l’opinion, crée des deepfakes politiques… Les LLM excellent à produire du texte convaincant à grande échelle. Le problème n’est même plus de savoir si c’est possible : c’est de constater que c’est déjà fait, tous les jours, dans des dizaines de langues.

Troisième cas : l’instrumentalisation de la peur. Des systèmes qui prédisent la criminalité (et stigmatisent des quartiers entiers), des algorithmes de notation sociale, des outils RH qui discriminent sur des critères opaques… L’IA peut très bien servir à contrôler, exclure, punir.

Sur ces trois points, difficile de contredire le Vatican. Ces usages existent. Ils sont documentés. Et ils posent problème.

Où la critique rate sa cible : l’IA n’est pas l’origine du problème

Mais voilà où ça coince. Dire que l’IA « alimente » les conflits et la violence, c’est inverser la causalité.

L’IA n’invente pas la guerre. Elle optimise, accélère, automatise des logiques qui préexistaient. Les armées n’ont pas attendu GPT-4 pour faire de la propagande. Les régimes autoritaires n’ont pas attendu la reconnaissance faciale pour surveiller leurs citoyens. Les discriminations à l’embauche existaient bien avant les algorithmes de tri de CV.

Ce que l’IA change, c’est l’échelle et l’efficacité. Un deepfake se fabrique en quelques clics. Une campagne de désinformation se déploie en 37 langues instantanément. Un système de surveillance analyse des millions de visages en temps réel.

Mais pointer du doigt « l’IA » comme source du problème, c’est faire l’impasse sur les vraies questions :

  • Qui finance ces systèmes ?
  • Qui les déploie ?
  • Qui en profite ?
  • Et surtout : qui décide de leur usage ?

Les LLM comme Claude, GPT-4 ou Gemini sont des outils. Puissants, oui. Dangereux dans de mauvaises mains, absolument. Mais neutres par nature. Ce qui compte, c’est le cadre réglementaire, les garde-fous, la transparence des déploiements.

Le vrai problème que le Vatican ne mentionne pas : l’opacité des décisions

Et là, on touche au cœur du sujet. Ce qui rend l’IA potentiellement « violente », ce n’est pas sa capacité à générer du texte ou analyser des images. C’est l’absence de responsabilité claire quand elle se trompe.

Prenons un exemple concret. Un système IA refuse un prêt bancaire à quelqu’un. Sur quelle base ? Impossible à savoir. L’algorithme a « appris » sur des millions de cas, mais personne ne peut expliquer pourquoi ce profil a été rejeté. Résultat : une discrimination potentielle, mais aucun recours possible.

Ou encore : une IA de modération supprime un compte, bloque un contenu, signale une publication comme « dangereuse ». Qui vérifie ? Qui peut contester ? Qui est responsable si l’IA se trompe ?

C’est ça, la vraie violence de l’IA : l’automatisation de décisions importantes sans possibilité de recours ni de compréhension.

Et ça, ce n’est pas un problème de technologie. C’est un problème de gouvernance, de régulation, de transparence. Des sujets dont le Vatican pourrait parler avec bien plus d’impact que de dénoncer vaguement « l’IA de guerre ».

Ce que ça change pour nous, praticiens et utilisateurs

Alors concrètement, cette déclaration papale, qu’est-ce qu’elle change ?

Pas grand-chose au niveau technique. Anthropic ne va pas arrêter de développer Claude. OpenAI ne va pas fermer ChatGPT. Google ne va pas suspendre Gemini.

Mais elle déplace le curseur politique. Quand une institution comme le Vatican prend position sur l’IA, ça légitime les régulateurs, ça renforce les voix qui réclament des garde-fous, ça met la pression sur les labos pour qu’ils justifient leurs choix.

Et ça, c’est positif. Parce que depuis deux ans, on assiste à une course effrénée entre OpenAI, Anthropic, Google, Meta… avec très peu de débat public sur les limites à poser.

Les labos régulent eux-mêmes leurs modèles. Claude refuse de générer certains contenus. GPT-4 filtre certaines requêtes. Gemini applique des restrictions. Mais ces choix sont opaques, unilatéraux, changeants. Aucune loi ne les encadre vraiment. Aucune instance indépendante ne les contrôle.

Le message du Vatican, même s’il manque de nuance, pousse dans la bonne direction : il faut un débat démocratique sur ce qu’on autorise ou non avec l’IA. Et ce débat ne peut pas être réservé aux ingénieurs de la Silicon Valley.

Trois choses à retenir de cette polémique

Première leçon : l’IA n’est ni bonne ni mauvaise, mais elle amplifie tout. Les usages positifs (santé, éducation, recherche) comme les dérives (surveillance, manipulation, discrimination). Pointer uniquement les risques, c’est passer à côté de l’essentiel : c’est une question de choix politiques et économiques, pas de technologie.

Deuxième leçon : la transparence est le vrai combat. On devrait pouvoir savoir quand on interagit avec une IA, comprendre sur quelle base elle prend des décisions, contester ses erreurs. Aujourd’hui, c’est loin d’être le cas. Les modèles sont des boîtes noires, les déploiements sont opaques, les responsabilités sont floues.

Troisième leçon : le débat public sur l’IA commence enfin. Pendant longtemps, seuls les technophiles et les chercheurs en parlaient. Aujourd’hui, le Vatican, les syndicats, les artistes, les juristes s’en saisissent. C’est brouillon, parfois mal informé, mais c’est sain. Parce qu’une technologie qui impacte tout le monde ne peut pas être discutée uniquement par ceux qui la construisent.

Et maintenant, on fait quoi ?

Si vous utilisez Claude, ChatGPT ou n’importe quel LLM au quotidien, cette déclaration ne va rien changer à votre pratique. Mais elle devrait vous rappeler trois réflexes simples :

Documenter vos usages. Si vous utilisez l’IA pour prendre des décisions importantes (recrutement, crédit, modération…), assurez-vous de pouvoir justifier comment et pourquoi. L’IA peut suggérer, mais la responsabilité finale doit rester humaine.

Questionner l’opacité. Quand un système IA vous donne un résultat sans explication, méfiez-vous. Demandez des justifications. Testez avec d’autres prompts. Comparez avec d’autres modèles. Ne prenez jamais une réponse IA pour argent comptant.

Participer au débat. Que vous soyez dev, manager, entrepreneur, utilisateur lambda… vous avez un avis sur ce qu’on devrait autoriser ou interdire avec l’IA. Exprimez-le. Parce que si on laisse ce débat aux seuls lobbyistes et politiques, on va droit vers des régulations inadaptées.

Le Vatican vient de rappeler une évidence : l’IA n’est pas neutre politiquement. Elle est déployée dans un monde de rapports de force, d’intérêts économiques, de stratégies géopolitiques. Et tant qu’on fera semblant de croire que c’est « juste » de la technologie, on passera à côté de l’essentiel.