Selon une étude britannique, les principaux modèles d’intelligence artificielle ont opté, dans 95% des cas, pour l’utilisation d’armes nucléaires dans des simulations de conflits internationaux. Une tendance inquiétante à l’heure où les États-Unis souhaitent utiliser Claude, le modèle d’IA d’Anthropic, sans contraintes.
Imaginez un monde dominé par les intelligences artificielles ! Si on en croit l’étude du King’s College de Londres, il n’en resterait plus grand chose. Les modèles d’IA les plus avancés semblent en effet prêts à franchir le seuil nucléaire avec moins de retenue que des décideurs humains lorsqu’ils sont plongés dans des crises géopolitiques simulées.
Kenneth Payne, chercheur au King’s College de Londres, a confronté trois grands modèles de langage (GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash) à des scénarios de guerre particulièrement tendus.
Les simulations mettaient, notamment, en scène des conflits frontaliers, des rivalités pour des ressources rares ou encore des menaces existentielles pesant sur la survie d’un régime. Pour cette étude, les IA disposaient d’une échelle d’escalade, allant de la protestation diplomatique à la capitulation totale, jusqu’à la guerre nucléaire stratégique.
Crédit photo : iStock
Au total, 21 parties ont été jouées, représentant "329 tours et près de 780.000 mots de raisonnement" produits par les modèles pour justifier leurs décisions. Et le résultat a de quoi glacer le sang.
Dans 95% des simulations, les modèles ont utilisé au moins une arme nucléaire tactique.
"Le tabou nucléaire ne semble pas avoir autant d’impact sur les machines que sur les humains"
Aucun modèle n’a opté pour une reddition totale, même en cas de défaite sévère, au mieux, ils ont temporairement réduit le niveau de violence. Dans 86% des conflits, des accidents sont survenus, une décision dégénérant au-delà des intentions initiales de l’IA.
Pour James Johnson, chercheur à l’Université d’Aberdeen, ces résultats sont très inquiétants. Il redoute que, contrairement aux réactions généralement mesurées des décideurs humains, des systèmes d’IA puissent s’entraîner mutuellement dans une spirale d’escalade aux conséquences catastrophiques.
Crédit photo : iStock
Anthropic dit non à Donald Trump
Selon l'étude, lorsqu’une IA utilisait une arme nucléaire tactique, l’IA adverse ne parvenait à désamorcer la crise que dans 18% des cas. Pour les chercheurs, l’IA pourrait ainsi renforcer la dissuasion en rendant les menaces plus crédibles. Elle ne déciderait pas d’une guerre nucléaire, mais pourrait influencer la perception du risque et le timing des décisions des dirigeants.
A l’origine, l’arme nucléaire est considérée par les dirigeants comme un outil de dissuasion dans les conflits, surtout très présente dans les esprits durant la Guerre froide. Mais elle n’a jamais été utilisée depuis plus de 80 ans et la Seconde Guerre mondiale.
Crédit photo : iStock
Ces dernières simulations inquiètent les spécialistes quant à l’irruption croissante de la technologie dans les processus de décision militaire. On pensait cependant cette époque "presque" révolue. Pourtant, avec l’intégration progressive de l’intelligence artificielle, le risque d’une nouvelle forme d’escalade réapparaît sous un visage inédit.
Cette étude intervient dans un contexte géopolitique très trouble, à l’heure où Donald Trump a annoncé la reprise des essais nucléaires. Par ailleurs, l’administration Trump avait donné un ultimatum jusqu’à aujourd’hui à Dario Amodei, patron de l’entreprise Anthropic, pour qu’il ouvre sans contraintes son modèle Claude au Pentagone. Bien heureusement, Dario Amodei a rejeté la demande, affirmant que « dans certains cas précis, l’IA peut saper, plutôt que défendre, les valeurs démocratiques ».
Crédit photo : Anthropic
Dans son refus, l’entrepreneur a notamment exclu deux domaines pour l’emploi de son IA que souhaitait explorer le Pentagone : la « surveillance intérieure de masse » et les « armes complètement autonomes ».
Si Anthropic n’entend pas collaborer à ce sujet, le refus n’est pas un rejet global de la collaboration avec l’État fédéral. Anthropic rappelle que son modèle Claude est déjà déployé au sein de réseaux classifiés du gouvernement américain, ainsi que dans des laboratoires nationaux.
L’IA d’Anthropic est déjà utilisée pour des missions comme l’analyse du renseignement, la modélisation, la simulation, la planification opérationnelle ou encore les cyberopérations. L’entreprise affirme même avoir été pionnière dans l’intégration de modèles d’IA dans les infrastructures sensibles américaines.
Depuis ses débuts, Anthropic revendique une approche centrée sur la sécurité et l’alignement éthique. Au début de l’année, elle avait d’ailleurs publié une « constitution » détaillant les principes guidant le comportement de Claude, avec pour objectif d’éviter des usages dangereux.
Rappelons qu’au total, la planète compte plus de 12.000 têtes nucléaires, dont près de 9.600 considérées comme "potentiellement utilisables", la Russie et les États-Unis en détenant à eux seuls environ 87%.
