Rechercher un rapport, une publication, un expert...
La plateforme de débats et d’actualités de l’Institut Montaigne
Imprimer
PARTAGER

Stabilité stratégique et militarisation de l’intelligence artificielle

Stabilité stratégique et militarisation de l’intelligence artificielle
 Loys Lamarre
Auteur
Fonctionnaire au Secrétariat Général de la Défense et de la Sécurité Nationale (SGDSN)

La guerre automatique et hors de contrôle, des IA désalignées et non-éthiques et des décisions militaires qui échappent à la cognition humaine (“battlefield singularity”) : en l’absence d’accord international, comment se prémunir contre de tels risques ? Peut-on appliquer à l’IA les stratégies formulées face au péril nucléaire, durant la Guerre froide ? Par Loys Lamarre.

Robots aériens, terrestres, navals et sous-marins, essaims de drones, guidage autonome de missiles, reconnaissance et renseignement, cybersécurité et cyberattaque, transmissions et guerre électronique… L'intelligence artificielle est au centre d'une compétition technologique et militaire qui oppose principalement les États-Unis à la Chine. Les programmes américains et chinois de militarisation de l'IA, largement symétriques, révèlent une ambition de révolutionner la conduite de la guerre

L'esprit humain pourrait s’avérer incapable de suivre le rythme de la future guerre "intelligentisée" par un emploi ubiquitaire de l'IA (c’est-à-dire d’une IA qui dépasse son champ réservé et soit intégrée à toute la chaîne de la décision et de l’action) au combat. Dès lors, se présente la question du rôle des humains dans la bataille : faut-il le déplacer du in the loop (validation de décisions proposées par la machine) au on the loop (délégation de décisions à la machine), jusqu’à ce que l’accélération opérationnelle provoque une rupture radicale, qui rejetterait les humains out of the loop ? C’est la perspective décrite par le concept de Battlefield Singularity un champ de bataille ultra-connecté et automatisé où des décisions tactiques seraient prises en instantanée, sans contrôle possible par les humains. 

La course à la suprématie entre adversaires peut aussi avoir pour conséquence plus probable le déploiement prématuré sur le théâtre d’opérations de modèles d’IA testés hâtivement et enclins à commettre des erreurs. Cette hypothèse attire l’attention sur les problèmes de fiabilité, sans doute croissants, des modèles d’IA.

L’augmentation de leurs performances, si elle n’a pas éliminé la récurrence des hallucinations, a aggravé le risque de désalignement. La recherche scientifique a documenté plusieurs situations où une IA divergeait des instructions de ses utilisateurs, développant un agenda autonome, des actions non-éthiques et une tromperie délibérée. Ce comportement désaligné peut être induit par une intervention humaine malveillante mais constitue aussi une propriété émergente des modèles de pointe, face à des dilemmes ou des objectifs imprécis.

L'esprit humain pourrait s’avérer incapable de suivre le rythme de la future guerre "intelligentisée" par un emploi ubiquitaire de l'IA.

Le modèle d’IA Claude aurait déjà servi dans les opérations militaires américaines au Venezuéla et en Iran, mais son éditeur Anthropic a refusé, fin février 2025, certaines clauses d'un contrat proposé par le Pentagone, craignant de ne pouvoir empêcher sa technologie d'être utilisée, notamment, dans des systèmes d'armes autonomes.

Cependant, un consensus entre grandes puissances qui déboucherait sur des traités bilatéraux ou une convention internationale sur l’IA semble lointain. Dès lors, la discussion s’avère insuffisante si elle vise seulement des normes collectives et des accords formels. Le parallèle avec la Guerre Froide et les craintes de perte de contrôle des armes nucléaires est alors instructif. Quelles approches furent théorisées durant cette période afin de prévenir l’usage de ces armes malgré l’absence d’un régime de prohibition ? Ces cadres conceptuels offrent des pistes pour ajuster, à défaut de prévenir totalement, l’emploi de l’IA dans des conflits.

Coopérer, sans le dire : la dissuasion, selon Thomas Schelling

L’économiste américain Thomas Schelling écrivait en 1960 à propos du complexe formé par les charges nucléaires, les missiles et les satellites : "Les développements d'armes des quinze dernières années […] sont eux-mêmes responsables des aspects les plus alarmants de la situation stratégique présente […] Ils ont inhumainement comprimé le temps disponible pour prendre les plus terribles décisions.

Schelling soutient que ces les États-Unis et l’Union Sovétique peuvent, malgré leur antagonisme, partager un intérêt commun. Cet intérêt commun tient essentiellement à leur survie contre le risque d'être entraîné dans une guerre que les armements apparus au lendemain de la Seconde Guerre mondiale rendraient incontrôlable et dévastatrice.

L'affirmation d'un intérêt commun entre adversaires conduit au concept de dissuasion. En effet, cette convergence est purement pragmatique, dictée par la peur de pertes incommensurables. Elle ne s'appuie ni sur des principes d'humanité ni sur le respect des engagements pris et l'établissement d'une confiance mutuelle. Seul le calcul d'intérêt peut garantir aux adversaires que chacun d'eux est retenu d'adopter un comportement dangereux pour tous.

La théorie de Schelling prend comme point de départ les enjeux technologiques parce que la dissuasion suppose une capacité de seconde frappe. Si la possibilité d'une rétorsion n'existait pas ou était mise en doute, les armes nucléaires fourniraient une prime irrésistible à l'attaque par surprise et aucune stabilité ne serait accessible.

Schelling appelle donc de ses vœux une politique de maîtrise des armements, ou arms control, évaluant leurs facultés stabilisatrice ou déstabilisatrice, sans ignorer leurs évolutions prévisibles ou leurs relations dans des systèmes complexes. Par exemple, le satellite d'observation pourrait être stabilisateur en détectant le lancement d'une première frappe mais il deviendrait dangereux en tant que moyen de ciblage contre le dispositif adverse.

Un point crucial de la doctrine de Schelling est sa préférence nette pour une coopération informelle et implicite avec l'adversaire et son scepticisme envers la conclusion d'accords diplomatiques visibles.

Un point crucial de la doctrine de Schelling est sa préférence nette pour une coopération informelle et implicite avec l'adversaire et son scepticisme envers la conclusion d'accords diplomatiques visibles : Il y a un nouveau et vaste territoire à explorer si nous rompons avec le confinement traditionnel du "désarmement" - le territoire entier de la collaboration militaire avec des ennemis potentiels.

Schelling ouvre alors un large spectre d'accords possibles : écrits, non-écrits mais verbaux, non verbaux mais proposés et confirmés par des actions, enfin des actions prises par les deux parties "comme si" un accord avait été passé. Toutefois, il concède que les raisonnements des Soviétiques et le processus d’interaction avec ces derniers demeurent mal connus : "la question reste sans réponse de savoir si les Russes sont seulement disposés à participer à quelque "accomodation mutuelle" que ce soit avec nous".

Stabiliser, sans coopérer : l’influence selon Andrew Marshall

Chercheur à la RAND ["Research ANd Development", société de conseil à destination de l’armée américaine] puis fonctionnaire au Pentagone, Andrew Marshall procède au début des années 70 à une critique sévère de la pratique du arms control, entrée dans une routine de préparation d'accords de désarmement, éloignée de l’approche plus globale énoncée par Schelling.

Comme Schelling, il tient la sécurité nationale, non la paix perpétuelle, pour le but central. Il juge triviale la question du volume quantitatif des armements et considère qu'une politique de défense doit servir à influencer l'adversaire, non à préparer silencieusement sa destruction.
 
L’antagonisme américano-soviétique doit être canalisé vers la stabilité mais la coopération même informelle n'est plus l'unique voie pour atteindre ce but : "La vision du arms control apparaît trop limitée [...] dans la mesure où elle se focalise sur la retenue réciproque dans un nombre limité de facteurs." Selon Marshall, la retenue des États-Unis dans les années 60 ne s'est pas accompagnée d'une attitude semblable du côté soviétique.

Pour stabiliser la relation entre deux puissances sans dépendre seulement de la perception consensuelle d'un intérêt commun, Marshall préconise une manipulation de l'adversaire l'amenant à prendre des décisions souhaitables : Si nous comprenions le processus d'interaction, nos actions pourraient imposer des coûts et fournir des incitations à aller […] dans des directions moins dangereuses et intrinsèquement plus stabilisantes - ce qui est, après tout, un but fondamental du arms control.

Les avocats du désarmement présumaient que les dirigeants soviétiques réagissaient de manière systématique, rapide et proportionnelle à toute mesure militaire d'importance prise par les États-Unis. Marshall estime que le comportement des décideurs soviétiques est surtout biaisé par des facteurs internes, dérivant de traditions culturelles, d’expériences historiques et de poids bureaucratiques. 

La manipulation de l’adversaire, une fois ses biais identifiés, consiste principalement à divulguer, au lieu de dissimuler, des capacités voire de simples orientations de R&D : L’annonce d’une technologie est interprétée [par l’adversaire] comme la possession de la force attenante à son déploiement.

Une politique de défense doit servir à influencer l'adversaire, non à préparer silencieusement sa destruction.

Sur le long terme, se joue une compétition des armements (arms competition), non une course aux armements, qui nécessite d’être plus efficient en limitant ses coûts d’armement et en stimulant des coûts supérieurs dans l’appareil militaire adverse.

Riposter, sans imiter : l'asymétrie selon Andreï Kokochine

En 1983, les dirigeants soviétiques s’alarment de la Strategic Defense Initiative (SDI, plus connue sous l’appellation "Guerre des étoiles") lancée par le président Reagan. La SDI est présentée comme un futur système de satellites en mesure de localiser et détruire les missiles soviétiques avant qu’ils ne puissent atteindre le sol américain. Le Kremlin perçoit cette innovation comme déstabilisatrice car elle priverait l’URSS de sa capacité à lancer une seconde frappe.

Sur une idée du physicien nucléaire Evgeni Velikhov, un groupe de travail réunit des scientifiques, militaires et diplomates, afin de dégager des solutions au défi de la SDI. La direction de ce groupe est confiée à Andreï Kokochine, alors directeur adjoint de l’ISKAN ("Institut des États-Unis et du Canada" dédié à l’étude des politiques américaines).

Conscient des retards technologiques et budgétaires de l’URSS, Kokochine souligne l’intérêt d’une approche asymétrique inspirée des écrits du stratège de l’Armée Rouge Aleksander Svechin mais aussi du traité médiéval chinois L’Art de la Guerre de Sun Tsu (XIe siècle). La réponse asymétrique (асимметричный ответ) devient alors le thème d’une série de rapports rédigés par le groupe Velikhov.

Le but n’est pas de construire une imitation soviétique de la SDI mais de frustrer les États-Unis de l’avantage stratégique qu’ils attendent de leur programme, en établissant des contre-mesures moins coûteuses. Les principaux objectifs sont, d’une part, de renforcer la protection de l’infrastructure soviétique de seconde frappe et, d’autre part, de développer des capacités anti-satellitaires susceptibles de dégrader les performances de la SDI.

Les parades envisagées montrent des niveaux variables de sophistication. D’une part, les Soviétiques entendent exploiter leur R&D avancée dans le champ de l’énergie dirigée dans l’espoir d’aboutir à des armes anti-satellites à rayonnement. Des projets plus rustiques sont aussi examinés tels que des leurres imitant la signature radar des missiles pour saturer la SDI ou le déplacement des missiles intercontinentaux sur des camions pour compliquer le ciblage américain.

L’influence de Kokochine s’est prolongée dans la Fédération de Russie et transpire dans un discours de Vladimir Poutine devant la Douma, le 10 mai 2006 : "Nous devons tenir compte des plans et directions de développement des forces armées des autres pays, nous devons connaître les développements prometteurs. Mais ne courrez pas après les chiffres. Nos réponses doivent basées sur la supériorité intellectuelle. Elles seront asymétriques, moins coûteuses.

Les politiques d’armement des États ont tendance à se répondre. Le choix par défaut, irréfléchi, est l’imitation mais des investissements sélectifs et non-conformistes en R&D et en acquisition, peuvent procurer un avantage net.

Les politiques d’armement des États ont tendance à se répondre. Le choix par défaut, irréfléchi, est l’imitation mais des investissements sélectifs et non-conformistes en R&D et en acquisition, peuvent procurer un avantage net. Recueillant les leçons de la Guerre Froide sur la technologie nucléaire, une réflexion préliminaire pourrait dessiner les pistes suivantes.

Un impératif de retenue s’impose d’abord : maintenir ouvertement un contrôle étroit sur les dispositifs de dissuasion nucléaire pour ne pas susciter une surenchère d’autonomisation. En revanche, la puissance de calcul de l’IA et la facilité à sacrifier des armes autonomes pourraient être exploitées afin d’augmenter le potentiel de frappes visant spécifiquement des forces adverses coûteuses mais peu létales (de prestige ou de sécurité du régime), ou multiplier les actions de guerre électronique et de lutte anti-drones. L’IA gagnerait alors la vertu de retarder, dans le premier cas, la montée en puissance de l’adversaire et, dans le second cas, ses opérations offensives

Copyright Genya SAVILOV / AFP
Un drone intercepteur P1-Sun en Ukraine, le 19 mars 2026.

Recevez chaque semaine l’actualité de l’Institut Montaigne
Je m'abonne