L’intégration de l’intelligence artificielle (IA) dans le domaine militaire couvre de nombreuses dimensions, la rendant incontournable à plus d’un titre. De la logistique au ciblage, en passant par le renseignement et l’aide à la décision, l’IA s’insère progressivement dans les chaines de commandement et dans les systèmes de défense modernes[1].
Les conflits récents illustrent notamment cette présence accrue des systèmes d’armes hautement automatisés[2], voire autonomes[3], sur le champ de bataille. Si cette évolution témoigne davantage d’une reconfiguration du rôle de l’intervention humaine au sein des opérations militaires que de sa disparition, elle n’en soulève pas moins d’innombrables incertitudes, tant éthiques que juridiques, notamment en ce qui concerne le respect du droit international humanitaire (DIH). Le Comité international de la Croix-Rouge (CICR) souligne à cet égard la nécessité de règles juridiquement contraignantes à l’endroit particulièrement des systèmes d’armes létales autonomes (SALA)[4].
Souvent assimilés à des « robots tueurs »[5], les SALA ne font l’objet d’aucune définition consensuelle, rendant d’autant plus complexe la création d’un régime de droit positif propre. Toujours est-il que l’autonomisation croissante des systèmes d’armements modernes constitue le cœur des préoccupations exprimées à l’égard du respect des normes de DIH, en ce qu’elle bouscule la conception traditionnelle de l’art de la guerre et affecte directement les mécanismes existants d’imputation de responsabilité.
De véritables défis doivent de ce fait être relevés pour instaurer un climat de confiance entre l’Homme et la machine (I), en veillant à éviter une réduction des applications militaires de l’IA aux seuls systèmes d’arme destinée à optimiser les dégâts matériels. Ses capacités étendues d’analyse et de traitements de données lui confèrent également une place de choix en tant qu’assistant d’aide à la décision (AI-DSS). Elle pourrait ainsi devenir un outil de rationalisation des conflits armés (II).
I – Le DIH et les défis de l’IA comme arme et méthode de guerre
Pour certains, les applications militaires de l’IA se placent à la même enseigne que la poudre à canon ou l’arme nucléaire en termes de révolution technique guerrière[6].
Si ces nouvelles technologies promettent une amélioration des capacités opérationnelles, elles soulèvent corrélativement des craintes quant au maintien d’un contrôle humain suffisant dans l’emploi de la force potentiellement létale.
En l’absence d’un cadre juridique autonome consacré aux usages militaires de l’IA, les règles existantes du DIH offrent malgré tous des critères d’appréciation de la licéité de ces systèmes et de leurs modes d’emploi (1). Par ailleurs, l’intégration croissante de processus décisionnels automatisés impose de réexaminer les mécanismes d’imputation de la responsabilité en cas de violation du DIH (2).
1) Le défi de la licéité
L’article 35 paragraphe 1 du Protocole additionnel I aux Conventions de Genève de 1949 rappelle que « dans tout conflit armé, le droit des Parties au conflit de choisir des méthodes ou moyens de guerre n’est pas illimité ». Le DIH coutumier vient préciser la nature de ces limites par les règles interdisant les armes de nature à causer des maux superflus et celle interdisant les armes de nature à frapper sans discrimination[7]. Ces règles visent elles-mêmes le respect des cinq principes fondamentaux lors de la conduite des hostilités, à savoir les principes d’humanité, de distinction, de précaution, de proportionnalité et d’interdiction des maux superflus et des souffrances inutiles. Tout déploiement d’armes ou de méthodes au cours d’une opération nécessite donc l’intervention a minima d’une forme de discernement. La question qui se pose est de savoir si une telle forme de discernement peut être intégrée au programme d’une IA guidant un système d’arme autonome.
Si l’on considère uniquement le respect du principe de distinction – englobant la règle d’interdiction des armes non discriminantes – l’évolution technologique actuelle ne permet pas encore à un système d’armement autonome, notamment aux SALA, d’identifier des cibles légitimes avec la même fiabilité qu’un être humain. La difficulté ne réside pas dans l’insuffisance des capteurs et différents radars, mais à la traduction des normes de DIH en codes informatiques[8]. En effet, même si la marge d’erreur d’un humain est loin d’être nulle, une machine engagée devra tout autant être capable de reproduire une multitude de facteurs contextuels et comportementaux qui permettent, par exemple, de distinguer un combattant actif d’un combattant en reddition.
Dans son avis consultatif relatif aux armes nucléaires, la Cour internationale de justice (CIJ) rappelle les principes cardinaux du DIH et estime que « les États ne doivent jamais […] utiliser des armes qui sont dans l’incapacité de distinguer entre cibles civiles et militaires », puis de rajouter qu’ « il ne faut pas causer de maux superflus aux combattants », interdisant ainsi l’utilisation d’armes aggravant inutilement leurs souffrances[9]. Dans l’exemple de la nécessaire distinction entre un combattant actif et un combattant en reddition, la même logique reste valable, puisqu’il s’agit de faire la différence entre un individu participant directement aux hostilités et un individu bénéficiant désormais de la protection du DIH[10]. Une IA qui ne pourrait faire la différence et ouvrirait malgré tout le feu pourrait alors être considérée comme un moyen ou une méthode de guerre illicite à de nombreux égards.
2) Le défi du régime de responsabilité applicable
Tout système d’armements, aussi autonome soit-il, reste un objet et non un sujet de droit. Partant de ce postulat, toute idée d’attribuer une forme de responsabilité à une machine n’est encore que fantaisie. L’article 30 du Statut de Rome de la Cour pénale internationale (CPI) établit d’ailleurs un élément d’intentionnalité et de conscience pour pouvoir engager une responsabilité. Dès lors, seuls les deux régimes de responsabilité classiques admis par le droit international pourraient être envisagés : le premier est la responsabilité pénale individuelle, notamment pour crime de guerre ; et le second, la responsabilité étatique.
a) La mise en cause de la responsabilité pénale individuelle
La doctrine s’accorde généralement pour attribuer la responsabilité pénale du fait de l’action répréhensible d’une IA aux supérieurs hiérarchiques militaires d’une part, et aux concepteurs ou programmateurs de la machine d’autre part[11].
En ce qui concerne la responsabilité du supérieur hiérarchique militaire, il apparait évident qu’il doive être tenu responsable des actes commis par une machine ayant effectué ses instructions, de la même manière que les crimes commis sous ses ordres par des humains lui seraient imputables. L’emploi d’un système d’arme autonome implique naturellement que le supérieur hiérarchique dispose du minimum de connaissances quant à la portée des effets de l’appareil. En contentieux, il serait alors question de démontrer la mens rea du supérieur hiérarchique militaire, autrement dit, son intention délibérée de violer les règles du DIH en connaissance de cause.
Quant à la mise en cause des concepteurs ou programmateurs, deux voies juridictionnelles pourraient être envisagées : un recours auprès des juridictions judiciaires internes sur la base des lois nationales sanctionnant la vente de produits défectueux, ou bien un recours auprès des juridictions internes ou internationales compétentes sur la base des instruments réprimant les crimes internationaux les plus graves. Il faudrait notamment arriver à démontrer l’implication directe du concepteur dans la violation du DIH en établissant qu’il ait sciemment programmé la machine pour commettre un crime, ou bien qu’il ait été complice par omissions[12].
b) La mise en cause de la responsabilité étatique
Tout d’abord, l’État est tenu par ses obligations conventionnelles découlant de l’article premier commun des Conventions de Genève. À ce titre, il s’engage, non seulement à respecter la teneur desdites Conventions et de ses Protocoles additionnels, mais également à les faire respecter. L’État pourrait alors voir sa responsabilité engagée dès lors que celui-ci aurait failli à effectuer toutes les vérifications nécessaires pour aligner le programme informatique de ses systèmes d’armes au DIH. L’arrêt Bosnie-Herzégovine c. Serbie de la CIJ, estimant que la responsabilité de l’État était établie dès lors qu’est constaté son échec de prévenir la violation du droit conformément à ses obligations conventionnelles[13], irait justement dans ce sens.
En outre, la responsabilité de l’État pourrait également être engagée devant une juridiction régionale de protection des droits de l’Homme. Dans l’affaire Issaieva c. Russie, la Cour européenne des droits de l’Homme s’est appuyée sur l’article 2 relatif au droit à la vie de la Convention européenne des droits de l’Homme pour protéger des principes relevant classiquement de la rex specialis du DIH, à savoir les principes de précaution et de proportionnalité[14]. Ce qui ouvre davantage de perspective de stratégies contentieuses aux victimes.
La révolution technologique que constitue l’IA ne saurait pourtant s’apprécier uniquement au regard de leurs potentiels dégâts matériels. Elle a également su gagner progressivement du terrain au sein des systèmes d’aide décisionnelle ou decision support system (AI-DSS)
II – Les AI-DSS comme instrument de rationalisation des conflits armés
C’est bien parce que la guerre est un phénomène naturellement brutal et chaotique que le DIH a été élaboré afin d’y instaurer des règles visant à limiter les pertes et souffrances inutiles. L’IA en tant qu’acteur décisionnel dans un contexte de conflit armé se poserait alors comme un instrument permettant justement de concourir aux principes du DIH et d’apporter davantage de prévisibilité dans le « brouillard de la guerre ».
Les AI-DSS ne suscitent toutefois pas moins de craintes que les SALA ou tout autre système d’arme autonome. À l’instar de ces derniers pourtant, leur déploiement est déjà bien amorcé dans les différents conflits en cours (1). Par ailleurs la question de leur application dans les processus de prévention et de justification de l’entrée en conflit commence également à émerger (2).
1) Jus in bello: l’IA comme aide à la prise de décision dans la conduite des hostilités
En pleine conduite des hostilités, les AI-DSS interviennent pour accélérer et optimiser le processus de prise de décision, en émettant des recommandations basées sur l’extraction et le traitement d’une masse de données[15]. Le conflit russo-ukrainien s’illustre justement par le déploiement massif des AI-DSS équipés de radar et des drones de surveillance permettant de localiser les positions des belligérants pour émettre des recommandations adaptées en temps réel d’une part, et pour collecter une masse d’informations qui servira dans les phases tactiques du conflit d’autre part[16].
Le CICR, dans sa communication[17] adressée au Secrétaire général des Nations unies à l’occasion de son rapport sur l’intelligence artificielle dans le domaine militaire a admis que les AI-DSS offre de bons résultats lorsqu’il leur est attribué un objectif précis et des données de qualité représentative[18]. Toutefois, le Comité pointe l’incertitude, la volatilité, et les ruses de l’adversaire en temps de guerre. Ce qui n’est pas sans conséquence sur la qualité des données récoltées et rendrait les recommandations de l’IA moins pertinentes, voire erronées ou biaisées[19].
D’autres inquiétudes émergent encore, notamment en ce qui concerne la capacité des AI-DSS à véritablement participer à une meilleure application des principes du DIH. Les recommandations potentiellement erronées ou biaisées complexifieraient davantage la distinction entre les cibles militaires et les civils, ou entraineraient un effet « boite noire » des algorithmes, privant les opérateurs de la transparence nécessaire à déterminer la proportionnalité d’une action.[20]
Mais comme il a été vu supra, puisque l’être humain est le sujet de droit, notamment du DIH, c’est à lui que revient la responsabilité de maintenir un contrôle sur l’objet. Même si les risques d’« over-reliance » ou de réflexe d’automatisation existe, cela ne signifie pas une fatalité faisant dépendre l’Homme de la machine.
2) Jus ad bellum: l’IA comme agent préventif d’entrée en guerre
Le jus ad bellum ou le droit de prévention de la guerre est, comme son nom l’indique, le pendant du droit de la guerre ayant vocation à prévenir l’emploi de la force et veiller au respect du principe général de non-agression véhiculé par la Charte des Nations unies. Cette dernière autorise néanmoins le recours à la force dans des cas bien spécifiques, et c’est à ces occasions que la pertinence de l’utilisation des AI-DSS se pose.
L’article 51 de la Charte prévoit par exemple la possibilité pour un État de recourir à la force en cas d’agression armée. Pourtant, elle n’accompagne ce droit à la riposte d’aucune condition de proportionnalité, ce qui laisse la porte ouverte à une escalade des tensions. Aussi, une AI-DSS pourrait-elle être déployée pour qualifier, au vu de l’analyse des données, la nature de l’attaque initiale et émettre des recommandations adéquates quant à l’action proportionnelle à entreprendre pour la riposte.
Dans le même registre, les AI-DSS permettraient également d’éviter le déclenchement de nouvelles guerres préventives, comme ce fut le cas en Irak en 2003 ou au Soudan en 1998. Les fonctions ISR (intelligence, surveillance, reconnaissance), autrement dit l’application à proprement parler de l’IA au renseignement, seraient décisives et offriraient davantage de clarté avant d’estimer le recours à la force nécessaire.
Le jus ad bellum se distingue ainsi véritablement du jus in bello, en ce qu’il cherche à définir les conditions de légitimité de la guerre. Cette notion de la « guerre légitime » ou de la « juste cause »[21] n’est pas sans rappeler le principe de la responsabilité de protéger (R2P) consacré dans le document final du Sommet mondial de 2005[22]. La R2P repose sur trois piliers fondamentaux : a) la responsabilité de chaque État de protéger ses populations contre les crimes de guerre, du nettoyage ethnique et des crimes contre l’humanité ; b) la responsabilité de la communauté internationale d’aider les États à se doter des moyens de protéger leurs populations ; c) la responsabilité de protéger les populations de l’État qui n’assure manifestement pas leur protection, par tous les moyens nécessaires, y compris l’usage de la force prévu au Chapitre VII de la Charte[23]. C’est dans cette dernière éventualité que les AI-DSS pourrait trouver leur utilité, en ce sens qu’elles pourraient être mobilisées afin d’évaluer si un État est défaillant quant à sa R2P à l’égard de sa propre population, et déterminer le cas échéant la mesure appropriée prendre avant d’envisager tout recours à la force[24].
Il va sans dire que l’utilisation de l’IA dans les différentes phases allant de la prévention à la régulation des conflits pourrait implique à l’avenir une forme plus ou moins importante de surveillance et de collecte de données pour satisfaire aux besoins sécuritaires. Ce qui suscite – et à juste titre – plus de questions que de réponses.
[1] Amélie Ferey, Laure de Roucy-Rochegonde, De l’Ukraine à Gaza : l’Intelligence artificielle en guerre, in Politique étrangère, Institut français des relations internationales, n°243, pp.39-50, 2024
[2] À l’instar du Dôme de fer israélien
[3] A l’image des drones utilisée par l’armée ukrainienne en Russie pour atteindre des objectifs militaires, au cours de l’opération « toile d’araignée » en juin 2025
[4] CICR, Questions-réponses – Ce qu’il faut savoir sur les armes autonomes, disponible ici, 26 juillet, 2022
[5] Robert Sparrow, Killer Robots, in Journal of Applied Philosophy, Vol. 24, n°1, pp.62-77, 2007
[6] Amélie Ferey, Laure de Roucy-Rochegonde, De l’Ukraine à Gaza : l’Intelligence artificielle en guerre, Op. Cit
[7] Règles 70 et 71 du DIH coutumier dégagées par le CICR
[8] Marco Sassoli, Autonomous Weapons and International Humanitarian Law : Advantages, Open Technical Questions and Legal Issues to be Clarified, in International Law Studies, Vol 90, US Naval War College, 2014
[9] CIJ, avis consultatif sur La licéité de la menace et de l’emploi de l’arme nucléaire du 8 juillet 1996, §78.
[10] Nils Melzer, Guide interprétatif sur la notion d participation directe aux hostilités en droit international humanitaire, CICR, 2010
[11] Ibid. ; Marco Sassoli, Autonomous Weapons and International Humanitarian Law : Advantages, Open Technical Questions and Legal Issues to be Clarified, Op. Cit.
[12] TPIY, Chambre d’appel, n° IT-95-14-A (Le Procureur c. Tihomir Blaskic) du 29 juillet 2004, §47.
[13] CIJ, Jugement, Application de la Convention sur la prévention la répression du crime de génocide (Bosnie-Herzégovine c. Serbie et Montenegro) du 26 février 2007, §430.
[14] CrEDH, Ancienne première section, requête n° 57950/00 (Issaieva c. Russie) du 24 février 2005, §172-174.
[15] Julia Gawlas, Use of AI-DSS in Military Operations : An Assessment under International Humanitarian Law, Amsterdam Student Association, accessible ici, consulté le 16 février
[16] Ibid.
[17] Rapport du Secrétaire général des Nations unies sur l’intelligence artificielle dans le domaine miliaire et ses conséquence pour la paix et la sécurité internationales, Annexe II, B, 5 juin 2025
[18] Ibid.
[19] Ibid.
[20] Julia Gawlas, Use of AI-DSS in Military Operations : An Assessment under International Humanitarian Law, Op. Cit.
[21] Christian Nadeau, Julie Saada, Le jus ad bellum, in Guerre juste, guerre injuste : histoire, théories et critiques, puf, pp.37-81, 2009
[22] Assemblée générale de l’ONU, Document final du Sommet mondial de 2005, rés. A/RES/60/1, 16 décembre 2005
[23] Ibid., §138-139.
[24] Article 42-47 de la Charte
Par Rodin Privat Zahimanohy
Doctorant à l’École de droit de Toulouse