Les drones aériens et l’éthique militaire
Lance Cpl. Isiah Enriquez, a rifleman with 1st Battalion, 2nd Marine Regiment, 2nd Marine Division, launches a Switchblade 300 loitering munition during a training exercise at Camp Lejeune, N.C., July 7, 2021.

Les drones aériens et l’éthique militaire

Dernière mise à jour le 9 octobre 2023

Dans un appel conjoint lancé jeudi 5 octobre 2023, le Secrétaire général des Nations Unies, António Guterres, et la Présidente du Comité international de la Croix-Rouge, Mirjana Spoljaric, ont exhorté les dirigeants politiques à « établir d'urgence des interdictions et des limitations spécifiques pour les systèmes d'armes autonomes, afin de protéger l'humanité ».

Les progrès en matière d’intelligence artificielle et de miniaturisation ont permis en un demi-siècle de transformer les lointains descendants des « armes de représailles » V1 lancées par l’Allemagne sur le territoire britannique en systèmes d’armes létaux autonomes qui interrogent sur la place de l’humain et sur le respect du droit international humanitaire, qui repose sur la capacité à distinguer entre les objectifs civils et militaires, entres les personnes civiles et les forces armées.

L’intérêt pour les avions sans pilote embarqué dédiés à la surveillance du champ de bataille n’est pas récent, mais la létalité conférée à leur charge utile suivie de l’apparition de munitions « flâneuses » ou « rôdeuses » en quête d’objectifs nécessite de reposer avec fermeté la question de l’emploi de ces systèmes.

Un espace aérien conquis par les drones

L’origine du drone remonte à la Première Guerre mondiale, mais ce n’est que dans les années 1960 que l’arrivée de l’informatique a permis la mise au point d’avions sans pilote dotés d’un programme de vol interne et insensibles au brouillage. Israël y aura recours dès 1973 lors de la guerre du Kippour et les Américains en feront largement usage en 1991 lors de la guerre du Golfe. Les drones sont désormais présents sur tous les théâtres de crise où ils sont principalement utilisés pour le renseignement et l’observation, une dizaine de pays seulement les ayant armés de missiles et de bombes à guidage laser.

Crown Copyright - Un drone en vol au dessus de l'Afghanistan

Le drone peut être défini comme un engin aérien sans équipage embarqué, programmé ou télépiloté, réutilisable et équipé d'une ou plusieurs charges utiles (armes ou capteurs pour le renseignement). Aéronef piloté à distance, le drone se conçoit comme un composant d’un système complexe incluant également une composante au sol, une ou plusieurs charges utiles et des liaisons de données. Le Department of Defense américain classe les drones aériens (Unmanned Aerial Vehicle – UAV) en cinq catégories en fonction de leur taille, de leur portée, de leur vitesse, de leur endurance et de leurs capacités générales :

  • Groupe 1 : généralement des systèmes portables, autonomes et lancés à la main, utilisés pour soutenir la sécurité d'une petite unité ou d'une base. Ils fonctionnent à portée visuelle et sont analogues aux modèles réduits d'avions radiocommandés ;
  • Groupe 2 : de taille petite à moyenne et généralement utilisés en appui d’une brigade pour ses besoins en matière de surveillance, de reconnaissance et d'acquisition d'objectifs. Ils sont généralement lancés à partir de catapultes. Leur charge utile peut comprendre une boule de détection électro-optique ;
  • Groupe 3 : ils opèrent à moyenne altitude et à longue portée avec une bonne endurance. Leur charge utile peut comprendre une boule de détection électro-optique ou des capteurs électromagnétiques. Ils opèrent généralement à partir de pistes sommaires ;
  • Groupe 4 : aux dimensions relativement importantes, ils opèrent à moyenne ou haute altitude et à longue portée avec une grande endurance. Ils nécessitent des zones aménagées pour le lancement et la récupération et des moyens de communication par satellite. Ils sont soumis à des exigences strictes en matière d'exploitation de l'espace aérien. Ils peuvent être armés ;
  • Groupe 5 : le groupe inclut les plus grands drones, évoluant à grande vitesse des altitudes élevées, à très longue portée, dotés d’une grande endurance. Ces drones accomplissent des missions spécialisées telles que la surveillance de zones étendues et des attaques en profondeur.

Aucun texte alternatif pour cette image

Ces drones, outre leurs performances en termes d’endurance et de permanence sur les zones de combat, permettent de ne pas exposer ceux qui les manœuvrent, les opérateurs se trouvant à distance sur des sites sécurisés loin de leur zone d’utilisation. C’est pourquoi le Livre blanc sur la défense et la sécurité nationale a placé la fonction connaissance et anticipation au premier rang des priorités stratégiques et a préconisé, dans le domaine aérien, de concentrer les efforts sur les drones. Dès 2013, la France a déployé ses premiers drones au Sahel pour réaliser des missions d’observations.

Des drones armés aux munitions rôdeuses

L’armement des drones a fait l’objet de nombreux débats dans les démocraties occidentales, la crainte de voir émerger des systèmes à qui serait confiée la « décision de vie ou de mort » ayant longtemps freiné cette évolution de la nature des charges embarquées. Les enjeux ayant été « parfaitement identifiés et expliqués » par les sénateurs, la ministre des armées a toutefois annoncé le 5 septembre 2017 la décision d’armer les drones, estimant que « les drones sont devenus des moyens incontournables dans les opérations que nous menons au Sahel » et précisant que « les règles d’engagement pour les drones armés seront strictement identiques à celles que nous appliquons déjà ». Ainsi, les critères de classification d’une cible restent soumis à la validation d’un humain.

« Il est désormais largement admis que les systèmes d’armes et le recours à la force doivent rester sous contrôle humain ; autrement dit, il faut fixer des limites à l’autonomie. Il est maintenant temps que les États déterminent le degré de contrôle humain requis pour tenir dûment compte des considérations juridiques et éthiques. »

Peter Maurer, Président du Comité international de la Croix Rouge, novembre 2018.

Une étude prospective publiée par le SGDSN en avril 2017 et intitulée « Chocs futurs » définissait le système autonome au sens strict, un système « qui exécute l’ensemble de ses tâches sans intervention humaine, y compris les plus sensibles, telles qu’elles lui ont été assignées avant le début de sa mission ». Un rapport d’information parlementaire paru en juillet 2020 reprend cette définition pour caractériser les systèmes d’arme en fonction de leur niveau d’automatisation, le niveau maximal « sans tutelle humaine » correspondant aux systèmes d’armes létaux autonomes (SALA) ou Lethal Autonomous Weapon Systems – LAWS. Selon la définition du Comité International de la Croix Rouge, cet acronyme décrit inclut tout système d’armes autonome dans ses fonctions critiques, capable de sélectionner et d’attaquer des cibles sans intervention humaine. Il ne s'agit donc ni de systèmes télécommandés dans lesquels l'être humain garde entièrement le contrôle, ni de systèmes automatiques dans lesquels un certain processus a été programmé à l'avance de sorte que leur action est totalement prévisible.

Répondant partiellement à ces critères, la munition « flâneuse » ou « rôdeuse » (loitering munition) a fait son apparition au-dessus des zones de conflit, en Libye comme au Haut-Karabagh. Cette nouvelle arme dotée d’algorithmes, voire d’intelligence artificielle destinée à identifier les cibles à détruire, capable de voler en essaims, est proposée par une série d’industriels qui affirment que l’humain contrôle ces armes, tout en vantant leur capacité à opérer en mode totalement autonome. Une munition rôdeuse peut survoler une zone pendant un temps variable, de 15 minutes à plusieurs heures. A un moment donné, elle frappe. Ce moment est déterminé soit par un opérateur, soit par l’arme elle-même sur base d’algorithmes.

En pointe en matière de drones militaires, la firme Israel Aerospace Industries (IAI) propose depuis 2019 la Mini Harpy, une munition rôdeuse intelligente dotée de la « capacité de rechercher et d'attaquer n'importe quelle cible, de n'importe quelle direction et sous n'importe quel angle ». Parmi les performances annoncées, la capacité d’action en autonomie de la munition est mise en avant : « Man in the loop (MITL) or Fully Autonomous operation as an option ». Un porte-parole du constructeur israélien explique que « le système que nous avons développé rôde en l’air en attendant que la cible apparaisse, puis attaque et détruit la menace hostile en quelques secondes ».

L’invasion de l’Ukraine par les forces armées russes a également mis en avant les capacités des produits développés par la firme américaine AeroVironment, qui a su exploiter à son avantage la livraison par les Etats-Unis d’environ 700 munitions rôdeuses Switchblade, en affirmant que « l'Ukraine et nos alliés d'Europe de l'Est ont besoin de ces solutions maintenant pour gagner contre l'armée russe et dissuader stratégiquement toute future agression ». La firme souligne en particulier les capacités d'interruption et de réengagement du système, qui « permet aux opérateurs d'interrompre la mission à tout moment et de réengager la même cible ou d'autres cibles à plusieurs reprises en fonction des ordres de l'opérateur », laissant supposer que le système n’est pas capable de décider de manière autonome d’engager une cible.

L’éthique et le droit international

Lancée en octobre 2012 par un collectif d’organisations non gouvernementales qui travaille à interdire l’armement entièrement autonome et donc à conserver un contrôle humain significatif pour l’usage de la force, la campagne Stop Killer Robots a popularisé ce terme de « robot tueur » qui renvoie aux films Terminator. Ce collectif vise l’ensemble des systèmes d’armes robotisés dotés d’une capacité létale, quel que soit leur niveau d’autonomie, semant de la confusion dans la compréhension de l’emploi des armes dans le cadre du droit international humanitaire. Selon ce collectif, sélectionner le mode automatique d’un système de combat d’autodéfense serait ainsi illicite.

« Le contrôle humain doit être conservé dans les décisions de vie ou de mort, et le ciblage autonome des humains par les machines est une ligne morale que nous ne devons pas franchir »

Appel conjoint lancé par António Guterres et Mirjana Spoljaric

S'agissant des drones armés, le choix de la cible et la décision d’engagement sont toujours effectués par un ou plusieurs opérateurs humains. C'est cette notion de « l'homme dans la boucle » qui justifie que le drone se voie finalement appliquer le même cadre juridique que les autres systèmes d'armes. La barrière psychologique à l'utilisation de la force létale reste présente, illustrée par le syndrome post-traumatique parfois observé chez des pilotes de drones américains qui suivent jusqu’à la dernière image le vol des missiles ou des bombes qu’ils tirent. L’éthique militaire est respectée, même s’il n’est pas donné l’occasion à l’adversaire de se défendre.

Pourtant, le risque d’exécutions extrajudiciaires et d’impacts traumatisants sur les populations engendre régulièrement de vives condamnations internationales, alimentées par les enquêtes menées sur les victimes civiles, en particulier à la suite des attaques par drones américains sur différents théâtres d’opérations comme l’Afghanistan, le Yémen, ou encore la Somalie. Selon Agnès Callamard, rapporteur spécial des Nations Unies sur les exécutions extrajudiciaires, sommaires ou arbitraires, une dizaine de pays ont déjà employé des drones armés pour recourir à l’élimination d’une cible « terroriste qui représente une menace potentielle, non définie, pour l’avenir » en dehors de tout contexte de guerre interétatique ou d’action menée dans le cadre de l’article 51 de la Charte.

Toujours selon cette experte, la neutralisation du général Qassem Soleimani le 3 janvier 2020 a marqué un tournant dans l’emploi de ces systèmes, quand « pour la première fois, un drone armé par un État a pris pour cible un haut fonctionnaire d’un État étranger et l’a fait sur le territoire d’un État tiers ». Malgré la spécificité de cet évènement, l’exécution de janvier 2020 respectait la règle de « l’homme dans la boucle », le drone ayant délivré l’arme fatale n’ayant pas agi en totale autonomie, ce qui n’est pas le cas des nouvelles armes utilisées récemment par les forces turques.

Les systèmes d'arme létaux autonomes posent des problèmes juridiques et éthiques d'une toute autre ampleur. Selon les auteurs de l’appel du 5 octobre 2023, « leur développement et leur prolifération pourraient changer considérablement la physionomie des guerres et contribuer à exacerber les tensions internationales ». Ils génèrent en effet une perception de risque réduit pour les forces militaires et les civils, et peuvent abaisser le seuil de déclenchement des conflits, ouvrant la voie à une possible escalade de la violence.

« les SALA […] sont contraires à nos principes et jamais la France ne confiera une décision de vie ou de mort à une machine qui agirait de façon pleinement autonome et échapperait à tout contrôle humain »

Florence Parly, 10 janvier 2020, lancement du comité d’éthique de la Défense.

La position française a longtemps récusé l’existence de ces SALA, la ministre des armées affirmant encore en janvier 2020 que les SALA « n’existent pas aujourd’hui sur les théâtres d’opération ». Le rapport parlementaire déposé en juillet 2020 reprend cette affirmation et prédit que « les SALA n’existeront jamais », le « chef militaire » ne pouvant « en aucun cas » déléguer à une machine « la décision de tir ». Le développement des SALA est ainsi associé à une perte de contrôle, alors même que le chef militaire engage sa responsabilité en donnant l’ordre de tirer. Pourtant, la Représentation permanente de la France auprès de la conférence du désarmement à Genève indique que les SALA « sont des armes potentiellement susceptibles d’identifier, d’engager et de neutraliser une cible sans intervention humaine », des performances vantées par les industriels.

La firme turque STM a ainsi développé depuis 2017 un drone armé cumulant la fonction de « munition rôdeuse », baptisé Kargu, capable de trouver et tuer une cible sans intervention humaine, son logiciel étant doté de reconnaissance faciale. La firme arménienne Pride Systems développe elle aussi ses propres munitions rôdeuses. Le constructeur explique que l’arme peut être pilotée par un humain ou pas : « Le drone pourrait lui-même prendre la décision d’attaquer des cibles en fonction de la priorité des cibles placées dans sa mémoire. Si la communication avec l’opérateur est perdue, le drone sélectionne lui-même une cible à détruire ».

Le comité d’éthique de la Défense devait rendre pour l’été 2020 ses premières orientations sur les règles éthiques applicables aux SALA, mais ce n’est que le 29 avril 2021 que son avis sur l’intégration de l’autonomie des systèmes d’armes létaux a été publié. Purement théorique, il n’aborde pas la réalité des munitions rôdeuses qui ont déjà ôté des vies sur les théâtres d’opération mais invente un nouveau concept de systèmes d’armes létaux intégrant de l’autonomie, « incapables d’agir seuls, sans contrôle humain, de modifier leurs règles d’engagement et de prendre des initiatives létales ». La ministre des armées a salué « le travail et l’investissement du comité au service d’une meilleure connaissance critique des enjeux éthiques de la défense », mais attend les résultats d’études d’appropriation par le ministère pour s’exprimer sur le fond.

L’Assemblée parlementaire du Conseil de l’Europe s’est également saisie du dossier et a adopté le 27 janvier 2023 une résolution s’inquiétant de l’émergence, « dans un avenir proche », de systèmes d’armes létales autonomes permise par les progrès technologiques rapides en matière d’intelligence artificielle. Le texte rappelle que 54 organisations non gouvernementales ont lancé une campagne pour obtenir l’interdiction préventive de la recherche et du développement de ces technologies émergentes et donc, a fortiori de leur utilisation, une position de principe adoptée par le Parlement européen dans une résolution du 12 septembre 2018. Observant que les questions de compatibilité des SALA avec le droit international humanitaire et les droits humains sont toujours en discussion parmi les États parties à la Convention sur certaines armes classiques, les Parlementaires demandent l’interdiction des SALA, considérant que ces systèmes « fonctionnant complètement en dehors du contrôle humain et d'une chaîne de commandement responsable » ne respectent pas le droit international et sont illégaux.

Cette résolution aurait pu s’inspirer du rapport intitulé « donner un sens à l’intelligence artificielle » rédigé par le mathématicien Cédric Villani, qui entretient le doute sur la primauté de l’humain sur l’intelligence artificielle. Les rédacteurs affirment en effet que l’intelligence artificielle « contribuera fortement » à améliorer la discrimination entre combattants et non combattants, renforcer la proportionnalité en maîtrisant les effets des armes, en fonction de la menace, et garantir une action déterminée par la stricte nécessité, tout en craignant quelques pages plus loin que la même intelligence artificielle ne « remette en cause la place de l’homme dans l’action militaire ».

Pilotés uniquement par des robots, l’USS Vincennes n’aurait probablement pas abattu le vol 655 d’Iran Air et l’USS Stark aurait échappé aux Exocets irakiens.

-=§=-

Bien que de nombreux experts continuent d’affirmer que les systèmes d’armes létaux autonomes n’existent pas et n’existeront jamais, les munitions « rôdeuses » qui ont rejoint les drones armées dans les espaces aériens des zones de crise répondent à tous les critères les définissant. Le combat est désormais lancé entre l’homme et la machine pour savoir lequel saura le mieux respecter l’éthique militaire qui impose de savoir user de la force avec mesure et humanité.

Imposer le maintien d’une intervention humaine dans la chaine d’engagement bride les potentialités de la machine — qui dépassent celles de l’homme — et impose le maintien d’une liaison entre l’opérateur et le système qui constitue une vulnérabilité. Dans un souci d’efficacité opérationnelle et de responsabilité, c’est au cas par cas, au regard des missions à mener par la machine qu’il convient de s’interroger sur le degré d’autonomie concédé à celle-ci. La question du principe de la place de l’homme dans la décision d’ouverture du feu résulte d’une politique d’emploi de l’arme et non de l’arme elle-même.

Article très intéressant qui pose la question de fond. Merci.

gilles accary

Entendre un coup de tonnerre ne prouve pas qu'on a l'ouïe fine SUN TZU

1 ans

Très intéressant.

Identifiez-vous pour afficher ou ajouter un commentaire

Autres pages consultées

Explorer les sujets