Quelles perspectives pour la régulation des systèmes d’armes autonomes ?

Le Rubicon en code morse
Mai 03

 

La recherche dans le domaine de l’intelligence artificielle (IA) progresse rapidement et suscite l’intérêt des gouvernements. Les armées de plusieurs pays utilisent déjà des algorithmes pour prendre des décisions, préparer des stratégies militaires ou analyser des données. De plus, l’IA est intégrée dans des systèmes d’armes avec l’objectif d’augmenter leur niveau d’autonomie, c’est-à-dire la mesure dans laquelle ils peuvent fonctionner avec ou sans intervention humaine et exécuter certaines missions prédéfinies à la base d’algorithmes.

Le développement des armes possédant des caractéristiques autonomes soulève des préoccupations légales, éthiques et sécuritaires. L’utilisation potentielle de modèles d’armes capables de repérer et attaquer des cibles sans intervention humaine dans la guerre en Ukraine renforce l’importance d’aborder le sujet des systèmes pleinement autonomes, ou des « robots tueurs », et leur contrôle préventif. La discussion la plus importante à ce sujet se tient à l’ONU depuis plusieurs années, mais a démontré peu de résultats concrets. Quelles sont les perspectives pour poursuivre le débat et aboutir à une régulation potentielle ?

Les algorithmes et l’autonomie dans le domaine militaire

De nombreux pays portent un intérêt fort à l’IA. À titre d’exemples, les forces armées de la République de Corée ont l’intention d’employer, à l’horizon 2040, de nouveaux modèles de drones dotés d’IA dans le cadre du processus de prise de décisions, tandis que les États-Unis, la Russie, le Royaume-Uni, Israël et la Chine affirment tous un engouement marqué pour ces technologies dont la maîtrise permettrait d’optimiser les techniques de guerre et de réduire l’exposition aux dangers des soldats.

L’utilisation de l’IA dans la sphère de la défense a suscité des inquiétudes, plus spécifiquement à propos des systèmes d’armes létales autonomes (SALA). Selon le Comité international de la Croix-Rouge (CICR), ces systèmes peuvent sélectionner et attaquer des cibles sans l’intervention humaine. Même si les technologies existantes sont loin de l’image du Terminator et des œuvres de science-fiction, certains systèmes peuvent déjà se conformer à cette définition, par exemple les drones de combat nommés « kamikaze » capables d’engager et détruire des cibles avec l’aide d’algorithmes qui déclenchent une attaque à partir de données transmises par des capteurs.

D’après les Nations Unies, le système turc, Kargu-2 produit par STM, aurait été utilisé de façon complètement autonome durant la guerre en Libye. Au mois de mars, un modèle de « drone kamikaze » russe, le KUB, a été repéré dans la capitale ukrainienne. L’armée russe pourrait aussi utiliser les engins aériens sans pilotes Lancet-3, produits par le groupe Kalashnikov et dits capables de viser des cibles « de manière indépendante ». De l’autre côté, les États-Unis planifient d’envoyer, au profit des forces armées de l’Ukraine, des « drones kamikaze » Switchblade.

Il est impossible, à l’heure actuelle, de vérifier quel est le degré d’autonomie de ces systèmes et s’ils sont employés contre la population civile. Néanmoins, leur usage dans un conflit en cours renforce l’argument de l’urgence de poursuivre les discussions sur les impacts des SALA, comme l’affirment les professionnels de l’industrie tels que le scientifique Stuart Russell.

En effet, les développements rapides de la robotique militaire et leurs applications sur les champs de bataille soulèvent plusieurs questions et enjeux reliés à l’éthique, au droit international humanitaire (DIH), ainsi qu’à la sécurité globale.

En premier lieu, des experts tels que Paul Scharre et Noel Sharkey affirment que seul l’homme peut prendre des décisions critiques sur un théâtre d’opérations, surtout celles de vie ou de mort. Dans cette perspective, partagée par des organisations non gouvernementales (ONG) comme Human Rights Watch, déléguer ces décisions à des machines dénuées d’éthique et de compassion ne serait moralement pas acceptable, car cela transgresserait la dignité humaine et réduirait la valeur de la vie humaine.

De plus, à ce jour il paraît peu probable que les décisions prises sur la base d’algorithmes puissent respecter les normes actuelles du droit international humanitaire (DIH), notamment celles concernant, en temps de guerre, le délicat exercice du principe de distinction entre combattants et civils. Des études suggèrent que les systèmes autonomes ne pourraient pas discriminer et attaquer spécifiquement des objectifs militaires, comme le demande le DIH.

Finalement, les experts, à l’instar de Jürgen Altmann et Frank Sauer, s’inquiètent des répercussions de ces technologies pour la sécurité internationale. En ce sens, certains affirment que les SALA diminueraient les coûts de la guerre et inciteraient une « course aux armements » entre les États les plus puissants. Les problèmes techniques associés à l’IA, tels que des données d’apprentissage incomplètes ou la vulnérabilité aux cyber-risques, pourraient contribuer à l’escalade de conflits et avoir des conséquences catastrophiques, surtout si ces conflits impliquent des puissances nucléaires.

L’ONU aborde le sujet des SALA

Le débat sur les enjeux décrits ci-dessus se tient, depuis moins d’une décennie, aux Nations Unies à Genève dans le cadre de la Convention sur l’emploi de certaines armes classiques (CCAC). Ayant débuté en 2014 dans un format informel, aujourd’hui le débat a lieu dans le cadre d’un groupe d’experts gouvernementaux (GEG) créé en 2016. Le groupe a déjà discuté de plusieurs aspects du développement et des conséquences potentielles des SALA. Pour la plupart de ces thèmes, il reste un nombre de débats et désaccords non résolus.

Tout d’abord, les États considèrent la définition des SALA de manières différentes. Certains, comme la France, proposent d’inclure seulement les systèmes pleinement autonomes. Selon le comité d’éthique de la défense, les SALA sont capables de définir ou d’altérer le cadre de leur mission sans validation humaine. Le gouvernement du Royaume-Uni a adopté une définition beaucoup plus précise, incluant la possibilité de décision qui se matérialise dans le cadre d’un plan d’action sans intervention humaine, et démontre de ce fait un niveau supérieur de compréhension de l’environnement.

De plus, les délégations ne sont pas d’accord au sujet du contrôle humain, ainsi que les caractéristiques requises pour assurer un niveau de ce contrôle humain. Ayant assisté à la réunion du groupe en août 2021 et parlé avec certaines délégations, j’ai constaté un accord global sur l’importance du contrôle humain, mais non sur les manières dont ce contrôle pourrait être garanti. Certains exigent une norme de contrôle significatif (meaningful human control), mais les critères pour déterminer ce dernier ne sont pas établis. Le concept est donc trop vague pour être utilisé dans un document juridique international.

Ces problèmes terminologiques et la multiplicité des visions rendent la discussion sur la régulation des armes autonomes très compliquée. Une trentaine de pays, notamment le Brésil, le Chili, le Mexique, la Nouvelle-Zélande, le Panama, le Pérou, et les Philippines formulent le souhait de la mise en place d’une interdiction préventive de ces technologies. Le mouvement est soutenu par des organisations comme la coalition contre les « robots tueurs » (Campaign to Stop Killer Robots), Human Rights Watch et le CICR. L’Australie, les États-Unis, la Russie, et l’Inde sont d’avis contraire, considérant que le droit international existant suffit pour réguler les SALA.

Le GEG fonctionne selon le principe du consensus et demande l’absence d’objections de la part de toutes les délégations. Un compromis entre ces différents points de vue est donc requis afin d’arriver à des conclusions communes et des recommandations pour la réunion des parties contractantes de la CCAC. En 2019, le groupe a adopté 11 principes directeurs pour encadrer le développement et l’usage des technologies des SALA. Ces principes incluent l’affirmation que le DIH s’applique à ces technologies et que la responsabilité humaine doit accompagner toute décision d’utiliser les SALA. Même s’ils ne sont pas juridiquement contraignants, ces principes sont considérés comme le résultat principal du GEG. Depuis, les délégations n’ont pas réussi à trouver d’autres éléments en commun.

En décembre 2021, la conférence d’examen de la CCAC a renouvelé le mandat du groupe. Le présent mandat reste très similaire au précédent et consiste à « examiner des propositions et élaborer par consensus des mesures possibles, en tenant compte de l’exemple des protocoles existants au sein de la convention, et d’autres options liées au cadre normatif et opérationnel sur les technologies émergentes dans le domaine des SALA ».

Cette conclusion n’a pas satisfait les attentes de plusieurs ONG et États qui espéraient une interdiction préventive ou une régulation des SALA sous la forme d’un protocole supplémentaire à la CCAC. Human Rights Watch a qualifié la conclusion d’une « réponse complètement inadéquate aux inquiétudes reliées aux robots-tueurs ». Un groupe de délégations représenté par la Suisse a déclaré que le mandat du groupe devrait être plus clair et ambitieux et a souligné l’urgence du débat. La première session du GEG en mars 2022 n’a pas fait avancer les résultats, la discussion ayant été monopolisée par la délégation russe et ses plaintes concernant la discrimination à l’égard de leurs experts, dont beaucoup n’ont pas pu venir à Genève à cause des sanctions.

Le futur du débat : hors de l’ONU?

Le GEG se réunira de nouveau en juillet 2022. Rien ne suggère que les impasses qui ont dominé la discussion jusqu’à maintenant seront résolues cette année. L’option d’une interdiction dans le cadre de la CCAC reste donc improbable. La Russie, en particulier, dont le développement de l’IA est déjà menacé par les sanctions suite à l’invasion de l’Ukraine, ne donnera probablement pas son accord pour une quelconque restriction.

Esther Barbé et Diego Badell ont suggéré qu’une déclaration politique dans laquelle les États affirment leur engagement envers le contrôle humain dans l’usage des systèmes d’armes conventionnelles pourrait être une « troisième voie » entre les supporteurs du statu quo et les acteurs insistant sur une interdiction des SALA. Une telle déclaration pragmatique a auparavant été proposée par la France et l’Allemagne, mais cette voie paraît maintenant peu probable, en raison de l’atmosphère tendue entre la Russie et les autres États membres.

En tenant compte du manque de progrès lors de la réunion du GEG en mars, certains représentants d’ONG et la coalition contre les « robots tueurs » ont suggéré qu’il serait temps de changer de forum et poursuivre le débat hors de la CCAC afin d’arriver à une interdiction préventive des SALA sous la forme d’un traité international. Une option serait d’essayer d’adopter un traité à l’Assemblée générale de l’ONU, où les décisions sont prises par majorité. En revanche, les gouvernements développeurs de ces technologies et contre les interdictions ne participeraient probablement pas, ce qui contribuerait aux divisions et conflits existants.

Une autre option serait de trouver une plateforme indépendante. La Convention sur l’interdiction des mines antipersonnel, appelée aussi la Convention d’Ottawa, est un exemple de discussion transférée de l’ONU vers un processus indépendant en raison d’une impasse similaire. Changer de plateforme serait possible. Il y aurait certainement des États volontaires tels que l’Autriche ou la Belgique pour organiser la discussion et démontrer leur potentiel diplomatique. Mais encore une fois, les États développeurs pourraient ignorer cette décision et ne pas signer le traité, tout comme les États-Unis, la Chine et la Russie n’ont pas signé la Convention d’Ottawa.

Cependant, un potentiel traité hors de l’ONU sans la participation des États développeurs ne détruirait pas nécessairement les efforts des autres. Le développement de normes, même non universelles, pourrait mettre en marche un processus de changements, notamment dans les pratiques des États par lesquels les technologies reliées aux SALA pourraient être amenées à proliférer. Une telle convention contiendrait des normes de comportement approprié et rendrait ces technologies moins légitimes au fil du temps.

Poursuivre le débat à travers un processus indépendant et s’entendre sur un accord pourrait donc aider à créer de nouvelles normes sur les actions considérées comme appropriées dans l’utilisation de l’IA dans le combat, même s’il n’y a pas d’accord sur une interdiction universelle des SALA. Cela représenterait un pas vers le contrôle de la prolifération de ces systèmes d’armes et l’établissement graduel de nouvelles pratiques sur l’utilisation de l’IA dans le domaine militaire.

Plusieurs questions et enjeux reliés à l’autonomie militaire n’ont toujours pas de réponses. Une absence continue de régulations donne la possibilité aux États développant ces technologies d’influencer les pratiques de combat. Si la discussion, que ce soit à l’ONU ou ailleurs, se prolonge sans résultat, les développements technologiques et militaires reliés à l’IA et à l’autonomie risquent de continuer à former les normes de la guerre.

Auteurs en code morse

Anna Nadibaidze

Anna Nadibaidze (@AnnaRNad) est candidate au doctorat en relations internationales au Center for War Studies de l’Université du Danemark du Sud (SDU). Elle est chercheuse au projet AutoNorms, financé par le Conseil européen de la recherche.