La guerre « low-tech » de la Russie contre l’Ukraine a discrédité son récit de modernisation militaire

Le Rubicon en code morse
Mar 03

Abonnez-vous

 

Le 29 janvier 2023, Dmitri Rogozine, ancien chef de l’agence spatiale russe et maintenant chef du groupe de conseillers militaires les « Tsar’s Wolves » (les loups du tsar), a affirmé que quatre drones terrestres anti-char Marker étaient en cours de préparation afin d’être testés par les forces armées russes sur le champ de bataille en Ukraine.

Auparavant, les médias d’État russes avaient décrit le Marker comme un véhicule possédant les capacités de conduite autonome « les plus avancées » en Russie, utilisant la reconnaissance d’objets fondée sur l’intelligence artificielle (IA) et traitant des données via des algorithmes de réseaux neuronaux. Le système aurait été testé avec un mode de navigation « entièrement autonome » pour patrouiller autour du cosmodrome de Vostotchny. À présent, Rogozine affirme que le Marker va subir un « baptême du feu » au combat et qu’il sera capable de détecter et de cibler automatiquement les chars Abrams et Leopard lorsque l’Ukraine les aura reçus de ses alliés.

De telles déclarations ambitieuses sur les capacités de la Russie dans le domaine de l’IA et de l’autonomie militaires ne sont pas nouvelles. Les dirigeants russes, le gouvernement, les médias d’État et les fabricants d’armes ont déployé beaucoup d’efforts pour construire et maintenir un récit qui vante la modernisation militaire de la Russie. Ce récit met de l’avant, comme priorités clés, les systèmes robotiques – en particulier les véhicules aériens sans équipage (UAV) ou drones – ainsi que l’intégration de l’IA et de l’autonomie dans les forces armées.

L’invasion à grande échelle de l’Ukraine par la Russie a cependant révélé le décalage entre le récit mis de l’avant par Moscou et la réalité des capacités technologiques militaires russes. Cet écart, qui peut être inattendu de la part de ce qui a été décrit comme la « deuxième armée du monde », est particulièrement visible lorsqu’on s’intéresse au caractère « low-tech » des forces armées russes et à leur utilisation limitée de la robotique et de l’IA dans leurs systèmes d’armes.

En outre, l’écart est susceptible de se creuser davantage, car le développement technologique de la Russie est entravé, entre autres, par l’état général de l’économie russe, les sanctions et la « fuite des cerveaux » des spécialistes en technologies de l’information (TI).  Bien que des fonctionnaires tels que Rogozine continuent de faire la publicité des capacités militaires de la Russie en matière d’IA, ces efforts de désinformation et de relations publiques qui promeuvent une armée russe prétendument sophistiquée et indestructible ne sont plus crédibles.

IA et autonomie des drones russes

Depuis les années 2010, la Russie a tenté de démontrer qu’elle était capable de rattraper et de surpasser ses rivaux en matière de technologie militaire. Cela s’inscrit dans sa perception d’elle-même comme une grande puissance qui est en compétition avec les États-Unis et l’OTAN. Les drones et l’IA ont constitué une partie importante du récit des dirigeants politiques et militaires. Ils ont été associés à des avantages stratégiques, mais ils sont également présentés comme des symboles d’une armée moderne. Pour prouver que son armée est prête pour le combat au XXIe siècle, la Russie s’est engagée dans des démonstrations performatives via, entre autres, des défilés militaires, des exercices stratégiques et de la propagande entourant les campagnes et les opérations de Moscou. Comme l’a admis le ministre de la Défense Sergueï Choïgou en 2021, tous les derniers systèmes d’armes russes ont été testés en Syrie. Les médias d’État russes ont particulièrement mis l’accent sur l’utilisation de drones terrestres tels que l’Uran-9 et de munitions rôdeuses dans la guerre civile syrienne.

Les déclarations des responsables russes pourraient avoir créé des attentes : la Russie se doit d’afficher des armes de plus en plus autonomes et basées sur l’IA sur le champ de bataille. En avril 2020, le directeur de la Fondation pour la Recherche Avancée (Advanced Research Foundation) la version russe de la DARPA américaine (Defense Advanced Research Projects Agency) et développeur du Marker, a déclaré que la Russie, comme d’autres États, s’orientait vers le remplacement des soldats par des systèmes robotiques plus efficaces et plus précis. En mai 2021, Choïgou a affirmé que la Russie avait commencé sa production en série de « robots de combat capables de se battre seuls ». En novembre 2021, le président Vladimir Poutine a déclaré que la Russie avait plus de 2 000 drones en service, et qu’ils intégraient également de l’IA.

Les informations disponibles à propos des systèmes d’armes russes utilisés lors de l’invasion de l’Ukraine montrent une image très différente de celle présentée avant 2022. Les niveaux d’autonomie et d’intégration de l’IA dans les drones utilisés par la Russie ont jusqu’à présent été limités.

Par exemple, le drone KUB – une munition rôdeuse produite par l’entreprise ZALA Aero qui fait partie du groupe Kalachnikov (filiale de la société d’État Rostec) – est souvent mentionné dans le cadre des débats entourant les systèmes d’armes avec « des capacités autonomes inquiétantes ». Des preuves photographiques de l’utilisation du KUB à Kyiv ont été rendues publiques en mars et ont été suivies de plusieurs articles de presse et d’analyse suggérant que la Russie pourrait avoir utilisé un « drone tueur » ou un « robot tueur » – le terme familier pour désigner les systèmes d’armes létaux autonomes qui sont capables de sélectionner et d’engager des cibles, c’est-à-dire d’utiliser la force sans intervention humaine. Cependant, les sources russes n’indiquent pas que le KUB dispose d’une quelconque autonomie dans ces fonctions « critiques ». Au contraire, il naviguerait de manière autonome vers une cible qui aurait été présélectionnée par un humain.

De même, la version russe adaptée des drones iraniens Shahed-131 et –136 (souvent appelés « drones suicides » ou « drones kamikazes », car ils s’autodétruisent en frappant une cible) ne semble pas intégrer d’algorithmes automatisés de reconnaissance de cibles ni posséder de capteurs. Comme le souligne Dominika Kunertova, ces systèmes « donnent à la Russie la capacité de frapper des cibles éloignées en territoire ukrainien et à bon marché ».  Bien que bon nombre des attaques de Shahed lancées par la Russie aient atteint leurs objectifs, les systèmes ont été décrits comme des « armes primitives » et non sophistiquées qui servent à mener « des actes terroristes de masse contre des civils ».

Pendant ce temps, le drone suicide Lancet-3, également fabriqué par ZALA Aero et utilisé en Ukraine (et précédemment, en Syrie), a reçu beaucoup d’éloges de la part des analystes de la défense russe. Ils estiment qu’il s’agit du drone le plus efficace de l’arsenal russe. Les Lancets ont été impliqués dans des attaques efficaces ces dernières semaines, mais nous ne savons toujours pas dans quelle quantité la Russie est capable de produire ces drones.

Le Lancet disposerait d’un système de caméras et de capteurs qui pourrait lui permettre de « localiser une cible sans guidage humain ». Les responsables de Rostec ont vanté les capacités du Lancet qui serait « hautement autonome », déclarant que le système « comport[ait] un système optique-électronique qui aide à débusquer et à détruire une cible de manière indépendante ». Ces drones sont également capables de revenir si la cible n’a pas été trouvée.

Pourtant, comme l’a souligné Zachary Kallenborn, il est difficile pour les observateurs extérieurs de vérifier si ces systèmes, ou tout autre, ont été utilisés en activant leur mode entièrement autonome lors d’une attaque. Par exemple, alors qu’un rapport de l’ONU publié en 2021 indique que des munitions rôdeuses Kargu-2 avaient été utilisées « pour attaquer des cibles sans nécessité de connectivité de données entre l’opérateur et la munition » pendant la guerre civile libyenne, il y a des débats en cours sur l’implication de cette affirmation.

Il est également difficile d’évaluer les affirmations des fabricants à propos des capacités des systèmes en termes d’IA et d’autonomie. Cela est compliqué par l’ambiguïté du terme « IA », qui est souvent utilisé pour désigner divers domaines, notamment la robotique, l’apprentissage machine et différents types d’algorithmes. Cependant, le flou entourant la définition de l’IA a également permis aux responsables russes d’attribuer le terme de « technologie d’IA » à leurs systèmes d’armes dans le cadre de leur guerre de l’information en cours. Les déclarations officielles se réfèrent souvent à « l’IA » comme un phénomène monolithique et  cohérent sans expliquer le sens exact du terme, avec l’ambition de dépeindre un système, et l’ensemble de l’armée, comme ultra-moderne.

Malgré le décalage visible entre les récits russes et les capacités révélées lors de l’invasion de l’Ukraine, les dirigeants, experts, médias d’État et autres acteurs ont continué à maintenir le discours officiel sur les drones et l’IA. Cet effort de guerre de l’information s’articule autour de deux principales composantes aux objectifs distincts.

L’IA dans la perception de la Russie d’elle-même comme une grande puissance

Premièrement, une partie du récit, très probablement orientée vers la consommation intérieure, cherche à maintenir le statut auto-attribué de grande puissance à la Russie en prétendant posséder et utiliser les systèmes d’armes les plus modernes. Poutine mentionne souvent (voir septembre 2018, novembre 2021, août 2022) que la Russie possède de nombreuses armes, y compris des systèmes « robotiques et de haute précision », qui sont « en avance sur leurs homologues étrangers » et n’ont « pas d’équivalents dans le monde ». D’autres responsables ont déclaré que tous les objectifs militaires seraient atteints ou ont nié les problèmes évidents de la Russie en matière d’armement. Le PDG de Rostec, Sergueï Tchemezov, a déclaré dans une interview en octobre que sa société était prête à fournir les munitions de la KUB et du Lancet dans les « quantités requises, s’il y devait y avoir une commande » du ministère de la Défense.

En juillet, le vice-Premier ministre Denis Mantourov a souligné que la production de drones, de « hautes technologies et d’autres types d’armes et de technologies nouvelles » restait une priorité pour le gouvernement. Lors d’une réunion du conseil d’administration du ministère de la Défense le 21 décembre 2022, Poutine a appelé à intégrer les technologies de l’IA à « tous les niveaux de prise de décision » dans les forces armées, ajoutant : « Comme le montre l’expérience, y compris de ces derniers mois, les systèmes d’armes les plus efficaces sont ceux qui fonctionnent rapidement et presque en mode automatique ». Il a noté : « Nous n’avons aucune restriction de financement. Le pays, le gouvernement donnent tout ce que l’armée demande, tout ». Il a voulu signaler ainsi que les capacités militaires et économiques de la Russie sont restées inchangées suite à l’invasion de l’Ukraine et ses conséquences (cf. sanctions, pertes militaires, etc.), et ce, contrairement aux observations des experts qui considèrent qu’elles se sont gravement détériorés.

Il est encore difficile d’estimer à quel point la population russe adhère à ce récit. Pour  le public ukrainien et la plupart des publics étrangers, les affirmations russes ont été discréditées par des rapports et des observations sur l’état de son armée et de son industrie de défense, révélant le véritable  caractère de la Russie, décrite comme une «  superpuissance Potemkine ». Les forces armées ukrainiennes ont visiblement mieux réussi à acquérir et à utiliser des technologies modernes telles que les drones.

En ce qui concerne l’IA, la Russie était déjà loin de ses propres objectifs en raison de problèmes tels que le manque d’investissements, de publications, de coopération avec le secteur privé, ainsi que le manque d’accès à du matériel crucial tel que les micropuces. Les garanties, les contrôles à l’exportation, le départ d’entreprises et de spécialistes en informatique, ainsi que d’autres mesures affectant les capacités technologiques russes risquent d’élargir le fossé entre les déclarations des dirigeants et la réalité.

L’IA et les violations du droit international en Russie

Deuxièmement, les responsables russes affirment avoir utilisé des systèmes d’armes dotés d’IA et de fonctionnalités autonomes pour défendre ce qu’ils considèrent comme la légitimité de leurs frappes contre l’Ukraine.  Les drones et les technologies d’IA sont souvent associés à la précision, à l’efficacité et à l’exactitude. Des milliers de dirigeants et de gouvernements du monde entier justifient leurs investissements dans l’IA militaire en déclarant qu’ils permettront une guerre plus « précise » et donc plus « éthique ».

Le discours officiel russe a utilisé ces arguments pour présenter ses attaques comme très précises et respectueuses du droit international humanitaire (DIH), qui exige, entre autres, de faire la distinction entre civils et combattants en temps de guerre. Dans le cadre de débats mondiaux en cours sur la question de savoir si, ou comment, l’IA militaire peut être utilisée conformément au DIH, ces arguments simplistes ont été critiqués, car ils ne reflètent pas l’état d’avancée de la technologie et la complexité de la prise de décision en temps de guerre. En d’autres termes, il est peu probable que les algorithmes soient en mesure d’atteindre le niveau de connaissance de la situation qui permettrait une guerre juridiquement responsable.

En avril 2022, Choïgou a déclaré que les systèmes de lancement et de désignation des cibles des « missiles de haute précision » Kalibr et Kinzhal sont devenus plus efficaces grâce à l’utilisation de technologies modernes, y compris « l’intégration d’éléments d’IA ». Le même missile de croisière Kalibr a tué plus de 20 civils à Vinnytsia en juillet 2022.

En août 2022, le ministère de la Défense a annoncé la création d’un nouveau département pour le développement des technologies de l’IA. Son nouveau chef, Vasily Yelistratov, a déclaré que l’IA est « présente dans toutes les armes, en particulier dans les armes de haute précision », tandis que la guerre du futur sera « une guerre de machines ». Il a également suggéré que l’IA rend les armes plus intelligentes, « et plus les armes sont intelligentes, moins les pertes subies seront grandes », notant que « la chose la plus précieuse est la vie humaine ». De telles déclarations contrastent avec le mépris russe pour les vies ukrainiennes.

Des allégations similaires ont été faites à propos de la mine antipersonnel POM-3 ou « Medalion », également utilisée en Ukraine.  Elle a été décrite par les médias d’État comme une mine « intelligente » avec un « nanocerveau » qui intègre les technologies de l’IA. Les représentants du fabricant ont affirmé que la base de ce « cerveau » avait été entièrement fabriquée en Russie, ce qui signifie que les ennemis potentiels ne pourraient pas la pirater ou comprendre son fonctionnement. Ils ont également déclaré que la mine serait capable, de manière autonome, de faire la distinction entre le personnel militaire et les civils. Comme l’ont noté les experts Toby Walsh et Lauren Kahn, il est très peu probable que cela soit techniquement possible.

Pourtant, les responsables russes continuent d’utiliser l’IA dans leurs revendications pour tenter de présenter ses actions comme prétendument motivées par le droit international – bien que la Russie ne soit pas partie aux différents instruments protecteurs en cause à l’image de la Convention qui interdit les mines antipersonnel. Leurs déclarations sont contredites par les violations constantes par la Russie de l’objectif fondamental et de l’esprit de la Convention sur certaines armes classiques, qui est de réduire au minimum les souffrances inutiles et injustifiables des  civils et des combattants. Les attaques aveugles de la Russie à l’encontre des centres commerciaux et des immeubles d’habitation vont à l’encontre de l’essence même des principes juridiques internationaux desquels les diplomates russes affirment se soucier à l’ONU.

Les responsables militaires russes utilisent le concept d’IA et son ambiguïté inhérente pour présenter leurs attaques comme motivées par des préoccupations humanitaires, telles que n’attaquer que des cibles militaires et ne pas faire de frappes contre des civils.  Les actions des forces armées russes, cependant, discréditent ces affirmations selon lesquelles elles sauveraient des vies humaines avec des armes prétendument précises.  En réalité, les attaques russes ont visé des biens civils, entraînant la mort de civils et la destruction d’écoles, d’hôpitaux, de centres commerciaux, de terrains de jeux et d’autres cibles non militaires. Les responsables russes semblent rarement se soucier des civils ukrainiens touchés par leurs frappes, bien qu’ils essayent de justifier les attaques par des campagnes de propagande.

Éléments à retenir pour l’étude de l’IA et de l’autonomie militaire

Le récit de modernisation militaire de la Russie, dont les drones et l’IA sont un élément clé, a été discrédité par son invasion « low-tech » de l’Ukraine. Les affirmations des responsables russes selon lesquelles il est possible d’intégrer l’IA dans l’armée ou de lancer une production nationale de drones ont peu de chances de convaincre. Leurs arguments selon lesquels l’IA est censée aider à mener des « frappes précises qui sauvent des vies » sont encore moins crédibles.

Cependant, si on généralise au-delà du cas de la Russie, les affirmations selon lesquelles les systèmes d’armes autonomes ou basés sur l’IA sont devenus une partie constante du champ de bataille doivent être traitées avec prudence. Comme l’écrit Peter Burt, notre compréhension de ces systèmes « est vague et basée sur les affirmations des fabricants qui sont presque certainement exagérées ». Il y a un vrai « engouement médiatique » autour des technologies d’IA et de l’autonomie. Dans le même temps, l’IA militaire et son intégration dans les systèmes d’armes ne sont pas suffisamment réglementées au niveau international.

Dans le cadre de leur défense de la souveraineté de leur pays, les responsables ukrainiens ont également montré un intérêt en faveur d’une autonomie accrue dans les systèmes d’armes. Un rapport de l’Associated Press publié le 3 janvier 2023 cite le ministre ukrainien de la Transformation numérique, Mykhailo Fedorov, affirmant que l’Ukraine s’est engagée significativement en recherche et développement dans le domaine des « drones tueurs entièrement autonomes ». Fedorov a ajouté: « Je pense que le potentiel pour [que ces efforts aboutissent] est grand dans les six prochains mois ».

Le développement continu de systèmes d’armes autonomes dotés d’intelligence artificielle, conjugué à l’absence de réglementation internationale spécifique, appelle à un examen plus approfondi de l’évolution et des pratiques des États dans ce domaine. Des efforts sont en cours pour débattre de ces tendances et devraient être poursuivis. Pourtant, comme on le voit avec les observations sur les capacités de la Russie et comme le soutient Margarita Konaev, une plus grande attention devrait être accordée aux écarts existants entre les affirmations faites par divers acteurs et les pratiques réelles dans le développement, les tests et l’utilisation de systèmes d’armes, y compris les drones qui intègrent des technologies d’IA et des fonctionnalités autonomes.

 

Crédits photo : Mikhail Metzel / AFP 

Auteurs en code morse

Anna Nadibaidze

Anna Nadibaidze (@AnnaRNad) est candidate au doctorat en relations internationales au Center for War Studies de l’Université du Danemark du Sud (SDU). Elle est chercheuse au projet AutoNorms, financé par le Conseil européen de la recherche.

Suivez-nous en code morse