La nouvelle la plus importante de 2023 concernant le développement des technologies de défense sera passée assez largement inaperçue : un premier drone doté d’une capacité ATR/ATA (Automatic target recognition/Automatic target acquisition) utilisant une intelligence artificielle fondée sur l’apprentissage statistique est engagé au combat ; avec succès. Il est ukrainien et le système d’armes s’appelle Saker. Mais il n’est toujours pas autonome.
L’aptitude d’un système d’armes à reconnaître automatiquement une cible – la capacité ATR – n’est pas nouvelle. Dès le milieu des années 1990, la munition rôdeuse LOCAAS (Low cost autonomous attack system) devaitt identifier ses cibles en comparant l’image 3D produite par le Lidar (Laser radar) installé dans son nez et une bibliothèque d’images embarquée comprenant les types de véhicules à détruire. Une fois confirmée, la cible devait être détruite automatiquement, le missile se verrouillant dessus (ATA). Le petit missile, trapu et doté de son propre réacteur, aurait eu une portée d’une centaine de kilomètres et aurait pu être largué depuis des avions ou encore des missiles Tomahawk. L’US Air Force et l’US Navy se prennent alors à rêver de détruire des divisions blindées depuis des bombardiers ou des sous-marins lanceurs de missiles de croisière. L’US Army fait retarder les financements, et le premier essai n’intervient qu’en 2003 ; mais le programme est alors surtout maintenu par Lockheed Martin.
Le pixel targeting, utilisé sur les bombes guidées Spice 2000 ou, potentiellement, sur les missiles de croisière Delilah israéliens, fonctionne différemment. L’imageur de l’arme produit une image comparée à celle disponible là aussi dans la bibliothèque embarquée. Si le système fait appel à des algorithmes permettant une identification sur la base de différentes photos – et donc à l’apprentissage statistique –, l’opérateur humain sélectionne le matériel à traiter (1). Plusieurs SA‑22/Pantsir iraniens et syriens ont ainsi été détruits par la force aérienne israélienne ; sachant que l’opérateur reste là dans la boucle et que le système est avant tout une aide au ciblage. Une variante nettement plus rustique de la reconnaissance et de l’acquisition automatique de cible existait sur le missile Brimstone : le radar millimétrique de l’engin détectait des masses compatibles avec la signature de véhicules et se verrouillait dessus. Conçu pour traiter les vagues de chars soviétiques durant la guerre froide, il nécessitait évidemment de définir une « kill box » dans laquelle aucun véhicule ami ou civil n’était présent – il n’était tout simplement pas en mesure de faire la distinction (2).
Ultra smart very bad killbot ?
Le drone Saker Scout fonctionne encore différemment. Autorisé pour un usage au combat par le ministère ukrainien de la Défense début septembre, le quadcopter a été engagé peu après en opération. Aucune atteinte de cible n’a cependant été confirmée, si du moins il a été engagé dans un mode cinétique. Il utilise un logiciel fondé sur le machine learning et l’apprentissage statistique (3) – le Saker, de la firme du même nom – permettant de détecter, de classifier (en y affectant un pourcentage de certitude) et éventuellement d’attaquer 64 types de systèmes militaires, par l’intermédiaire de sa caméra jour/nuit stabilisée (4). Le logiciel est destiné à évoluer en fonction des demandes concernant les cibles à identifier et à traiter. A priori, le système permet de répondre à plusieurs problèmes :
• le plus évident est celui de la perte de liaisons radio entre un drone et son opérateur, du fait notamment de la guerre électronique – toute communication coupée signifiant la fin de la mission et, le plus souvent, la perte du drone…
• un autre aspect est l’usage par le drone de ses systèmes d’apprentissage comme aide à la navigation. En l’absence de signal GPS ou en cas de signal dégradé, il peut ainsi s’appuyer sur la reconnaissance de points de repère.
Si les commentateurs ne manqueront certainement pas d’y voir un premier vrai système de ciblage et de combat par l’IA, ses usages sont fondamentalement diversifiés. Le premier n’est d’ailleurs pas tant la frappe que la reconnaissance : envoyé pour explorer une zone donnée, il peut cartographier les positions de véhicules ennemis, avec une injection directe de données déjà traitées dans le système de commandement Delta des forces ukrainiennes. Il intervient donc sur le plan tactique et/ou opératif, en tant qu’aide au commandement. Un deuxième usage consiste à appuyer les unités dotées de drones FPV (First person view) : le Saker Scout assure ainsi une détection et une localisation au profit des opérateurs de drones, sur le plan microtactique, donc. C’est également le cas pour un autre drone ukrainien, l’Autel Evo Max 4T, un quadcopter de surveillance doté d’une IA de détection automatique dont 2 000 exemplaires ont été livrés début octobre 2023 aux forces ukrainiennes – qui apparaissent de facto en pointe sur les usages militaires de l’IA.
Ces usages du Saker Scout pourraient d’ailleurs être plus significatifs pour la conduite des opérations que ses capacités de frappe automatique. Cette option est également envisageable, le drone pouvant être utilisé pour le largage de charges explosives, comme les grenades antichars RKG (5). Mais la méthode retenue pour le ciblage et le traitement autonome des cibles a ses limites : les forces ukrainiennes et russes disposent de matériels communs (chars, artillerie, système de défense aérienne) et l’engagement ne peut donc se faire que dans une « kill box » bien déterminée. De ce fait, le système est politiquement et éthiquement moins problématique qu’il n’en a l’air : cadrer le Saker pour frapper des chars et être certain qu’il ne gaspillera pas ses munitions contre un Bukhanka (6) ou qu’il restera dans sa zone d’action implique une main humaine, certes pas durant la mission, mais auparavant. En ce sens, le système ne peut pas être « autonome » : il ne définit pas quelles sont ses cibles, ni quelles sont les règles d’engagement, il ne définit donc pas ses propres lois.
Le Saker Scout est destiné à encore évoluer – tout comme d’ailleurs les différents systèmes basés sur l’IA utilisés par les forces ukrainiennes. Pour l’heure, les vidéos rendues publiques montrent une forte aptitude du système à la détection, avec une classification globalement pertinente, mais qui se limite à des catégorisations comme « blindé lourd », « blindé léger » ou « camion ». Si cela est en soi suffisant pour autoriser son engagement contre des cibles positionnées dans des kill zones prédéfinies, des questions, comme celles de la ré-attaque d’objectifs déjà détruits, restent posées. En tout état de cause, au-delà des goulets d’étranglement technique qui finiront par être dépassés, la question de la pertinence politique de l’usage d’IA ne semble pas se poser à l’Ukraine ; et on peut d’ailleurs s’interroger sur sa pertinence, d’une manière plus générale.
Disposer d’un système permettant de frapper automatiquement des cibles militaires de manière précise et en établissant un tri entre le pertinent et ce qui ne l’est pas pose moins de problèmes qu’une mine à action directionnelle où, quels que soient sa nature et son type, un véhicule qui passera devant son capteur (ou sur le câble l’actionnant) sera atteint par une charge creuse. De ce point de vue, le Saker Scout oblige à appréhender autrement la notion d’engagement et à dépasser une vision manichéiste de l’automatisme – dans un dilemme « bien/mal » qui ne prend pas en compte les nuances liées à la technique elle-même – pour entrer dans le vif des questionnements sur les règles d’engagement et la définition de cibles pertinentes ; des aspects qui sont moins techniques que militaires – et donc bien plus politiques que ce que certains peuvent en dire (7).
À bien des égards, il y a urgence à penser ces actions de combat automatisées raisonnées par la doctrine, y compris en termes de programmation des IA : tôt ou tard, un acteur adverse s’engagera lui aussi dans cette voie. Il faudra alors disposer de systèmes capables de comprendre ces algorithmes, d’interférer avec eux pour les dégrader ou les rendre inopérants, mais aussi de réponses tactiques à opposer… En d’autres termes, une étude plus approfondie et à finalité opérationnelle des IA de combat sera nécessaire.
Notes
(1) Voir notamment Philippe Langloit, « Le SALA vaut-il mieux que le “robot-tueur” ? Voyage au cœur de l’autonomie », Défense & Sécurité Internationale, hors-série no 81, décembre 2021-janvier 2022.
(2) Sur le Brimstone : Jean-Jacques Mercier, « Brimstone : l’âge de raison ? », Défense & Sécurité Internationale, hors-série no 87, décembre 2022-janvier 2023.
(3) Sur ces méthodes, voir le hors-série de Défense & Sécurité Internationale consacré à l’intelligence artificielle.
(4) David Hambling, « Ukraine AI drone seeks, attack Russian forces without human oversight », forbes.com, 17 octobre 2023.
(5) Jean-Jacques Mercier, « Mines, munitions improvisées et drones : l’Ukraine comme laboratoire », Défense & Sécurité Internationale, hors-série no 84, juin-juillet 2022.
(6) Sorte de camionnette produite par UAZ et semblable au célèbre van de Volkswagen.
(7) Joseph Henrotin, « Le robot tueur : enjeux stratégiques d’une invisibilisation techno-scientifique », Défense & Sécurité Internationale, hors-série no 81, décembre 2021-janvier 2022.
Légende de la photo en première page : De prime abord, le Saker Scout ne se distingue pas d’autres drones quadcopter. (© Saker)