ROBOTS TUEURS
ET DROIT DE LA GUERRE

.
par Pierre Versaille (*)
Haut fonctionnaire.


« Science sans conscience n’est que ruine de l’âme » 


Il y a un peu moins d’un an, en novembre 2018, à Genève, dans le cadre de la Convention sur certaines armes classiques (CCAC) de l’ONU, il n’a pas été possible de mettre en place un groupe d’experts qui aurait préparé un protocole de limitation voire d’interdiction des armes létales autonomes, autrement dit des « robots tueurs », sujet à la fois grave et difficile, qui a échoué sur la définition même de ces armes, et qui s’est heurté à une opposition résolue de la Chine, et à des réticences fortes de la Russie et des États-Unis (excusez du peu !).


Éthique, intelligence artificielle et cadre juridique


C’est un sujet grave en effet, car il met en cause des notions éthiques : peut-on admettre que des armes qui donnent la mort aient une boucle de commande du feu à base d’intelligence artificielle qui ne comporte pas d’intervention humaine ? Le concept d’autonomie des armes létales signifie que celles-ci sont mises en œuvre avec le minimum d’intervention humaine et le maximum d’intelligence artificielle, et plus l’autonomie est grande, plus le risque serait élevé que l’emploi de ces armes ait des conséquences irrespectueuses du droit de la guerre, par exemple en ce qui concerne la proportionnalité de la force employée par rapport à la menace, ou entrainant des dommages collatéraux excessifs pour les populations civiles. Mais la proposition inverse n’est pas avérée : le maintien d’une part d’intervention humaine dans la boucle de commande du feu ne saurait garantir, à coup sûr, une plus grande humanité dans l’emploi de ces armes, car la nature humaine est telle qu’elle peut conduire à des comportements inhumains, c’est-à-dire contraires au Droit international humanitaire (DHI), l’Histoire récente l’a montré pour les nazis ou l’État islamique, mais pas que…

Il demeure que le sujet de la place de l’intelligence artificielle dans les systèmes d’armes est particulièrement anxiogène, parce que l’intelligence artificielle est un sujet encore mal maîtrisé par le grand public, et aussi à cause de la rareté des informations fournies par les états, quant à son utilisation dans le domaine des armes. Comme on a tendance à parler de « révolution » dès qu’il s’agit d’une évolution dont on perçoit mal les conséquences, on pense qu’il y a rupture et qu’on ne peut tirer des enseignements du passé. D’où une littérature abondante sur le thème du bouleversement ou de la rémanence des caractéristiques du soldat confronté à l’irruption de l’intelligence artificielle dans l’art de la guerre[1]. Or l’automatisation des systèmes d’armes a commencé il y plus de 150 ans avec l’invention de la mitrailleuse[2], et avec les perfectionnements de la conduite du tir depuis l’amiral Sir Percy Scott, ce qui a conduit en 75 ans au système de combat Aegis avec ses radars plans permettant de faire face simultanément à de très nombreuses attaques aériennes, toujours en service sur les destroyers de la classe Arleigh Burke. Quant aux dégâts « collatéraux » qui ont marqué les mémoires, qu’il s’agisse de la Caravelle Ajaccio-Nice en 1958, de l’Airbus iranien abattu par l’USS Vincennes[3] en 1988, ou du Boeing MH 17 de la Malaysia Airlines abattu dans le Donbass en 2014[4], ils ne doivent rien à un mauvais usage de l’intelligence artificielle. On pourrait même arguer, qu’au contraire, un bon usage de l’intelligence artificielle, qui apporte une analyse fine et extrêmement rapide d’un environnement complexe aurait permis d’éviter des incidents aussi dramatiques[5].

C’est aussi un dossier particulièrement difficile que celui de la définition d’un cadre juridique relatif aux systèmes d’armes létales autonomes (SALA) par une organisation telle que les Nations Unies. Il faut en effet se pencher sur les conditions dans lesquelles ont été mises en place des limitations des armements. La première observation est que ces limitations sont intervenues le plus souvent a posteriori, pour les armes chimiquesaprès la Première guerre mondiale, pour les armes atomiques, ou les mines anti-personnel[6]. Ce n’est absolument pas le cas pour les armes létales intégralement autonomes, qui sont encore au stade de la conception, voire des conjectures et auxquelles on pourrait appliquer la formule « Ceux qui parlent ne savent pas, et ceux qui savent ne s’expriment pas ».

C’est sans doute ce qui explique que les cinq protocoles adoptés dans le cadre de la Convention sur certaines armes classiques aient emporté l’adhésion d’au moins presqu’une centaine d’états, et jusqu’à 150, alors que vingt-sept états seulement parmi lesquels le Brésil, l’Autriche et l’Égypte demandent explicitement une interdiction des SALA.


Grande diversité d’opinions


On se trouve en face d’une grande diversité d’opinions très contradictoires. Du côté de ceux qui sont opposés à toute restriction ou limitation, on trouve d’abord la République Populaire de Chine. Les Chinois qui n’affichent aucune réserve de nature éthique sur l’utilisation de l’intelligence artificielle à des fins militaires, n’entendent pas accepter une quelconque limitation à la conception, la détention ou l’utilisation d’armes létales autonomes. Pour la Russie, la position exprimée par le Président Poutine en 2017 est d’avoir en 1922 un tiers des unités dotées d’armes semi-autonomes, et de les utiliser en priorité en première ligne, et faire intervenir ensuite des unités plus classiques. La position des États-Unis, antérieurement assez réservés pour des raisons éthiques, a pris en compte la position exprimée par la Chine, sans états d’âme éthiques, et a évolué. Ils considèrent qu’il ne serait pas éthique non plus de laisser des soldats se faire attaquer par des armes autonome sans utiliser pour leur défense des armes dotées d’intelligence artificielle.

Du côté des « abolitionnistes », pour reprendre un terme utilisé du temps de la lutte contre l’esclavage, le combat est mené par 85 ONG réparties dans 48 pays, avec le soutien du Secrétaire général de l’ONU qui « invite les états à interdire ces armes qui sont politiquement inacceptables et moralement révoltantes. »


On se trouve en face d’une grande diversité d’opinions très contradictoires. Du côté de ceux qui sont opposés à toute restriction ou limitation, on trouve d’abord la République Populaire de Chine. Les Chinois qui n’affichent aucune réserve de nature éthique sur l’utilisation de l’intelligence artificielle à des fins militaires, n’entendent pas accepter une quelconque limitation à la conception, la détention ou l’utilisation d’armes létales autonomes. Pour la Russie, la position exprimée par le Président Poutine en 2017 est d’avoir en 1922 un tiers des unités dotées d’armes semi-autonomes, et de les utiliser en priorité en première ligne, et faire intervenir ensuite des unités plus classiques. La position des États-Unis, antérieurement assez réservés pour des raisons éthiques, a pris en compte la position exprimée par la Chine, sans états d’âme éthiques, et a évolué. Ils considèrent qu’il ne serait pas éthique non plus de laisser des soldats se faire attaquer par des armes autonome sans utiliser pour leur défense des armes dotées d’intelligence artificielle.

Du côté des « abolitionnistes », pour reprendre un terme utilisé du temps de la lutte contre l’esclavage, le combat est mené par 85 ONG réparties dans 48 pays, avec le soutien du Secrétaire général de l’ONU qui « invite les états à interdire ces armes qui sont politiquement inacceptables et moralement révoltantes. »


La France : une position compliquée


La position de la France dans cette affaire est compliquée. Doit-on au nom du principe de réalité se résoudre à laisser se développer un nouveau champ de la course aux armements ? Certainement pas. Ce n’est parce que certains gouvernements n’ont pas la même conception que nous sur la place de l’humain au combat, que la France peut, au nom d’un droit à la réciprocité, produire n’importe quel type de robots tueurs. Une comparaison peut nourrir la réflexion. Le non-respect de l’interdiction des armes chimiques par Saddam Hussein ou Bachar-el Assad ne donne aucun droit à fabriquer du sarin.

On observera d’ailleurs que la menace de la réciprocité dans l’emploi d’un système d’armes n’est pas nécessairement le meilleur moyen de s’en prémunir. Cette idée est en quelque sorte une conséquence de la théorie de la dissuasion nucléaire, mais elle n’est valable que pour l’emploi de l’« arme absolue », c’est-à-dire contre laquelle il n’y a pas de moyen d’en limiter les effets. Ce fut le cas pour l’arme atomique depuis qu’elle a été mise en œuvre par des missiles balistiques intercontinentaux installés sur des sous-marins océaniques à moteur nucléaire. Mais la notion d’« arme absolue » n’a pas de sens sur le très long terme. Ainsi il y a, après soixante ans de dissuasion nucléaire, des systèmes susceptibles d’intercepter les missiles balistiques, comme le Ballistic Missile Defence System américain, d’où les recherches russes sur les missiles « à moteur nucléaire ».

Autre exemple, dans les années 1920-1930, le bombardement aérien a pu sembler être l’arme absolue, comme le théorisaient Billy Mitchell ou plus encore Giulio Douhet. Cela a conduit aux bombardements de Guernica, de Rotterdam, et au Blitz, mais le bombardement des villes allemandes comme Hambourg et Dresde n’a pas été jugé unanimement comme la riposte appropriée[7].

À l’inverse y a eu des armes qui ont marqué les esprits, parce qu’elles paraissaient, à un moment donné, avoir une efficacité imparable, comme les bombes planantes anti-navires, Fritz X ou He 293, en 1943 mais qui ont pu être assez facilement neutralisées par brouillage de leur système de guidage. Sans chercher à rivaliser avec Ies variantes des SALA comportant l’autonomie la plus poussée, il pourrait être intéressant d’essayer de neutraliser les « robots tueurs », en recourant à par exemple à des leurres pour multiplier les cibles factices, et à la furtivité pour masquer les cibles réelles.

Dès lors que la probabilité d’une interdiction sous l’égide de l’ONU apparait faible, à court ou moyen terme, on comprend qu’au niveau gouvernemental, il soit irréaliste de prendre une position qui se limite à demander l’impossible, c’est-à-dire à réclamer l’interdiction totale des armes létales autonomes. C’est une posture compréhensible pour une ONG, comme Amnesty International qui au nom du principe de précaution, refuse qu’on mette un doigt dans l’engrenage de la recherche sur des armes intégrant dans la commande du feu une dose d’intelligence artificielle. Mais pour un gouvernement qui se veut responsable de l’engagement de ses troupes, c’est une position acceptable que de refuser, pour des raisons éthiques, que l’autonomie des armes létales puisse être totale, mais sans faire un amalgame aboutissant à l’interdiction de toute forme d’utilisation de l’intelligence artificielle à des fins militaires. Au stade actuel de la conception des systèmes d’armes autonomes, la variété des possibilités de mise en œuvre est si grande qu’on ne saurait dire avec certitude quelles sont celles qui doivent, d’un point de vue éthique, être interdites. Il faut pour aller dans le sens de la limitation de l’utilisation de l’intelligence artificielle à des fins militaires, négocier en tenant compte du développement réel de ces systèmes d’armes, de leurs modalités d’autonomie et des objectifs de leur déploiement. Ceci est sans doute aussi plus réaliste que de chercher à définir préalablement et par la voie d’une négociation internationale, ce que pourrait être une « éthique artificielle ».

Tel est, grosso modo, le sens de la position française, défavorable à l’« autonomie totale » des armes létales, qui prendrait la forme d’une déclaration d’intentions[8] et non d’un protocole de la CCAC.


Deux observations en conclusion


On conclura avec deux brèves observations :
– D’abord, le recours à des armes « autonomes » ne limite en rien la responsabilité du chef qui décide de leur emploi. Il pourra avoir à répondre devant la justice pénale internationale des manquements constatés au droit de la guerre et des gens, suite à l’emploi de ces armes. Le chef n’est pas responsable que des ordres qu’il a personnellement donnés, mais des conséquences inacceptables des actions menées par ceux qu’il commande.[9] On doit cependant remarquer que cette justice a été surtout celle du vainqueur[10].
– Pour finir, on s’étonnera du vacarme médiatique sur les « robots tueurs » et du silence assourdissant sur la disparition du traité sur la limitation des armes atomiques de portée intermédiaire, mais ceci est une autre histoire.


Notes de lectures

[1] Cf. « Robots tueurs » Que seront les soldats de demain ? Brice Erbland, Armand Colin, 2018
[2] On aura remarqué qu’il y a là continuité en ce que le système Phalanx CIWS de 1980 repose sur des mitrailleuses Gatling inventées 120 ans plus tôt.
[3] Ce petit croiseur appartenait à la classe Ticonderoga, la première à mettre en œuvre le système d’armes Aegis
[4] Si tant est que dans ce cas il s’agisse bien d’un dégât collatéral et non pas d’une attaque délibérée contre un appareil civil, comme le laisse craindre l’inclusion du commandant Vladimir Tsemakh dans un échange de prisonniers entre l’Ukraine et la Russie, qui l’a soustrait aux investigations d’enquêteurs néerlandais.
[5] On n’oubliera pas également que le plus haut gradé américain tué au cours de la Seconde guerre mondiale, le lieutenant général McNair a été victime d’un bombardement aérien massif fratricide lors de la percée d’Avranches en juillet 1944.
[6] Seule exception, le Protocole IV de la CCAC sur les armes laser aveuglantes.
[7] L’Air chief marshal Arthur Harris, à la tête du Bomber Command à l’époque du bombardement de Dresde, surnommé « Bomber Harris », n’a, évidemment, pas été poursuivi pour crime de guerre, mais en raison du discrédit porté à sa stratégie de bombardement massif anti-cités, a renoncé à être anobli, comme les grands chefs britanniques, à Noël 1945, et à ne l’accepter qu’en 1953.
[8] Une situation assez semblable a été celle de la France en 1938 : le calibre de l’artillerie principale des cuirassés a été limité en 1936 à 356 mm, par le second traité naval de Londres, ce que le Japon a refusé. Une « clause ascenseur » a conduit à un mémorandum du 30 juin 1938 entre les États-Unis, le Royaume-Uni et la France portant le calibre maximal à 406 mm, mais le ministre français de la Marine avait annoncé dès le 13 juin que la France se limiterait au calibre de380mm, tant qu’une puissance européenne n’irait pas au-delà.
[9] De très hauts gradés japonais, les amiraux Hara Chuichi et Fukodome Shigeru, par exemple, ont été condamnés à plusieurs années de prison, pour des actes (exécutions sommaires de prisonniers) commis sous leur commandement, qu’ils n’avaient pas ordonnés, mais n’avaient ni empêchés, ni sanctionnés.
[10] Toutefois, le Tribunal Pénal International pour la Yougoslavie a condamné notamment le général croate Slobodan Praljak.

µµµµµµµµµµµµµµµµµµµµµµµµµµµµµµµµ(*) Pierre Versaille

Haut fonctionnaire qui fut en charge de réformes importantes et nouvelles qui, de ce fait, se doit à l’exigence de réserve.

.
ESPRITSURCOUF parait tous les quinze jours
Prochaine édition le lundi 4 novembre 2019

:

ESPRITSURCOUF est aussi
IN ENGLISH, AUF DEUTSCH, EN ESPAÑOL, EN PORTUGUÊS IN ITALIANO IN HET NEDERLANDS PO POLSKU NO PYCCKИ
Click HERE

NOUS AVONS BESOIN DE VOUS !

Soutenez-nous !

Nous ne recevons aucune subvention, nous ne sommes financés que par les lecteurs d’ESPRITSURCOUF. Adhérez ou faites un don défiscalisé à Espritcors@ire , association reconnue d’intérêt général qui l’édite.

Ainsi vous serez informé en priorité et recevrez le SEMAPHORE Lettre d’actualité, réservée à nos membres.

 

ADHÉSION 2024 :

  • Cotisation: 50€ net fiscal 17€,
  • Bienfaiteur: 100€ net fiscal 34€,
  • Soutien: 150€ net fiscal 57€.

VERSEMENT :

  •  par chèque, à l'ordre d'Espritcors@ire (7, rue Rosa Bonheur, 75015 Paris
  • par Paypal ou par Carte bancaire, cliquez sur"Cotisation, défiscalisation" ou sur "Don-IFI"
  • par virement demander notre RIB à secretariat@espritscorsaire.fr

ESPRITSURCOUF

« UN AUTRE REGARD SUR LE MONDE »

Vous appréciez cet article, transmettez-le à vos amis et relations en donnant le lien de l'article ou l’adresse du site ESPRITSURCOUF

Merci pour votre action au service du rayonnement de notre "Observatoire de Géopolitique, Économie, Défense et Sécurité"

Suivez-nous sur FacebookTwitter, LinkedIn, Instagram et YouTube

Sur les réseaux sociaux, donnez votre avis, indiquez  que vous aimez notre site, incitez vos amis à "liker" ESPRITSURCOUF

Si vous souhaitez intégrer les réseaux sociaux d’ESPRITSURCOUF, merci de nous indiquer le libellé exact du nom de chacun de vos comptes Facebook, LinkedIn, Twitter … à contact@espritsurcouf.fr