
Amnesty International et la campagne Stop Killer Robots ont lancé mardi 2 novembre 2021 un filtre pour réseaux sociaux donnant un aperçu terrifiant du futur de la guerre, du maintien de l’ordre et du contrôle aux frontières. Escape the Scan, un filtre destiné à Instagram et Facebook, fait partie d’une grande campagne en faveur d’une nouvelle législation internationale qui réglemente les systèmes d’armement autonomes – ces systèmes d’armes qui, une fois activées, ont la capacité de sélectionner une cible et d’engager la force sans intervention humaine supplémentaire. L’utilisation de la technologie de la réalité augmentée vise à montrer certains aspects de systèmes d’armement déjà en développement, tels que la reconnaissance faciale, les capteurs de déplacement, et d’autres dispositifs ayant la capacité de lancer des attaques contre des « cibles » sans véritable contrôle humain.
Plusieurs pays sont très investis dans le développement des armes autonomes, malgré les implications dévastatrices pour les droits humains et pour le droit international humanitaire qu’implique le transfert à des machines de la responsabilité du recours à la force. Amnesty International et Stop Killer Robots ont lancé une pétition [1] demandant à tous les gouvernements d’exprimer leur soutien en faveur de négociations en vue de l’adoption d’un traité.
« Nous basculons dans un scénario de cauchemar, un monde où des drones et d’autres armes avancées peuvent sélectionner et attaquer des cibles sans aucun contrôle humain. Ce filtre est conçu pour donner aux utilisateurs une idée de ce que les robots tueurs seraient bientôt capables de faire, et montrer pourquoi nous devons agir de toute urgence afin que les humains gardent le contrôle du recours à la force », a déclaré Verity Coyle, conseillère principale sur les équipements militaires, de sécurité et de police pour Amnesty International.
« Permettre à des machines de trancher des questions de vie ou de mort constitue une atteinte à la dignité humaine, et risque en outre de causer des violations dévastatrices des lois de la guerre et des droits humains. Cela exacerbera par ailleurs la déshumanisation de la société sur l’espace numérique, qui réduit les personnes à des points de données à traiter. Il nous faut un traité international robuste et juridiquement contraignant afin de faire cesser la prolifération des robots tueurs – avant qu’il ne soit trop tard. »
Face aux risques éthiques, juridiques et sécuritaires des armes autonomes, la campagne contre les robots tueurs demande un traité qui interdirait les armes autonomes antipersonnel, c’est-à-dire activées par une cible humaine, ainsi que celles qui ne permettent pas un contrôle humain significatif. Le traité devrait aussi prévoir des obligations positives pour garantir l’existence de ce contrôle humain sur les armes : limitations géographiques, temporelles, compréhension des algorithmes, exclusion des algorithmes d’apprentissage automatique…
Les exigences d’un traité juridiquement contraignant afin d’encadrer la recherche, le développement et le déploiement de ce type d’armes se multiplient au sein des Nations Unies, du Comité international de la Croix-Rouge, parmi la communauté scientifique, les spécialistes de la robotique et de professionnel·les des technologies, etc.
Quel est le problème ?
Le remplacement de soldat·es par des machines rendra la décision de partir en guerre plus facile : elles peuvent être déployées à grande échelle, sans engager de soldats – à faible coût, mais avec des conséquences massives. Par ailleurs, les machines ne peuvent pas effectuer de choix complexes sur le plan éthique dans des contextes imprévisibles comme les champs de bataille ou des scénarios du monde réel ; rien ne saurait remplacer une prise de décision humaine. Laisser le choix de tuer à des machines franchit une ligne rouge morale et éthique, les algorithmes étant imparfaits et incapables d’appréhender la valeur de la vie humaine. Il n’est pas du tout évident qu’une intelligence artificielle permette le respect du droit international, notamment le principe de distinction entre combattant·es et non-combattant·es. En outre, si des crimes de guerre ou autres violations des droits humains sont commis par des machines qui ont pris la décision de tirer sur la base d’un traitement algorithmique, il sera très difficile d’engager des responsabilités concrètes. Qui serait jugé : le fabricant ? Le concepteur ? Le militaire l’ayant activé ? Le commandant ayant décidé de son déploiement ? Cette perte de responsabilité priverait les victimes de droit au recours et viderait des droits fondamentaux de leur substance, puisque leur violation ne serait pas sanctionnée.
Il a déjà été souligné que les technologies telles que la reconnaissance faciale, vocale, des émotions et de la démarche ont des difficultés à identifier les femmes, les personnes de couleur et les personnes présentant des handicaps ; mais également, qu’elles causent d’immenses torts aux droits humains lorsqu’elles « fonctionnent ». Employer ces technologies sur les champs de bataille, dans le domaine de l’application des lois ou de contrôle aux frontières, serait désastreux. Les civil·es en paieraient le prix. Les graves violations des règles de la guerre commises dans les conflits actuels en Ukraine, en Israël-Palestine et au Soudan entraînent un coût exorbitant en vies civiles. Les systèmes d’armes autonomes rendraient la guerre encore plus déshumanisante et meurtrière pour les civil·es.
Les armes autonomes représentent également une menace sécuritaire terrifiante. Les laisser proliférer entraîne aussi le risque que des groupes armés qui, déjà, ne respectent aucune règle de la guerre se les procurent. Et elles pourraient être piratées et retournées contre les pays qui les ont développées.
Malgré ces inquiétudes, des pays comme les États-Unis, la Chine, Israël, la Corée du Sud, la Russie, l’Australie, l’Inde, la Turquie et le Royaume-Uni effectuent de lourds investissements dans le développement de systèmes autonomes. Le Royaume-Uni développe par exemple actuellement un drone capable de voler en mode autonome et d’identifier une cible dans une zone programmée. La Chine est en train de créer de petits « essaims » de drones qui pourraient être programmés pour attaquer la moindre créature ayant une température corporelle, tandis que la Russie construit un tank robot sur lequel peuvent être fixés une mitrailleuse ou un lance-grenade.
Récemment, la campagne Stop Killer Robot a fait état de nouvelles armes autonomes utilisées dans le conflit en Ukraine : par exemple, les munitions rôdeuses KUB-BLA – un petit drone qui peut rechercher puis exploser sur une cible prévue – est en capacité de fonctionner comme une arme autonome dans le cas où il attaquerait une cible sur la base de données (captées par des senseurs) qui correspondraient à un profil cible, sans intervention humaine. Comme le KUB-BLA, l’utilisation sur le champ de bataille ukrainien du Shahed-136 (un drone d’attaque unidirectionnel, utilisé notamment dans des attaques « double-tap », une tactique qui vise à tuer les secouristes ou les pompiers répondant à la première frappe) marque un pas de plus dans la production et l’utilisation d’armes pour laquelle la présence de l’opérateur humain se réduit et disparaît progressivement. Ces types d’armes incarnent un glissement progressif vers l’autonomisation des armes qu’aucune règle juridique spécifique n’encadre pour limiter leur autonomisation pour identifier et attaquer des cibles.

En 2013, des discussions ont commencé sur les armes autonomes au sein de la Convention sur certaines armes classiques (CCAC) à Genève, notamment sous l’impulsion de la France. En 2017, un groupe d’experts gouvernementaux a été créé sur le sujet, laissant espérer que les États pourraient aller vers l’ouverture de négociations en vue d’un traité. Si le groupe d’experts a permis d’avancer vers des convergences politiques sur la définition des armes autonomes et la manière de les réglementer (avec des interdictions et des obligations positives, pour assurer un contrôle humain significatif), la CCAC échoue à ouvrir des négociations pour adopter un instrument juridiquement contraignant. La raison ? Les décisions doivent être prises par consensus, ce qui signifie que le blocage d’un pays peut empêcher toute avancée. La Russie a notamment été particulièrement réticente à progresser sur le sujet, allant jusqu’à contester les règles de procédures ou la participation de la société civile aux discussions. Résultat, le mandat actuel de la CCAC ne prévoit toujours pas que les membres doivent discuter des éléments d’un futur traité.
Vers un traité international qui interdise les armes autonomes
Face au blocage de la CCAC, la question des armes autonomes est discutée dans d’autres enceintes des Nations Unies : au Comité des droits de l’Homme, elle a fait l’objet de plusieurs rapports, et surtout dans le cadre de l’Assemblée générale des Nations Unies (AGNU), qui a adopté deux résolutions sur le sujet en 2023 puis en 2024. Ces résolutions ont été adoptées par une immense majorité d’États et permettent de déplacer les discussions dans le cadre de l’AGNU où les décisions se prennent à la majorité, ce qui permettrait de surmonter le blocage des pays qui rejettent toujours les réglementations sur les systèmes d’armement autonome. Si la résolution votée en décembre 2024 (avec 166 voix pour) n’ouvre toujours pas de négociations en vue d’un traité, elle prévoit des discussions informelles dans le cadre de l’AGNU en 2025 et l’inscription du sujet à l’ordre du jour de l’assemblée générale de 2025. Une chance d’arriver à l’ouverture de négociations d’ici l’année prochaine ? Le CICR et le Secrétaire général des Nations Unies appellent à l’adoption de nouvelles normes sur les armes autonomes d’ici 2026.
Il y a urgence : l’automatisation croissante des technologies militaires nous rapproche dangereusement de leur déploiement massif. L’année à venir sera cruciale. Par le passé, d’autres traités ont interdit le développement, la production ou l’usage de certaines armes, à l’image du traité d’Ottawa sur les mines antipersonnel, en 1997, ou de celui d’Oslo sur les armes à sous-munitions, en 2008. Sur la base de ces traités, plus de cent États ont mis fin à la prolifération de ces armes. Un signal clair a été envoyé aux industriels et aux financeurs de ces armes, les rendant plus difficiles à exporter, et indiquant clairement que les États les utilisant seraient stigmatisés. Bien que ni la Russie ni l’Ukraine ne fassent partie de la Convention sur les armes à sous-munitions, l’utilisation de ces armes dans ce conflit a suscité une vague d’inquiétude et de dénonciations.
Il est essentiel que les différents États poursuivent leurs efforts pour avancer de manière constructive sur le sujet et soutienne l’ouverture de négociations pour un traité en dehors de la CCAC. C’est l’unique moyen réaliste d’aboutir à l’adoption de normes juridiques solides dans un avenir proche. Plus que jamais, le monde a besoin que les dirigeants mondiaux se fixent des règles, en contrôlent le respect et sanctionnent les abus. Le développement et la prolifération de ces armes qui défient la morale et menacent la sécurité mondiale ne sont pas une fatalité. Le droit international est un choix politique.