Les inquiétudes grandissantes et l’incertitude juridique montrent le besoin urgent de règlementation
- Les gouvernements devraient ouvrir de nouvelles négociations afin de légiférer à l’échelon international sur les systèmes d’armes létales autonomes, également connus sous le nom de « robots tueurs ».
- Le droit international actuel n’est pas adapté aux menaces pressantes que représentent ces armes, lesquelles sont en cours de développement par plusieurs pays.
- Les pays devraient envisager des solutions pour avancer sur ce sujet, y compris celle d’un processus indépendant par le biais de l’Assemblée générale des Nations Unies.
Les gouvernements devraient convenir d’ouvrir des négociations et aboutir à un nouveau traité pour conserver un contrôle humain significatif de l’usage de la force, a déclaré Human Rights Watch dans un rapport publié aujourd’hui. Les gouvernements se réuniront au palais des Nations Unies à Genève en ce mois de décembre pour décider de l’opportunité d’ouvrir des négociations afin de parvenir à de nouvelles normes internationales sur les systèmes d’armes létales autonomes, également connus sous le nom de « robots tueurs ».
Le rapport de 23 pages de Human Rights Watch et de l’International Human Rights Clinic (Clinique du droit international des droits humains) de la faculté de droit de Harvard, intitulé « Crunch Time on Killer Robots: Why New Law Is Needed and How It Can Be Achieved » (« Urgence au sujet des robots tueurs : Nécessité d’une nouvelle loi et comment y parvenir »), constate que le droit international devrait être renforcé et clarifié pour protéger l’humanité des dangers que représentent les systèmes d’armes létales autonomes. Ces armes choisissent des cibles et les visent sans véritable contrôle humain.
« Après huit ans de discussions sur les lourdes conséquences de l’abandon du contrôle humain de l’usage de la force, les pays devraient maintenant décider de répondre à ces menaces », a déclaré Bonnie Docherty, chercheuse senior auprès de la division Armes à Human Rights Watch et directrice adjointe chargée des conflits armés et de la protection civile à la Harvard Human Rights Clinic. « Il faut d’urgence élaborer un traité pour remédier aux lacunes du droit international humanitaire, et l’actualiser de manière à répondre aux questions légales, éthiques et sociétales liées à l’intelligence artificielle actuelle et aux technologies émergentes. »
La Sixième conférence d’examen de la Convention sur l’emploi de certaines armes classiques (CCAC), qui doit se tenir du 13 au 17 décembre, est un tournant essentiel des discussions sur les robots tueurs. Lors de la dernière réunion de la CCAC sur les robots tueurs en septembre, la plupart des pays qui ont pris la parole ont appelé à l’adoption d’un nouvel instrument contraignant sur les systèmes d’armes létales autonomes. Le Chili, le Mexique et le Brésil ont pressé les parties à la convention de se mettre d’accord pour entamer des négociations à cette fin. Ils ont en cela été rejoints par d’autres États parmi lesquels le « groupe des 10 » (Argentine, Costa Rica, Équateur, El Salvador, Palestine, Panama, Pérou, Philippines, Sierra Leone et Uruguay) et les membres du Mouvement des non-alignés.
Il existe plusieurs espaces de négociation possibles pour un nouveau traité sur les systèmes d’armes létales autonomes : outre la CCAC, et entre autres possibilités, on peut lancer un processus indépendant, à l’instar de celui qui a permis d’aboutir aux traités interdisant les mines antipersonnel et les armes à sous-munitions, ou recourir à l’Assemblée générale des Nations Unies, où a été négocié le traité interdisant les armes nucléaires.
Human Rights Watch et la Harvard Clinic font valoir que le droit humanitaire international actuel ne permet pas de répondre aux problèmes que posent les systèmes d’armes létales autonomes. L’idée d’élaborer une nouvelle norme rencontre un large soutien et les divergences d’opinions renforcent la nécessité de clarifier les normes existantes. Un nouveau traité permettrait de répondre aux préoccupations soulevées par ces systèmes d’armes sur les plans du droit international humanitaire, de l’éthique, du droit international des droits humains, de la responsabilité et de la sécurité.
Pour ce faire, il devrait couvrir les systèmes d’armes qui choisissent et visent les cibles en fonction d’informations données par des capteurs et non des êtres humains. La plupart des partisans d’un traité ont appelé à l’interdiction des systèmes d’armes qui, de par leur nature, choisissent et visent des cibles sans intervention effective d’un être humain, comme les systèmes complexes qui reposent sur des algorithmes d’apprentissage automatique qui produisent des effets imprévisibles ou inexplicables.
Certains pays ont également exprimé le souhait d’interdire les systèmes d’armes qui reposent sur des profils biométriques et d’autres données recueillies par des capteurs qui identifient, sélectionnent et attaquent des personnes ou des catégories de personnes.
De nombreux pays proposent de compléter ces interdictions par une règlementation visant à assurer que tous les autres systèmes d’armes autonomes ne soient utilisés que s’ils sont effectivement commandés par des êtres humains. Le terme « contrôle humain significatif » (« meaningful human control ») est communément entendu comme l’exigence d’une technologie compréhensible, prévisible et restreinte dans l’espace et dans le temps.
Il semble peu probable que les avancées vers des négociations s’inscrivent dans le cadre de la CCAC, puisque cet organisme prend ses décisions au consensus et que l’on connaît l’opposition de plusieurs puissances militaires, en particulier l’Inde, la Russie et les États-Unis, qui estiment que le droit international humanitaire actuel suffit pour remédier à tous les problèmes que soulèvent ces systèmes d’armes. Ces pays, et d’autres tels que l’Australie, la Chine, la Corée du Sud, Israël et la Turquie investissent lourdement dans les applications militaires de l’intelligence artificielle et des technologies associées afin de concevoir des systèmes d’armes autonomes aériens, terrestres et navals.
« Un processus indépendant de négociation d’une nouvelle norme sur les robots tueurs serait plus efficace et plus inclusif que les pourparlers diplomatiques en cours et les autres solutions envisagées », a indiqué Bonnie Docherty. « Mais accélérer ce processus ne sera possible qu’avec le soutien actif des dirigeants politiques. »
Déjà importants, les rangs des personne, pays, institutions et entreprises privées qui répètent leur souhait d’interdire les robots tueurs grossissent. En mai dernier, le Comité international de la Croix-Rouge a appelé les États à négocier un traité international qui interdise les systèmes d’armes autonomes imprévisibles ou qui ciblent des personnes et à adopter des règlementations visant à assurer un contrôle humain significatif sur les autres systèmes. Depuis 2018, le Secrétaire général des Nations Unies, António Guterres, exhorte les États à interdire les armes qui ciblent et attaquent d’elles-mêmes des êtres humains, les qualifiant de « politiquement inacceptables et moralement révoltantes ».
Human Rights Watch est cofondateur de la campagne Stop Killer Robots, une coalition de plus de 185 organisations non gouvernementales issues de 67 pays qui plaident pour un traité qui impose le maintien d’un contrôle humain significatif sur l’emploi de la force et qui interdise les systèmes d’armes fonctionnant de manière autonome.
« Une grande part de cette opposition repose sur la répulsion morale à l’idée que des machines puissent décider de la vie et de la mort de personnes », a conclu Bonnie Docherty. « Un nouveau traité permettrait de combler le vide juridique international par un nouveau traité et de protéger les principes d’humanité que nous dicte notre conscience face aux technologies militaires émergentes. »