Monde

Le danger des robots tueurs

Human Rights Watch alerte sur une évolution prévisible des armes de guerre

Témoignages.re / 13 avril 2016

Les représentants de plusieurs pays se réunissent à Genève pour discuter des armes totalement autonomes. Ces nouveaux drones pourront décider eux-mêmes de tuer ou pas.

Les États devraient conserver un contrôle humain significatif sur les systèmes d’armement et interdire les armes totalement autonomes, également appelées « robots tueurs », ont déclaré Human Rights Watch et le Laboratoire des droits humains internationaux de la Faculté de droit de l’Université de Harvard (Harvard Law School International Human Rights Clinic), dans un rapport publié aujourd’hui. Le concept de contrôle humain significatif sera au centre des délibérations lors d’une réunion multilatérale sur ce type d’armes, qui s’ouvre le 11 avril au siège européen des Nations Unies à Genève et durera une semaine.

Intitulé « Killer Robots and the Concept of Meaningful Human Control » (« Les robots tueurs et le concept de contrôle humain significatif »), le rapport, long de 16 pages, discute de l’importance, d’un point de vue à la fois moral et juridique, d’un contrôle humain et montre que les pays du monde reconnaissent de plus en plus la nécessité que les humains gardent le contrôle sur les fonctions cruciales de la sélection des cibles et du moment de l’attaque.

L’humain « en dehors de la boucle »

« Il y a longtemps qu’on se sert de machines comme armes de guerre mais à ce jour, les êtres humains ont toujours conservé le pouvoir de décider de la manière dont elles étaient utilisées », a déclaré Bonnie Docherty, chercheuse senior auprès de la division Armes de Human Rights Watch et principale auteure du rapport. « Désormais, il y a un véritable danger que les humains abandonnent ce contrôle et délèguent à des machines des décisions de vie ou de mort. »

Les armes totalement autonomes permettraient d’aller plus loin dans l’automation qu’avec les drones contrôlés à distance déjà existants, car elles seraient en mesure de sélectionner et d’attaquer des cibles en l’absence d’intervention humaine. Bien que ces armes n’existent pas encore, l’évolution rapide de la technologie permettant une transition de systèmes d’armes dans lesquels l’opérateur humain est « dans la boucle » vers des systèmes où il est « en dehors de la boucle », suscite l’inquiétude de la communauté internationale.

Human Rights Watch et le laboratoire de Harvard ont également examiné les règles exigeant un contrôle dans divers domaines du droit international, notamment le désarmement, et comment elles pourraient servir d’inspiration quant à l’utilisation du terme dans le contexte des armes autonomes. Les interdictions des mines, des armes bactériologiques et des armes chimiques démontrent l’importance que le droit international en matière de désarmement a donnée au contrôle des armes. L’exigence d’un contrôle humain significatif sur l’exercice de la force létale aurait pour effet de prohiber l’utilisation d’armes totalement autonomes et équivaudrait donc à une interdiction préventive de ces armes, ont déclaré les deux organisations.

« Stop aux robots tueurs »

Le rapport devait être distribué à l’occasion de la troisième réunion internationale sur les systèmes d’armes létales autonomes qui se tient au siège de l’ONU à Genève du 11 au 15 avril. Beaucoup des 122 pays qui ont adhéré à la Convention sur l’interdiction ou la limitation de l’emploi de certaines armes classiques (CCAC) étaient attendus à cette réunion d’experts sur ce sujet, qui est présidée par l’Allemagne. Cette réunion constitue la poursuite de délibérations sur cette question qui se sont tenues en mai 2014 et en avril 2015.

Human Rights Watch coordonne la Campagne Stop Killer Robots (« Stop aux robots tueurs »), dont les participants estiment que le travail de réflexion au sein de la Convention sur l’interdiction ou la limitation de l’emploi de certaines armes classiques (CCAC) devrait conduire à une nouvelle législation internationale interdisant les armes totalement autonomes. La CCAC a interdit à titre préventif les armes à laser aveuglantes en 1995.

« Les humains devraient continuer d’exercer un contrôle sur les systèmes d’armes et sur chaque opération offensive, et pas seulement sur les opérations générales », a affirmé Bonnie Docherty, qui est également conférencière auprès du laboratoire des droits humains de Harvard. « Affirmer le caractère obligatoire du contrôle humain permettrait d’éviter certaines menaces aux principes moraux fondamentaux qui régissent la décision de recourir à la force. »

Qui est responsable ?

Les armes totalement autonomes seraient dépourvues de la capacité humaine de ressentir de la compassion, qui peut agir comme un important frein à l’utilisation de la force létale, ont affirmé les deux organisations. Céder le contrôle humain sur des décisions concernant qui peut vivre et qui doit mourir priverait également les personnes de leur dignité intrinsèque, car des machines inanimées ne peuvent comprendre ni la valeur de la vie humaine ni la signification de sa perte.

Rendre obligatoire un contrôle humain significatif permettrait de combler le vide juridique en termes de responsabilité qui serait créé par l’utilisation d’armes totalement autonomes. Cela garantirait que quelqu’un puisse être puni pour un acte illégal ayant résulté de l’utilisation de l’arme. Du fait de l’exigence légale d’un contrôle humain, un commandant pourrait être tenu pénalement responsable pour avoir utilisé une arme quelconque sans un tel contrôle.

Une question de droits humains

Le concept d’un contrôle humain significatif sur l’utilisation des armes est également conforme aux principes du droit humanitaire international et en encouragerait le respect, notamment les principes de distinction et de proportionnalité. Le principe de distinction requiert la capacité de comprendre le comportement d’un individu et celui de proportionnalité exige un jugement humain pour évaluer les dommages potentiels infligés aux civils par une action donnée et ses avantages d’un point de vue militaire. Le contrôle humain est également crucial pour la défense du droit international en matière de droits humains. Deux rapporteurs spéciaux de l’ONU ont déclaré en février que : « Lorsqu’une technologie avancée est employée, les responsables de l’application des lois doivent garder personnellement le contrôle sur l’utilisation effective de la force. »

Depuis que le débat international sur l’autonomie totale des systèmes d’armes a commencé, lors de la réunion de la CCAC en 2013, près de 30 pays ont spécifiquement abordé dans leurs déclarations le concept du contrôle humain, en lui accolant le plus souvent les adjectifs de significatif, approprié ou effectif. Nombre de ces pays soutiennent explicitement l’exigence d’un contrôle humain et la plupart ont appelé à des discussions plus approfondies sur le sujet.

Où est le contrôle humain « significatif »

Le concept d’un contrôle humain significatif gagne aussi en popularité en dehors de la CCAC. Par exemple, un commentaire sur le droit à la vie émis en 2015 par l’organe chargé des traités de la Charte africaine des droits de l’homme et des peuples a affirmé que : « Toute autonomie laissée à une machine dans la sélection de cibles humaines ou dans la décision d’utiliser la force devrait d’abord être soumise à un contrôle humain significatif. »

Les pays participant à la réunion de Genève ne prendront pas de décisions formelles. La réunion vise à construire une base commune de connaissances sur les préoccupations d’ordre technique, éthique, juridique, opérationnel, sécuritaire et autres, relatives à ce type d’armes. Toutefois, les pays « pourraient approuver par consensus des recommandations en vue de travaux supplémentaires pour prise en considération » par les membres du traité lors de sa cinquième Conférence de suivi, une réunion multilatérale qui se tient tous les cinq ans, en décembre 2016.

Human Rights Watch est co-fondatrice de la « Campagne pour stopper les robots tueurs » (StopKillerRobots.org). Mary Wareham, directrice du plaidoyer à la division Armes de Human Rights Watch, coordonne la campagne à l’échelle mondiale. Cette coalition internationale de plus de 60 organisations non gouvernementales s’efforce d’obtenir une interdiction à titre préventif de la mise au point, de la production et de l’utilisation des armes totalement autonomes.

« Les pays devraient non seulement consacrer davantage de temps à tenir compte des préoccupations au sujet des robots tueurs, mais aussi s’engager à aboutir en temps voulu à un résultat tangible », a conclu Bonnie Docherty. « Un résultat positif de ces travaux ne sera possible que si les pays adoptent des politiques et des mesures législatives permettant de s’assurer que les humains gardent le contrôle des systèmes d’armement avant que les progrès de la technologie n’aillent trop loin. »


Kanalreunion.com