Quel avenir pour les armes autonomes, ces véritables robots tueurs ?

Terminator Genisys © DR

L’humanité peut-elle assister sans réagir à l’ascension des “robots tueurs”, type Terminator, qui décident d’eux-mêmes qui ils vont tuer, et quand ? Des experts de haut niveau se sont inquiétés de cette question cette semaine à Davos (Suisse), et réclament des garde-fous.

Les drones, jadis limités à des missions de renseignement et devenus aujourd’hui des engins “tueurs”, vont-ils céder la place à une nouvelle génération d'”armes autonomes”, dotées d’une intelligence artificielle ?

“Nous ne parlons pas de drones, qui sont contrôlés pas des humains. Nous parlons d’armes autonomes, ce qui signifie qu’il n’y a personne derrière elles. Des armes très précises, qui peuvent localiser et attaquer des cibles sans l’intervention humaine”, a ainsi expliqué Stuart Russell, professeur en informatique à l’université de Californie, lors de ce débat organisé au Forum économique mondial de Davos.

Une machine qui décide de frapper quand elle veut, et qui choisit sa cible, en fonction d’une mission destructrice générale qui lui a été assignée.

Mais comment cette machine, aussi intelligente qu’elle puisse être, fera-t-elle la différence entre un civil et un soldat, entre un soldat et un rebelle, qui se bat pour une “bonne, ou mauvaise cause” ? Comment évitera-telle de tirer sur un pilote qui vient de s’éjecter d’un avion et descend en parachute, et qui cesse donc d’être un combattant ?

“La question est de savoir si les robots peuvent se plier aux règles de la guerre”, à la Convention de Genève, dit Stuart Russell.

Les robots tueurs, “cela signifie que les humains sont dépouillés de toute responsabilité morale”, note Alan Winfield, professeur d’ingénierie électronique (University of the West of England).

Et comment ces machines, qui pourraient voir le jour dans les prochaines années selon les scientifiques, se comporteront-elles dans des zones non conventionnelles, qui n’auraient pas été imaginées par leur concepteur ?

“Quand vous placez un robot dans un environnement chaotique, il se conduit de manière chaotique”, ajoute M. Winfield.

Nous n’en sommes pas au stade où des armées de Terminators se battent entre elles et à la fin, un des belligérants (par procuration) admet sa défaite et dit: “Bon vous avez gagné, et vous pouvez prendre toutes nos femmes !”, ont convenu ces experts à Davos, mais tous pensent qu’il faut “fixer des garde-fous”.

L’Allemande Angela Kane, qui vient de quitter ses fonctions de Haute représentante de l’ONU pour les questions de désarmement, a contribué, à partir de 2013, à lancer le débat sur les “armes autonomes” au sein de l’instance internationale.

Et en juillet dernier, plusieurs milliers de chercheurs et personnalités, dont le célèbre astrophysicien britannique Stephen Hawking, ont lancé un appel pour l’interdiction des “robots tueurs”, alertant sur le danger d’erreurs de cible et d’usages terroristes.

On a pris beaucoup de retard pour réagir, et “c’est peut-être trop tard”, a estimé Mme Kane lors du débat.

Et “il y a beaucoup de pays et de nombreux représentants de la communauté internationale qui ne comprennent pas de quoi on parle. Ces progrès techniques ne sont partagés que par un certain nombre de pays avancés”, a-t-elle dit.

“Si vous retirez l’éthique, le jugement et la moralité de l’activité humaine, que ce soit en temps de paix ou de guerre, vous entraînez l’humanité à un niveau qui dépasse notre compréhension”, a fait remarquer Sir Roger Carr, président de BAE Systems, gros fabricant britannique d’armes et systèmes aéronautiques.

“On ne peut pas mettre en action quelque chose qui, en cas de dysfonctionnement, peut s’avérer très destructeur, avec aucun mécanisme de contrôle humain” a-t-il ajouté.

“Je suis contre les robots pour des raisons éthiques, mais je ne pense pas que ce sont des raisons éthiques qui vont l’emporter. Je pense que ce seront des arguments stratégiques”, a conclu M. Russell.

Il a rappelé que les Américains avaient renoncé aux armes biologiques parce qu’ils avaient réalisé que ces armes pouvaient être utilisées “par n’importe qui”, contre eux-mêmes.

“J’espère que c’est ce qui se passera avec les robots”, a-t-il ajouté.

“J’espère que de nombreux pays s’efforceront de proposer un projet de traité, dans les deux ans” sur cette question, a-t-il souhaité.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Partner Content