Juillet-août 2016

Le 8 juillet 2016 marque un tournant dans l’utilisation de ces "robots-tueurs" que l’armée utilise depuis quelques années : pour la première fois, en effet, cette arme de guerre a été employée aux Etats-Unis dans un cadre civil. Cet événement inédit ne laisse pas indifférent, soulève bien des questions éthiques et relance le débat sur l’utilisation de ces machines déjà présentes dans les conflits armés.

Après la mort de deux hommes noirs abattus par la police de Dallas, au Texas, la manifestation du 7 juillet organisée pour dénoncer les violences policières à l’encontre de la communauté noire, s’est tristement achevée dans le sang  avec cinq policiers tués et six autres blessés par un tireur embusqué. Celui-ci, Micah Johnson, qui s’était retranché dans un parking, a finalement été tué par un robot télécommandé.

Ce robot est un petit robot monté sur chenilles, équipé d’une caméra et d’un bras articulé sur lequel une charge explosive a été ajoutée. Commandé à distance, on l’a approché du suspect et on a déclenché la charge explosive.

Jusqu’à présent, ces machines étaient utilisées pour désamorcer des bombes dans des conflits armés. Le recours à ce type de robots par les forces de l’ordre a ému une partie de la population. Le chef de la police de Dallas s’en est justifié en expliquant que toutes les autres solutions auraient gravement mises en danger les policiers chargés de l’intercepter.

De nouvelles armes qui posent question

Cet événement suscite déjà beaucoup de débats éthiques. Dans le cas présent, la décision d’envoyer ce robot tueur, a été prise par des humains. Mais qu’en sera-t-il demain avec des robots qui deviennent de plus en plus autonomes grâce à « l’intelligence artificielle », et qui pourront prendre, eux-mêmes, la décision de tuer ou non une personne ?

De tels robots armés pouvant agir sans contrôle humain ne sont déjà plus du domaine de la science-fiction : le premier robot policier chinois anti-émeute et anti-terroriste du nom de AnBot, peut poursuivre un malfaiteur à la vitesse de 18 km/heure et lui envoyer une décharge électrique pour l'immobiliser.

De son côté, la Corée du Sud a fabriqué une tourelle de défense autonome équipée de capteurs thermiques, de caméras et de mitrailleuses, capable d’identifier, de suivre et de détruire une cible en mouvement à plusieurs kilomètres de distance, en prenant elle-même la décision de tirer. Ce qui signifie qu'il existe désormais des machines qui commandent du droit de vie ou de mort sur des êtres humains !

Les questions que posent ces robots sont nombreuses même si les fabricants de ces engins affirment que les risques d’erreur sont infimes. En effet, les industriels expliquent que ces robots sont équipés d’une base de données contenant, entre autres, les caractéristiques d’un ennemi, savent distinguer un civil d’un militaire, un ennemi d’un ami… Mais ces affirmations sont-elles fiables à 100% ? Se pose également la question de la responsabilité pénale de ces robots en cas d’erreur ou de crimes de guerre : qui serait tenu responsable ? Le fabricant du robot ou le commandant de la zone de combat ?

Plusieurs centaines de scientifiques, des prix Nobel et des organisations non gouvernementales (ONG) demandent l’interdiction de telles machines jugées trop dangereuses. Ils rappellent que les robots ne sont pas dotés de conscience, de jugement, de morale ou d’empathie et que seul un être humain peut décider de ne pas tirer sur d’autres êtres humains. Ils estiment qu’autoriser de telles armes autonomes va enclencher une course folle à l’armement, d’autant plus que ces armes peu coûteuses à fabriquer sont susceptibles d'être interceptées par de dangereux terroristes, des dictateurs ou des chefs de guerre qui pourraient s’en servir contre des populations civiles.

Les militaires et les fabricants d’armes rétorquent que cet armement permet au contraire de limiter le nombre de soldats tués sur le terrain. Envoyer des drones ou des robots sur des zones de guerre permet sans doute d’épargner des vies de militaires, mais cela ne risque-t-il pas d’augmenter lourdement le nombre de morts et de blessés chez les civils ?

Les robots intelligents… et dociles d’Isaac Asimov

Avec « Le cycle des robots » qui regroupe de nombreuses nouvelles et romans, Isaac Asimov, auteur de science-fiction,  a consacré une partie de son œuvre aux robots, qu’il imaginait pourvus d’une intelligence artificielle au moins égale à celle des êtres humains. Alors que le public se montrait craintif et suspicieux envers eux, craignant qu’ils n’échappent un jour à leurs créateurs et finissent par dominer le genre humain, il voulut mettre un terme à cette phobie et inventa des robots incapables de nous nuire. C’est ainsi qu'il écrivit les trois lois de la robotique :

  1. Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger ;
  2. Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
  3. Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi.

Ces lois ont été écrites dans un cadre littéraire, et l’auteur pouvait jouer sur des contradictions et créer des situations de dilemmes où le robot devait choisir entre deux vies humaines ; dans ces conditions, Asimov formula plus tard une quatrième loi visant à consolider les trois premières : «un robot ne peut ni nuire à l'humanité ni laisser sans assistance l'humanité en danger».

Avant de faire intervenir des robots dans la vie des hommes, il est sans doute nécessaire de méditer sur ces lois de la robotique. Car cette technologie, qui peut nous apporter le meilleur comme le pire, doit être pensée et mise en application pour nous servir et non pour nous détruire !

Pour aller plus loin…

Un article du Radis vert, rédigé à partir des sources suivantes :

Libération.fr ; lefigaro.fr ; lemonde.fr ; blog.lemonde.fr ; humanoïdes.fr ; amnesty.fr ; futura-sciences.com ; wikipédia.org