Modifié le 18 novembre 2017 à 16:34

Robots tueurs, les soldats du futur qui n'obéissent encore à aucune règle

Robots tueurs, guerre 4.0
Robots tueurs, guerre 4.0 Geopolitis / 16 min. / le 19 novembre 2017
Des robots capables de tuer sans intervention humaine remplaceront-ils bientôt les soldats sur les champs de bataille ? Le développement de l'intelligence artificielle au service de la guerre fait craindre les pires scénarios.

"Le leader dans le domaine de l'intelligence artificielle sera le maître du monde", affirmait en septembre dernier Vladimir Poutine. Pour le président russe, les enjeux sont considérables, car le développement de nouvelles technologies serait capable de bouleverser les guerres du futur et les équilibres stratégiques existants.

Depuis des années, des drones équipés de missiles et pilotés à distance éliminent des ennemis à l'autre bout de la planète. Demain, des robots autonomes pourraient en prendre le relais. Cette perspective fait naître toute une série de questions éthiques, morales et sur le plan du droit. Des peurs aussi. Le dernier cri d'alarme provient du secteur même de l'intelligence artificielle. Fin août, une centaine de PDG du domaine, dont le milliardaire Elon Musk, ont adressé une lettre ouverte aux Nations unies réclamant l'interdiction des robots tueurs. "Ces armes pourraient être utilisées par des dictateurs ou des terroristes, (...) ou piratées à des fins funestes", disent-ils.

Être tué par un robot ou un soldat, quelle différence ?

Aude Billard, professeur EPFL - Laboratoire des systèmes intelligents

Invitée de Géopolitis, la directrice du Laboratoire d'algorithmes et systèmes d'apprentissage de l'EPFL Aude Billard estime inutile de distinguer armes autonomes et armes traditionnelles: "Utiliser une arme totalement autonome ou semi-autonome pour tuer quelqu'un, le résultat est le même, on a tué quelqu'un", assène-t-elle. "Le problème est en amont. Celui de vouloir utiliser des armes de plus en plus sophistiquées et précises."

Robot, soldat, même combat ?

Dans le cadre de la Convention sur certaines armes classiques de l'ONU, des experts du monde entier se sont réunis cette semaine à Genève pour aborder une nouvelle fois la question des engins autonomes. Faut-il les interdire ? Faut-il adopter une législation internationale ? Le débat n'en est qu'à ses balbutiements.

"Si ces armes parviennent à respecter le droit international (notamment les Conventions de Genève, ndlr), la question centrale est la responsabilité en cas d'erreur. Par exemple, la mort d'un civil au lieu d'un militaire", explique l'expert juridique du GCSP Tobias Vestner, qui évoque pour l'instant un "vide juridique". "A mon avis, une intelligence artificielle ne peut pas être jugée responsable d'un crime international", poursuit-il. "La responsabilité revient à la cause de l'erreur, c'est-à dire le programmateur, le développeur, le commandant militaire ou même le politicien qui autorise cette arme".

Une initiative émanant d'un groupement d'ONG, dont Human Rights Watch, vise à interdire les robots tueurs avant même qu'ils n'investissent les champs de bataille ("Campaign to stop Killer Robots"). Elle combat notamment l'idée de déléguer le droit de tuer à une machine.

Tobias Vestner doute de l'efficacité d'un traité d'interdiction, comme pour le nucléaire: "Les Etats qui détiennent ces armes ne veulent pas se passer de leur avantage, donc ne sont pas prêts à s'engager dans une telle aventure".

Mélanie Ohayon

Publié le 18 novembre 2017 à 08:22 - Modifié le 18 novembre 2017 à 16:34