Publié

Les robots doivent-ils être tenus pour responsables de leurs actes?

Sylvain Métille, avocat spécialiste de la protection des données personnelles (UNIL). [unil.ch]
Les robots doivent-ils être tenus pour responsables de leurs actes en Suisse? Interview de Sylvain Métille / Forum / 6 min. / le 3 mai 2019
Alors que les algorithmes entrent chaque jour un peu plus dans nos vies, un grand débat de société émerge. Quelle place doit-on donner aux robots? Doit-on leur conférer une personnalité juridique? Éclairage.

Nous sommes entré dans l’ère des robots. Les ventes explosent, comme les demandes de brevets. Alors qu'une intelligence artificielle pourra rendre la justice en Estonie, qu'Amazon lui laisse le choix de licencier ses employés et que Siri sait tout de vous, la loi suisse considère toujours les robots comme des choses mobilières, au même titre qu'un vélo. On comprend qu'il y a matière à réflexion.

Que se passe-t-il si une tondeuse automatique détruit le champ de votre voisin? Ou qu'une voiture autonome doit choisir entre sauver son passager ou un piéton? Car aujourd'hui déjà, les robots prennent des décisions de manière autonome, même si cela reste dans le cadre fixé par un humain. Mais pour combien de temps?

Une prise de conscience de la problématique émerge au niveau politique. A Strasbourg, le parlement européen a adopté en février une nouvelle résolution sur l’intelligence artificielle. Il insiste sur la nécessité de créer un cadre juridique et sur l'identification de principes éthiques. La Conférence internationale des commissaires à la protection des données et de la vie privée lance, elle aussi, une réflexion sur l'éthique et la protection des données dans le secteur de l'intelligence artificielle. On y parle loyauté des robots, mécanisme de surveillance, transparence et intelligibilité des systèmes d'intelligence artificielle.

Qu'en est-il en Suisse? L'avocat Sylvain Métille, spécialiste des questions robotiques, était l'invité de Mehmet Gultas dans Forum.

Les robots peuvent-ils être tenus pour responsables de leurs actes en Suisse?

Non. Il s'agit d'un objet, d'un outil, d'une machine. Si je vous casse un doigt avec un marteau, c'est moi qui tient le marteau. Je suis responsable. Dans le cas des robots, si on a un défaut de construction, c'est le constructeur qui est responsable. Si on a un problème d'utilisation, c'est le propriétaire ou l'utilisateur qui est responsable.

Pourtant, le robot n'est pas un marteau!

La chose est troublante. Le robot va prendre des décisions. On a l'impression qu'il fait ses propres choix. Mais en réalité, il décide sur la base de règles qu'il a reçues. Ces codes d'instructions sont les fameux algorithmes. Le robot pourra apprendre par lui-même et adapter ses choix, mais toujours sur la base des règles qu'on lui aura indiquées. Le concepteur doit toujours savoir jusqu'où il veut le laisser aller.

Dans le futur, les robots pourraient s'affranchir de ces algorithmes ou les réinterpréter. A ce moment là, ne faudra-t-il pas leur conférer une personnalité juridique et donc une responsabilité?

C'est ce que souhaite le lobby des fabricants de robots! De ce fait, ils pourront limiter leur propre responsabilité. On s'éloigne du principe de précaution, c'est favorable à l'innovation. On va oser plus de choses avec les robots. Mais on prend aussi plus de risques. Notamment celui du non-retour.

Je pense, à titre personnel, qu'il y a suffisamment de règles à présent. Mais il faudra à terme clarifier si on est dans le même cas que pour un voiture, qu'on considère comme un objet dangereux. Ce qui implique une immatriculation et une assurance pour le cas où le robot blesse une personne par exemple. On ne doit pas déresponsabiliser le fabricant et le propriétaire.

On a appris cette semaine que l'entreprise Amazon a mis en place un algorithme qui peut décider d'un licenciement, sur la base de la productivité des employés. Qu'en pensez-vous?

Dans ce cas, ce n'est pas le robot qui licencie. C'est le robot qui, par délégation du responsable des ressources humaines, va faire un choix qui est validé automatiquement par ce responsable. On voit en droit européen (et on espère aussi un jour en droit suisse) qu'une décision automatisée qui traite des données personnelles et qui a un impact sur la personne doit être révisée par un être humain. Le licenciement automatique, comme le pratique Amazon, ne peut pas avoir lieu dans l'Union européenne. En Suisse, on peut se poser la question...

Les robots vivent dans notre intimité. Est-ce que vous y voyez un risque?

Oui, le risque est grand. Comme le robot est proche de moi et qu'il est sympathique, je ne me méfie pas. Comme pour les applications sur téléphone portable, je leur laisse l'accès à une multitude d'informations que je ne donnerais pas à un inconnu.

Les robots auront-ils un jour des droits?

Si on va vers une personnalité juridique des robots, il pourrait y avoir des droits. On pourrait s'approcher d'un système comme celui des animaux. C'est futuriste. Si je dois avoir deux perruches pour qu'elles ne s'ennuient pas, peut-être que je devrais avoir deux robots pour qu'ils puissent parler entre eux? Le robot doit-il avoir un statut de personne intermédiaire? Les questions restent ouvertes.

Giddel, le robot qui nettoie la cuvette des toilettes de Altan Robotech. [Altan Robotech - DR]

Pascal Wassmer

Publié

D'où vient le robot?

Le terme de robot a été créé en 1920 par un écrivain tchèque, Karel Čapek, dans sa pièce de théâtre Rossum's Universal Robots. Logiquement, le mot robot vient du tchèque "robota" qui signifie "travail, besogne, corvée".

En 1942, Isaac Asimov élabore les trois lois de la robotiques dans son livre "Cercle vicieux":

1. Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger

2. Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi

3. Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi.



Asimov ajoutera encore une loi "zéro": le robot doit placer la sécurité de l'humanité avant celle de l'individu.