Modifié le 25 octobre 2018 à 13:54

Quelle morale faut-il inculquer aux voitures autonomes?

Une voiture autonome lors d'une journée de présentation à la presse.
Quelle morale faut-il inculquer aux voitures autonomes? La Matinale / 1 min. / le 25 octobre 2018
Quelle morale va-t-on inculquer aux voitures autonomes? Dans une situation d'accident, devront-elles protéger leur passager ou éviter l'enfant qui traverse la rue? Des chercheurs ont consulté pendant un an et demi des internautes du monde entier.

Depuis 2016, une plateforme en ligne, baptisée "Moral Machine", enregistre les choix des internautes face à différents scénarios à l'issue fatale. Les résultats de ce gigantesque test en ligne sont publiés mercredi dans la revue Nature.

"Jamais dans l'histoire de l'humanité, une machine n'a été autorisée à décider de façon autonome de qui devrait vivre et qui devrait mourir, en une fraction de seconde, sans supervision en temps réel", écrivent les auteurs. "Nous allons franchir ce cap à tout moment désormais".

Pour ces scientifiques, il est temps d'avoir "une discussion globale" afin que les citoyens fassent connaître leurs préférences aux industriels chargés d'élaborer les algorithmes des voitures autonomes et aux décideurs.

Un enfant, les passagers ou des animaux

Qui l'intelligence artificielle aux commandes de la voiture autonome devra-t-elle sacrifier lorsque l'accident sera inévitable? Entre juin 2016 et décembre 2017, plus de deux millions d'internautes de 233 pays et territoires ont fait le test de Moral Machine, accessible en dix langues. Ils ont exprimé 40 millions de décisions.

Les participants avaient sous les yeux une voiture autonome dont les freins avaient lâché. Elle devait, par exemple, choisir de foncer dans une barrière en béton au risque de tuer son ou ses passagers ou bien de faucher mortellement des animaux domestiques ou différents types de personnes en train de traverser la rue, au vert ou au rouge.

Trois grands principes

"Nous avons vu se dégager trois grands principes sur lesquels les gens s'accordent plus ou moins: protéger la vie humaine plutôt que les animaux, sauver le plus grand nombre de vies et sauver en priorité les enfants", déclare Jean-François Bonnefon, chercheur CNRS à l'Université de Toulouse. "Mais même ces trois préférences fortes peuvent varier d'un pays à un autre". 

"Nous nous attendions à observer un effet de l'âge des victimes potentielles, et les résultats nous ont confortés. L'effet est même plus grand que ce que nous attendions", ajoute ce psychologue. Les profils les plus sauvés ont été les bébés en poussette, les enfants et les femmes enceintes.

afp/ebz

Publié le 25 octobre 2018 à 09:03 - Modifié le 25 octobre 2018 à 13:54

Discrimination entre les personnes à sauver

Les préférences "morales" peuvent prêter le flan à de sérieuses critiques. Ainsi, les médecins (reconnaissables à une croix blanche) et les personnes athlétiques s'en sortent bien, suivis par les cadres dirigeants (identifiables à leur attaché case).

Après les chats et les chiens, puis les criminels (silhouette munie d'un butin), ce sont les personnes âgées que les internautes ont le moins épargné, suivies des sans-abri (en guenilles), puis des personnes en surpoids.

Celles-ci ont 20% de risque en plus d'être sacrifiées qu'une personne à l'allure athlétique. Et "les personnes pauvres ont 40% de probabilité de plus que les personnes riches de se faire écraser", selon le CNRS, qui y voit des "préférences morales controversées".