Vieillard ou enfant ? Homme d’affaires ou SDF ? Qui les voitures autonomes doivent-elles tuer ?

En cas d’accident inéluctable avec plusieurs piétons, quelle victime une voiture autonome doit-elle choisir ? Cette question a été posée par un groupe de chercheurs dans une étude publiée dans la revue scientifique Nature, le 25 octobre. Elle révèle les préférences de 2,5 millions de personnes, issues de 233 pays, contraintes (par un questionnaire) de choisir les victimes d’un accident. Dans ce questionnaire interactif, les volontaires ont été confrontés à 13 dilemmes, et il leur a été demandé de sélectionner le scénario paraissant le plus moral. Par exemple : en cas d’accident, le véhicule autonome peut-il tuer un vieillard pour sauver un enfant ? Si les freins sont défectueux, est-il plus moral de tuer la conductrice en surpoids ou la piétonne sportive ? Les chercheurs ont ainsi regroupé trois critères communs à la majorité des internautes et remarqué quelques particularités selon les zones géographiques. Par exemple, on sauve plus volontiers les femmes en France qu’aux Etats-Unis. Et en Asie ou au Moyen-Orient, on sauve plus de personnes âgées qu’ailleurs. Ces scientifiques ont pour objectif d’ouvrir une discussion sur ce type de questions. Ils suggèrent qu’un débat éthique puisse être installé entre les firmes qui fabriquent les voitures autonomes et le grand public :

Related Articles

1 Comment

Avarage Rating:
  • 0 / 10
  • marcel , 28 octobre 2018 @ 8 h 51 min

    rien que la question est scandaleuse! une voiture autonome par définition, n’est pas censé avoir un accident puisque le critère humain n’est plus présent, a moins , que finalement les constructeur par cette question, reconnaissent que leurs voitures autonomes ne seront jamais infaillible et donc peut être plus dangereuses que conduitent par des humains !

Comments are closed.