La voiture qui en savait trop : l’intelligence artificielle a-t-elle une morale ? (Vidéo)

Sur la route, si vous n’aviez pas le choix, préféreriez-vous sauver un homme ou une femme ? Un sans-abri ou un cadre supérieur ? Deux jeunes filles ou deux mamies ? Accepteriez-vous de vous sacrifier avec vos passagers pour éviter d’écraser des enfants ?

Les voitures sans conducteur rouleront bientôt dans nos villes. Pour la première fois dans l’histoire de l’humanité, une machine décidera seule qui sauver, sans que l’humain ait le temps de vérifier sa décision. L’algorithme choisira en fonction des critères moraux que nous lui aurons inculqués. Mais sommes-nous sûrs de notre propre morale ?

Comme le montrent les études scientifiques, la valeur que nous accordons psychologiquement à telle ou telle vie diffère en fonction du sexe, de l’âge, de la condition sociale, de l’état de santé de la personne considérée. Nous sommes aussi conditionnés par notre culture. Il n’existe pas de morale universelle. Nous ignorons quelle sera celle des machines. Qui, de nous ou de la machine, prendra les commandes ?

 

La Machine morale 

Related Articles