Les voitures autonomes confrontées aux choix éthiques

Un passant surgit brusquement devant une voiture autonome, obligeant le pilote automatique à prendre une décision brutale : braquer et s’encastrer contre un mur au risque de tuer ses occupants… Ou ne rien faire et écraser le piéton. Face à ce choix cornélien, que décidera l’algorithme du véhicule ? Des chercheurs du MIT viennent de publier une vaste étude sur la question, révélée dans la revue Nature. Ils ont créé la moral machine, une plateforme en ligne qui a recueilli dans le monde entier plus de 40 millions de réponses (fournies par des êtres humains) à des dilemmes éthiques épineux en cas de collision inévitable.

En ressortent quelques grandes tendances : les humains sont préférés aux animaux, les plus jeunes sont épargnés au profit des plus âgés, le scénario qui débouche sur le moins de décès est privilégié. Vicieux, les chercheurs ont également testé les choix des internautes sur des variables plus douteuses, débouchant sur des décisions éthiquement plus discutables. C’est ainsi que les sans-abris, les délinquants ou les obèses se retrouvent plus souvent sacrifiés que les autres. L’étude démontre également des différences non négligeables entre pays sur la manière de régler ces dilemmes moraux. Le Belge est ainsi parmi les plus attentifs au respect de la vie des piétons. Les chercheurs du MIT renvoient la patate chaude aux concepteurs des logiciels des voitures autonomes et aux dirigeants, qui réfléchissent aujourd’hui à la meilleure manière d’encadrer et de réguler ces fameux algorithmes amenés à prendre des décisions délicates à notre place.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Partner Content