Lire la chronique d'Amid Faljaoui
Lire la chronique d'Amid Faljaoui
Amid Faljaoui, directeur des magazines francophones de Roularta.
Opinion

26/10/15 à 14:35 - Mise à jour à 14:34

'Pour voir le jour, la voiture autonome devra apprendre... à tuer'

Les voitures autonomes constitueront notre avenir relativement proche, mais avant, les constructeurs vont devoir résoudre un énorme problème éthique.

'Pour voir le jour, la voiture autonome devra apprendre... à tuer'

Deathproof, de Quentin Tarantino. © DR

Tous les constructeurs sont occupés sur ce sujet depuis quelques années. En Californie, ces voitures roulent déjà depuis plusieurs mois de façon expérimentale avec énormément de succès. Mais avant que ces voitures, conçues par des géants comme Google, ne pullulent dans nos villes, les fabricants automobiles vont devoir résoudre un énorme problème éthique: ces voitures autonomes devront être programmées pour tuer ! Et la question que les fabricants devront résoudre, c'est qui devront-elles tuer ?

La question semble étonnante puisque les voitures autonomes sont considérées comme plus efficaces, moins polluantes et plus sûres, car guidées automatiquement par des algorithmes infaillibles et non par des humains sujets à la fatigue ou à la distraction. Alors, pourquoi cette question ?

Pour la comprendre, imaginons que dans un avenir proche, vous soyez installé dans une voiture autonome. Un jour, pour une raison inconnue, comme cela arrive parfois, une foule de 10 personnes traverse la route de manière inattendue. La voiture autonome est hélas trop proche pour freiner à temps. Elle ne peut donc pas éviter la collision. Question: la voiture autonome doit-elle être programmée par son fabricant pour tuer la foule de 10 personnes ou doit-elle braquer brusquement pour éviter ce carnage et vous tuer vous en rentrant dans un mur ?

Partager

Qui osera acheter une voiture autonome sachant qu'elle sacrifiera le conducteur en cas de collision avec plus d'une personne ?

La question n'est pas simple. Si la voiture est programmée pour choisir de tuer le moins de gens possible, c'est vous, le conducteur, qui serez sacrifié ! Et si c'est le cas, qui oserait encore acheter une voiture autonome dont il ne connaît pas la programmation ou dont il soupçonne qu'il sera sacrifié si la voiture entre en collision avec plus d'une personne ?

Question subsidiaire: qu'en est-il si dans la voiture autonome, il y a des enfants ? Les fabricants de ces voitures devront-ils en tenir compte dans leur programmation, partant du principe que la vie d'un enfant vaut plus que celle d'un adulte, car il a plus d'années à vivre ?

On peut bien entendu multiplier ainsi les questions. Et à vrai dire, toutes ces questions ont été posées par un économiste français de renom (Jean-François Bonnefon, Toulouse School of Economics) à des panels de conducteurs potentiels. La réponse ne vous étonnera pas, elle est en forme de paradoxe. Les personnes sondées sont d'accord pour que ces voitures autonomes sacrifient les passagers afin de sauver d'autres vies, pour peu que ces personnes sondées ne conduisent pas les voitures en question. C'est normal comme réaction, c'est très humain. En fait, c'est comme en politique, tout le monde est prêt à faire des efforts, tout le monde est d'accord pour des réformes, à condition que ce soit le voisin qui les

subit !

Donc, oui, la voiture autonome pose un énorme défi aux constructeurs: un défi purement moral, aux conséquences financières énormes !

En savoir plus sur:

Nos partenaires