Paul Vacca

Un robot est un conducteur comme un autre

Paul Vacca Romancier, essayiste et consultant

Les robots aussi doivent apprendre à conduire. Certains suggèrent qu’ils devraient être soumis à un permis de conduire.

Nous sommes en 2023 et grâce aux progrès gigantesques accomplis par l’intelligence artificielle, les véhicules autonomes circulent librement sur tout le territoire. Nos rues sont devenues sûres: les robots ne conduisent pas en état d’ivresse, ils n’envoient pas des textos au volant, ils ne ressentent pas la fatigue et ne s’assoupissent pas sur les longs trajets, ils ne s’énervent pas dans les bouchons (qui d’ailleurs n’existent plus)…

Voilà, peu ou prou, le scénario du futur tel qu’il nous a été vendu par les acteurs et les spécialistes chez Tesla ou chez Lyft, la compagnie de VTC, il y a une dizaine d’années. Donc celui que nous devrions, en toute logique, vivre aujourd’hui.

Au lieu de quoi, une décennie plus tard, à San Francisco, l’un des rares endroits sur le globe où les robotaxis sont actuellement en test grandeur nature, on découvre que tout n’est pas si simple. On constate une multitude d’incidents et accidents. La cheffe des pompiers de San Francisco déplorait même en août que les véhicules autonomes aient gêné la mission des pompiers à 55 reprises au cours de l’année, mettant de nombreuses vies en péril. Et on estime qu’Autopilot, le système d’assistance à la conduite de Tesla, a été impliqué dans 736 accidents dont 17 décès aux Etats-Unis depuis 2019.

Cela démontre au moins une chose: si les véhicules autonomes sont appelés à s’imposer un jour, leur route sera plus longue que ce qu’avaient prévu leurs initiateurs et leur paysage bien différent qu’imaginé. Qu’est-ce qui a cloché dans leur prévision?

D’abord, l’idée qui tenait du rêve qu’une voiture autonome concoctée par les ingénieurs en laboratoire serait efficiente dans n’importe quel environnement. Il apparaît au contraire de plus en plus évident que la voiture autonome ne l’est pas tant que cela: elle doit être testée et formée pendant des mois, voire des années selon certains spécialistes, pour pouvoir circuler à Rome, à Bruxelles ou à Oulan-Bator. En réalité, le déploiement de véhicules autonomes dans chacune de ces villes constitue un projet en soi.

Un permis de conduire pour robots ?

Ensuite, à mesure qu’on avance, on voit de nouvelles problématiques surgir: des “comportements” de conduite que l’on ne s’explique pas encore. Mais qu’il va bien falloir comprendre avant de les corriger sur l’IA. Des histoires de priorités et d’anticipations par rapport aux comportements humains notamment. Mais aussi des bugs qu’ont mis notamment au jour les opposants aux robotaxis à San Francisco: ils ont découvert qu’il suffisait de déposer un cône de sécurité sur le capot d’une voiture autonome pour la neutraliser entièrement et la figer au milieu d’un carrefour.

Enfin, plus largement, on s’aperçoit que l’adoption par le public et les institutions risque d’être plus longue et plus ardue que prévue. Car les progrès même réels et spectaculaires ne sont pas perçus pour ce qu’ils sont. En raison de deux biais. Le premier, c’est que chaque accident dû à l’IA, comme l’histoire de “l’homme qui mord un chien”, génère beaucoup plus de bruit médiatique que les millions de morts sur la route pour cause de négligence humaine, auxquels nous nous sommes hélas habitués comme à une fatalité statistique. Le second, a contrario, étant que tous ceux dont la vie a pu être sauvée grâce à l’IA ne savent pas qu’ils lui doivent la vie… précisément parce que l’accident n’a pas eu lieu. Un cercle vicieux bien connu des spécialistes de la prévention.

La grande découverte, 10 ans après, c’est que les robots aussi doivent apprendre à conduire. Certains suggèrent d’ailleurs même qu’ils devraient être à ce titre, comme les humains, soumis à un permis de conduire.

Lire plus de:

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Partner Content