Et si le risque principal de l’intelligence artificielle était sa capacité à prendre des décisions de haute qualité ?
Avant de lancer ses robots dans l’univers littéraire, le romancier et chercheur Isaac Asimov avait pris grand soin d’imposer à ses créatures les trois lois de la robotique afin qu’elles ne puissent jamais se retourner contre leur créateur et l’humanité. En matière d’IA, il serait peut-être judicieux de s’inspirer de ce maître de la science-fiction.
Les trois lois de la robotique, formulées en 1942 par les écrivains de science-fiction Isaac Asimov et John W. Campbell, sont des règles auxquelles tous les robots doivent obéir.
- Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;
- Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;
- Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la première ou la deuxième loi.
Si un robot ne respecte pas l’un de ces trois énoncés, son cerveau est automatiquement grillé. Sorte d’autoprotection de l’humanité contre un avènement des machines, Asimov a inventé les trois lois de la robotique pour explorer les implications éthiques et philosophiques de la création et de l’utilisation de robots dans ses œuvres de science-fiction. Ces lois fournissent un cadre fictif pour réguler le comportement des robots et posent des questions sur la relation entre les humains et les machines.
La nature de la moralité dans un monde technologique
En les intégrant dans ses histoires, Asimov a pu ainsi aborder des thèmes tels que la responsabilité des créateurs envers leurs créations, les dilemmes éthiques posés par l’intelligence artificielle et la nature de la moralité dans un monde technologiquement avancé. Et si ces lois sont devenues emblématiques dans la science-fiction, elles ont aussi influencé la réflexion sur l’interaction entre l’homme et la machine dans le monde réel.
Selon le chercheur et professeur en intelligence artificielle, Stuart Russell, les différents niveaux d’intelligence artificielle (IA) pourraient être définis en fonction de la capacité d’un système à reproduire les capacités cognitives humaines. En schématisant, on pourrait dénombrer 4 niveaux.
Niveau 1: ce niveau correspond à des systèmes qui ne peuvent pas apprendre et n’ont pas de mémoire à long terme. Ils réagissent uniquement aux données d’entrée actuelles sans tenir compte des données antérieures. Par exemple, un programme d’échecs qui ne prend en compte que le plateau actuel sans se souvenir des mouvements précédents.
Niveau 2 : ces systèmes peuvent apprendre et s’améliorer dans un domaine spécifique, mais ils restent limités à ce domaine. Ils n’ont pas de compréhension générale et ne peuvent pas appliquer leurs connaissances à d’autres domaines. Par exemple, les assistants vocaux comme Siri ou Alexa qui peuvent répondre à une gamme limitée de questions et effectuer des tâches spécifiques, mais qui ne comprennent pas le sens des questions.
Niveau 3 : à ce niveau, les systèmes sont capables de comprendre et de résoudre une grande variété de tâches comme le ferait un être humain. Ils ont une compréhension générale du monde et peuvent s’adapter à de nouveaux environnements et situations. Cependant, ils n’ont pas conscience d’eux-mêmes ou d’émotions. Ce niveau n’a pas encore été atteint, et il reste un objectif ambitieux pour la recherche en IA.
Niveau 4 : ce niveau représente une IA qui est non seulement capable de comprendre et de résoudre une grande variété de tâches, mais qui possède également une conscience de soi et une conscience émotionnelle, similaire à celle des êtres humains. Ce niveau est encore théorique et spéculatif pour le moment.
“Tout système intelligent suffisamment performant préférera assurer sa propre survie”
Actuellement, la plupart des systèmes d’IA se situent principalement aux niveaux 1 et 2, avec des avancées significatives dans certaines applications spécifiques qui peuvent ressembler au niveau 3 dans des domaines restreints.
Nous n’en sommes donc pas encore au niveau 4 qui pourrait représenter un risque, selon Stuart Russell. Dans The Myth Of AI, une conversation entre l’informaticien visionnaire de la Silicon Valley, Jaron Lanier et plusieurs chercheurs, Russell avance que « la principale préoccupation de l’IA avancée n’est pas une conscience émergente sinistre, mais simplement la capacité à prendre des décisions de haute qualité, car la fonction d’utilité peut ne pas être parfaitement alignée sur les valeurs de l’espèce humaine ». Des valeurs humaines qui pour le chercheur sont très difficiles à cerner. Dans un deuxième temps, Russell estime que « tout système intelligent suffisamment performant préférera assurer sa propre survie et acquérir des ressources physiques et informatiques, non pas pour elles-mêmes, mais pour réussir la tâche qui lui a été confiée ».
Il n’y aurait donc jamais de volonté de nuire de la part d’une intelligence artificielle, mais la nuisance pourrait arriver par la simple recherche de perfection. Et comme les ordinateurs ne sont que des machines qui visent la perfection, on se dit qu’une mise à jour des lois de la robotique à destination de l’IA serait, peut-être, une chose utile pour l’avenir de nos sociétés.
Intelligence artificielle
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici