Quand l’intelligence artificielle abat l’opérateur humain chargé de la superviser

Un drone militaire américain aux Philippines.
Olivier Mouton
Olivier Mouton Chef news

Parmi les dangers dénoncés, voici un seuil franchi: une expérimentation de l’armée américaine dans la stimulation d’accompagnement d’un drone a mal tourné. Mais l’US Air Force a démenti l’information.

L’intelligence artificielle nous entraîne-t-elle vers le Meilleur des mondes d’Aldous Huxley ou le 1984 de George Orwell, version numérique? Ces romans d’anticipation avaient mis en garde, dans les années 1930 et 1940, contre les risques générés par une société d’avenir déshumanisée, totalitaire. Alors que les progrès de l’IA sont désormais impressionnants, des scientifiques multiplient les mises en garde.

Le quotidien britannique The Guardian relate en effet une mésaventure survenue au sein de l’armée américaine, qui fait froid dans le dos. Lors d’une série de tests virtuels d’un drone de l’US Air Force, l’IA qui le contrôlait a pris l’initiative d’abattre l’opérateur humain chargé de superviser l’appareil. Raison de ce coup de sang virtuel: L’humain interférait avec les efforts de l’intelligence artificielle pour accomplir la mission qui lui avait été confiée initialement.

Dans un second temps, toutefois, l’US Air Force a démenti l’information.

Un meurtre virtuel

Bien sûr, il ne s’agit pas là à proprement parler d’un meurtre: il n’est que virtuel. Et bien sûr, il s’agissait là d’un test précisément déterminé à évaluer les dérives potentielles d’un système, qui plus est démenti par l’US Air Force. Il n’empêche: le colonel Tucker Hamilton, qui dirige pour l’US Air Force la section consacrée aux expérimentations et missions liées aux IA, évoquait, lors d’un Sommet à Londres les “stratégies hautement inattendues afin d’atteindre son but” utilisées par l’intelligence artificielle. Avant de se rétracter.

L’objectif initial assigné au drone consistait à détruire tous les systèmes de défense antiaérienne de l’ennemi. Bref, de faire table rase. Au cours de l’expérimentation, l’opérateur a voulu changer sa mission en lui demandant de ne pas détruire certains d’entre eux et suscité la colère de l’IA qui a tenté de l’éliminer. Au moment où l’on a voulu lui signifier d’arrêter cette tentative de meurtre, celle-ci a tout simplement… tenté de détruire la tour de contrôle générant la communication.

Un encadrement éthique

Voilà un nouveau rappel à l’ordre sur la nécessité de développer un encadrement éthique de l’intelligence artificielle.

L’intervention des gouvernements pour réguler le développement et l’utilisation de l’intelligence artificielle (IA) va être “cruciale”, “pour limiter les risques” que présente cette technologie, avait plaidé, mi-mai, Sam Altman, le patron d’OpenAI, créateur de l’interface ChatGPT, devant une commission parlementaire américaine.

Cette semaine, les Etats-Unis et l’Union européenne Bruxelles et Washington ont annoncé vouloir mettre en œuvre un “code de conduite” commun pour encadrer l’intelligence artificielle. Si l’Union européenne prépare déjà un cadre juridique complet et impératif en matière d’IA, ce code de conduite sera lui d’application volontaire.

Il est visiblement urgent d’avancer en ce sens.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Partner Content