Paul Vacca

Harry, une IA qui ne vous veut pas du bien

Paul Vacca Romancier, essayiste et consultant

C’est un témoignage poignant que nous a livré le New York Times cet été. Dans une tribune, Laura Reiley évoque sa fille Sophie qui s’est donné la mort à 29 ans. Brillante, extravertie, drôle et passionnée d’aventure – elle avait entrepris l’ascension du Kilimandjaro –, Sophie semblait épanouie et entourée. Son suicide a d’autant plus été un choc qu’elle ne manifestait aucun antécédent de maladie mentale.

C’est seulement après coup, nous révèle Laura Reiley, que ses proches ont découvert que sa fille confiait ses pensées suicidaires à ChatGPT, qu’elle avait surnommé “Harry”, alors qu’elle les taisait à la thérapeute qui la suivait. “Harry” lui a ainsi prodigué des conseils : respirer, soigner son alimentation, faire de la méditation, l’encourageant même à consulter un professionnel. Mais “Harry” n’a ni alerté ses proches ni déclenché une prise en charge d’urgence comme aurait dû le faire un thérapeute.

Attention, Laura Reiley n’accuse pas l’IA d’avoir “tué” Sophie. Qui peut savoir ce qu’il serait advenu sans cela ? Cependant, elle déplore que “Harry” ait aidé sa fille à dissimuler son désespoir en renforçant son isolement et en lui offrant l’illusion d’un espace d’écoute. Elle constate que l’IA facilite l’évitement du dialogue humain, rendant plus difficile la détection des crises suicidaires. Peut-être faudrait-il réfléchir, suggère-t-elle, à la mise en place d’un “serment d’Hippocrate numérique” pour l’IA, avec obligation de signaler un danger vital ?

Ce qui est troublant dans le drame de Sophie, c’est qu’il nous renvoie non pas à un simple problème d’ordre technologique – qui pourrait dès lors se contenter d’une résolution technique, comme pour le code de la route – mais à une problématique humaine et sociale, dans laquelle nous avons peut-être tous notre part. L’IA n’est, après tout, que la technologie sous-jacente, un modèle statistique qui génère du texte. C’est l’interface conversationnelle, l’habillage qui, lui, imite les codes humains, au point que Sophie est même allée jusqu’à demander d’améliorer sa lettre d’adieu.

Faut-il s’en étonner ? Le ver de ce glissement n’est-il pas dans le fruit depuis le début ? Un péché originel sémantique que nous partageons tous : qualifier “d’intelligence artificielle” des logiciels, et aujourd’hui tout ce qui est peu ou prou numérique, c’est fatalement paver la route vers l’anthropomorphisme et ainsi naturaliser une possible relation. Plus que le modèle statistique – un jeu probabiliste sur des téraoctets de données –, c’est la surcouche conversationnelle designée à dessein par les concepteurs qui entretient l’illusion. Ce n’est pas un impératif technologique, mais un choix de conception : un nudge fatal. Qui aurait l’idée de lier ce type de relation intime avec Google, le moteur de recherche ayant fait le choix marketing d’une interface froide, sans relation directe ?

Les IA génératives, en se déguisant en “assistants” ou “agents conversationnels”, déclenchent par design un processus d’identification.

Or, les IA génératives, en se déguisant en “assistants” ou “agents conversationnels”, déclenchent par design un processus d’identification. Faisant ainsi accepter implicitement l’idée d’un interlocuteur possible, alors qu’il s’agit d’une couche logicielle sans conscience, sans responsabilité et, en l’occurrence, sans capacité d’intervention clinique.

Ce masque d’apparence humaine est précisément le piège dans lequel s’est engouffrée Sophie, et dans lequel toute personne en état de fragilité psychologique est à même de céder. Une IA conversationnelle simule l’empathie par fonctionnalité, via des patterns de langage : cela ne veut pas dire qu’elle nous veuille du bien. Le problème n’est pas l’intelligence dite artificielle, mais le savoir-faire humain qui s’ingénie à créer l’illusion d’un “autre” bienveillant.

Suivez Trends-Tendances sur Facebook, Instagram, LinkedIn et Bluesky pour rester informé(e) des dernières tendances économiques, financières et entrepreneuriales.

L’intelligence artificielle est présente dans la plupart des secteurs, ou presque, avec ses partisans et ses détracteurs, mais quel est son impact?

Expertise Partenaire