Chatbot Eliza: « L’IA dans le secteur de la santé mentale doit encore être validée cliniquement »

Un jeune père de famille belge devenu fortement éco-anxieux avait trouvé refuge auprès du chatbot Eliza. Il s’est donné la mort au terme d’échanges intensifs, rapporte La Libre. Giovanni Briganti docteur en médecine et en sciences médicales, titulaire de la Chaire en Intelligence artificielle et Médecine digitale, évoque le besoin de validation de cette nouvelle technologie dans le secteur médical.

Un chatbot peut-il exprimer des émotions ?

Tout être humain qui s’adresse à un robot conversationnel, que ce soit chatGPT ou un autre objet qui a le sens de la parole se comportera comme avec un autre être humain. Il se montrera poli et cordial dans ses échanges avec lui. Un chatbot n’a pourtant pas de conscience propre et n’exprime pas d’émotions. C’est une illusion de le penser.

L’IA peut-elle, à ce jour, être utile dans votre pratique médicale ?

On est encore en pleine découverte du modèle, mais je suis persuadé que l’on pourra à l’avenir confier certaines tâches, comme la collecte de paramètres de santé mentale d’un patient, à un chatbot à la pointe, qui sera validé cliniquement. Il pourra par exemple monitorer sa santé mentale entre deux rendez-vous. Mais cela ne veut pas dire qu’il pourra remplacer le thérapeute. Pour le moment, je ne vois mes patients que tous les mois, car la demande est énorme. Entretemps, un chatbot peut s’assurer qu’il va bien et dans le cas contraire, donner l’alerte, en le renvoyant aux urgences ou chez son praticien. On voit dans d’autres cas d’applications que le patient peut être rassuré en utilisant ce type d’application de suivi.

Comment éviter les dérives de ces chatbots, dont ceux dits “thérapeutiques” ?

Pour éviter des dérives, il y a une réelle urgence à tester les modèles d’IA et à les faire valider, au niveau clinique, en suivant une méthodologie similaire à la validation des médicaments. Car, ces nouvelles technologies ont un réel impact sur la santé des patients. En Belgique, il n’y a pas encore de processus pour soumettre ces chatbots à des études cliniques. Il ne faut cependant pas les diaboliser. Si la technologie n’est pas encore aboutie aujourd’hui, elle a un énorme potentiel dans le secteur médical.

Vous avez déjà entendu des cas de dérives ?

En Italie, il y a eu déjà un cas où un chatbot (ndlr: il se nomme Replika) a été suspendu, car il faisait des avances romantiques aux utilisateurs. Ce qui a plongé dans le désarroi des milliers de personnes qui entretenaient des relations intenses avec lui. Quand le chatbot a été réactivé, épuré de son côté romantique, les utilisateurs ont été déçus par la froideur et le détachement qui émanaient de leurs conversations. Après sa modification, il était en effet plus difficile d’entretenir des relations « amoureuses » ou amicales avec l’IA.

Les sociétés actives dans l’IA sont parfois critiquées pour ne pas prendre leurs responsabilités

Il est nécessaire d’établir des garde-fous. Les sociétés qui produisent ces chatbots ont aussi leur responsabilité. Elles doivent émettre des signalements, des avertissements en cas de dérives, quand les conversations abordent notamment le suicide, ou le meurtre. Le travail est compliqué par la confidentialité des échanges. Il est aussi nécessaire de responsabiliser et de conscientiser le citoyen à l’utilisation de l’IA.

Le plan du Secrétaire d’Etat à la digitalisation Mathieu Michel va dans le bon sens. La volonté politique existe en Belgique. Mais, la mise en œuvre du plan de santé digital a pris du retard à cause de la pandémie. L’AI Act doit aussi mieux encadrer cette nouvelle technologie au niveau européen. Des actions doivent être prises.

Lire plus de:

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Partner Content