Carte blanche

L’IA menaçant de prolonger inutilement le processus de deuil, un cadre juridique clair s’impose

Des chatbots intelligents et des hologrammes plus que réalistes semblent pouvoir ressusciter les défunts. En effet, de plus en plus d’entreprises proposent ce qu’on appelle la “grief tech”, une intelligence artificielle (IA) qui ramène les gens “à la vie”. Selon Ann Costermans, experte en deuil, et Lien Verfaillie de DELA, spécialiste funéraire, la frontière devient de plus en plus mince entre une technologie qui aide les proches endeuillés et une technologie qui perturbe complètement le processus de deuil. Un cadre juridique clair s’impose.

Que se passerait-il si vous pouviez parler une dernière fois à votre père, fille ou meilleur ami décédé ? C’est une question qui préoccupe les gens depuis la nuit des temps et à laquelle les entreprises technologiques utilisant l’IA tentent aujourd’hui de répondre. Récemment, l’histoire d’un Canadien qui a pu converser via Chat GPT avec sa fiancée décédée neuf ans auparavant, grâce aux données recueillies par l’IA, a fait le tour des médias. Ou encore, lors de la foire funéraire annuelle de Louvain, l’entreprise Deusjevoo présentait une technologie permettant de “ramener à la vie” les défunts via des hologrammes. Ainsi, les défunts peuvent eux-mêmes prononcer un discours devant leurs amis et leur famille lors de leurs funérailles. La “grief tech” est en plein essor et influencera de plus en plus notre façon de faire le deuil d’un être cher.

Nous observons avec inquiétude les dangers potentiels qu’un usage incontrôlé de l’IA peut représenter pour les personnes en deuil. Ces technologies créent en effet l’illusion que le défunt est encore présent quelque part. Pour certains, cela peut être peu risqué, mais pour d’autres, prolonger artificiellement la vie du défunt peut mener à un trouble du deuil persistant, caractérisé par un désir intense pour le défunt et un refus de la réalité de son décès.

Et quand faut-il éteindre le chatbot d’un défunt ? Ne risquons-nous pas de devenir accros à un clone digital de notre proche décédé ? Ne créons-nous pas une deuxième perte lorsque nous débranchons ce clone ? Le processus de deuil ne recommence-t-il pas alors depuis le début ? Beaucoup de questions se posent aujourd’hui – malheureusement sans réponses.

Prévenir les dommages émotionnels

Ne vous méprenez pas. Nous ne sommes pas contre le progrès technologique dans le secteur funéraire. Comme dans d’autres secteurs, il est inévitable et apporte également des avancées positives. Une enquête réalisée l’année dernière auprès de plus de 2 000 Belges montre que nous sommes ouverts aux nouvelles technologies dans le domaine du deuil. Plus encore, un Belge sur trois voit l’intelligence artificielle comme une valeur ajoutée pour pouvoir parler avec un être cher décédé.

C’est donc à nous, en tant qu’experts en deuil, de souligner non seulement les opportunités de l’IA pour alléger le deuil, mais aussi de signaler les dangers potentiels de ces technologies et d’empêcher qu’elles ne compliquent pas le processus de deuil pour certaines personnes. Mais pour cela, nous avons besoin de l’aide des éthiciens, des experts en technologie et en confidentialité, ainsi que des législateurs.

Problèmes de confidentialité et d’éthique

Un cadre juridique clair est nécessaire non seulement pour le bien-être des proches, mais également pour le défunt lui-même, qui a aussi des droits. Outre le processus de deuil que traversent les proches, nous ne devons pas ignorer les souhaits du défunt lui-même lorsqu’il s’agit d’applications de l’IA telles que les hologrammes ou les chatbots. Un futur cadre juridique doit donc préciser quelles données peuvent être utilisées pour de telles applications et, surtout, permettre à chacun de donner son consentement avant sa mort pour que sa voix, ses vidéos, photos ou e-mails puissent être utilisés afin de soulager le processus de deuil de ses proches.

L’année dernière, le Parlement européen a introduit un règlement sur l’IA, la première loi sur l’IA, définissant comment nous pouvons utiliser l’intelligence artificielle dans l’UE. Ce règlement met déjà en lumière les risques de l’IA, tant pour l’intérêt public qu’individuel – physique et psychologique. Il décrit différentes catégories de technologies de l’IA, avec différents niveaux de risque, déterminant les conditions que les fournisseurs doivent respecter et les obligations des technologies de l’IA.

Cependant, le texte européen est large et ne mentionne pas la “grief tech”. La catégorisation de la technologie de deuil sous “systèmes d’IA à haut risque” dépendra de la technologie elle-même, de l’objectif et de la nature des données traitées. Nous appelons donc les experts et les autorités responsables pour la Digitalisation en Belgique à tenir compte des risques de l’IA pour les personnes en deuil lors de cette transposition et à intégrer la plus grande prudence pour que l’IA aide notre société à faire face à la tristesse au lieu de l’alourdir avec davantage de souffrance. Nous recommandons à chacun d’utiliser les nouvelles techniques avec discernement.

Ann Costermans, consultante en deuil et perte
Lien Verfaillie, porte-parole du spécialiste funéraire DELA

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Partner Content