Amid Faljaoui

Voice Engine (OpenAI): 15 secondes de votre voix pour vous escroquer?

Avec l’intelligence artificielle, on n’a pas fini d’être étonné. Et c’est vrai que chaque jour apporte son lot de surprises. La dernière trouvaille de la société OpenAI, la maison-mère de ChatGPT, fait peur, car ses bienfaits pourraient être largement surpassés par les malheurs qu’elle peut produire.

Je m’explique, nous ne sommes pas habitués, mais nous savons hélas que des textes peuvent être trafiqués par l’IA. Nous savons que c’est aussi le cas pour les photos et les vidéos et avec un degré de sophistication qui est hallucinant. Et maintenant c’est ma voix, votre voix, qui peut être clonée par « Voice Engine » le petit dernier d’OpenAI.

Bien sûr, le clonage de voix existe déjà et des sociétés comme HeyGen peuvent déjà le faire. J’ai, moi-même, fait le test avec l’une de mes chroniques sous forme d’une vidéo qui reprend ma voix à s’y méprendre. Mais ici, avec Voice Engine, et à en croire la maison-mère de ChatGPT, on va encore plus loin dans la reproduction fidèle de la voix, sur la base d’un simple échantillon audio de 15 secondes. Oui, vous avez bien entendu, pas plus de 15 secondes et cette intelligence artificielle peut cloner notre voix et donc potentiellement nous faire dire n’importe quoi !

D’ailleurs, c’est la raison pour laquelle OpenAI, la maison-mère de ChatGPT, n’a pas encore lâché cette nouveauté en pleine nature, car elle a peur des fraudes et des crimes qu’elle peut générer. La direction d’OpenAI attend de voir ce que vont donner les tests et les remarques d’un certain nombre d’utilisateurs avant de rendre disponible au plus grand nombre ce service de clonage de voix.

Même le président des États-Unis, qui a lui-même déjà été victime d’un clonage de voix (moins bien réalisé que celui d’OpenAi, mais c’était quand même un clonage de voix) Joe Biden s’est ému de cette nouvelle découverte et demande qu’elle soit encadrée, car il a peur que des criminels en col blanc ne s’en servent pour piéger monsieur et madame tout le monde en se faisant passer pour des membres de leur famille.

Le danger est effectivement plus que certain. La voix d’une personne est le moyen le plus sûr de faire confiance à quelqu’un, davantage qu’un texte, une photo ou une vidéo. La voix, c’est vraiment notre identité ! Avant, nous ne nous serions pas posé la question de savoir si la personne qui me parle au téléphone et me demande de verser telle somme sur tel compte est vraiment mon directeur ou le patron de la société, mais aujourd’hui, oui, il va falloir se souvenir que le sel ressemble à s’y méprendre au sucre.

Avec ce clonage de la voix, nous entrons sans le vouloir dans un monde où il sera plus difficile, pour ne pas dire impossible, de distinguer le vrai du faux. Plus que jamais, il faudra que nous apprenions tous à développer notre sens critique (mais de cela, à nouveau, aucun programme politique aujourd’hui n’en parle) cela m’étonne toujours de la part de nos hommes et femmes politiques, car les premières victimes de ces arnaques à l’intelligence artificielle ce sont eux. Je rappelle qu’avec cet outil, il suffit de 15 secondes que je peux capter dans le cadre d’un discours public, d’un speech à la TV ou à la radio, ou lors d’une prise de parole publique, pour que demain je puisse cloner la voix de mon politicien préféré et lui faire dire n’importe quoi. Quand on sait que la moitié de l’humanité va voter cette année, cela fait froid dans le dos.

J’ai pour ma part la nostalgie des inventions utiles et pas celles qu’on nous présente maintenant et qui tournent autour du divertissement infini ou de l’escroquerie. Je ne sais pas si le Diable existe, mais si c’est le cas, il a mis entre nos mains l’arme qui détruira le lien le plus fort qui existe entre nous : la confiance. Quand tout devient sujet à suspicion, quand on ne peut plus distinguer le faux du vrai, je repense à la phrase de Lénine, « les capitalistes nous vendront la corde avec laquelle nous les pendrons » – remplacez « capitalistes » par les « géants du numérique » et vous aurez la nouvelle réalité d’aujourd’hui.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Partner Content