Vous connaissez déjà probablement le deepfake format vidéo, une technique qui permet de réaliser des fausses capsules ultra-réalistes qui se basent sur l'intelligence artificielle. De la contraction entre "deep learning" (apprentissage profond) et fake (faux) en anglais, il s'agit d'une technique de synthèse d'image, qui permet notamment de combiner et de superposer des images déjà existantes sur d'autres images. L'exemple le plus connu reste le changement de visage d'une personne.
...

Vous connaissez déjà probablement le deepfake format vidéo, une technique qui permet de réaliser des fausses capsules ultra-réalistes qui se basent sur l'intelligence artificielle. De la contraction entre "deep learning" (apprentissage profond) et fake (faux) en anglais, il s'agit d'une technique de synthèse d'image, qui permet notamment de combiner et de superposer des images déjà existantes sur d'autres images. L'exemple le plus connu reste le changement de visage d'une personne.Depuis plusieurs années, ses apparitions se multiplient, comme cette vidéo datée d'avril 2018 dans laquelle on voit Barack Obama insulter ouvertement son successeur à la Maison-Blanche, Donald Trump. Si cette vidéo semble ultra-réaliste, elle n'est évidemment pas réelle. Il s'agissait ici d'un vidéo de mise en garde réalisée et publiée par l'humoriste américain Jordan Peele. Mais plusieurs personnalités du monde politique ou artistique ont dû vivre la désagréable expérience de retrouver leur visage, par exemple, dans des vidéos à caractère pornographique, comme ce fut le cas pour Gal Gadot ou encore Emma Watson.Si les autorités, américaines notamment, ont décidé de prendre ce phénomène inquiétant à bras-le-corps (le département de la Défense des USA a investi des millions de dollars pour contrer ces deepfake), les pirates usent toujours de techniques plus sophistiquées pour tromper leur monde. Et les conséquences peuvent être dramatiques : des vidéos compromettantes, par exemple, pour une personnalité influente pourraient être diffusées, avec toujours de plus en plus de difficultés à confirmer ou à infirmer l'authenticité de celles-ci. Il serait très facile de faire dire tout et n'importe quoi à n'importe qui, créant la confusion générale.Trois entreprises déjà victimes du deepfake audioMais cette technique qui se veut de plus en plus réaliste est également un danger pour le commun des mortels : imaginez maintenant qu'un trucage parfaitement réalisé montre un de vos proches vous demandant une faveur financière. Il semble naturel de lui accorder sa confiance. Pourtant, un faussaire pourrait utiliser des algorithmes permettant d'imiter en direct le visage, le corps, les expressions, la voix de cette personne.De plus en plus de pirates s'approprient en tout cas cette inquiétante technologie à des fins criminelles. korii nous apprend ainsi que plusieurs entreprises ont été escroquées par des faux fichiers audio qui imitent la voix du directeur de celles-ci, utilisée dans un appel téléphonique à des employés, leur sommant d'effectuer un transfert d'argent. 3 entreprises en auraient déjà fait les frais.Mais comment ces pirates parviennent-ils à mettre la main sur les sons de la voix de ces personnes en particulier ? Les criminels ont accès à des heures de vidéo-conférences ou encore des vidéos dans lesquelles la voix de plusieurs cadres d'une entreprise sont clairement identifiables et audibles. Ces données sont récupérées et l'imitation peut s'avérer parfaite. "Qui ne se ferait pas avoir par ce genre de choses ?", explique à la BBC Hugh Thompson, chef de la technologie chez Symantec, une grande entreprise de cybersécurité.Si le nombre d'entreprises touchées semble faible, il ne faut pas minimiser le phénomène : les fichiers audio, ainsi que les vidéos, deviennent de plus en plus réalistes et de plus en plus simples à réaliser. "Je ne pense pas que l'infrastructure des entreprises soit prête pour un monde où vous ne pouvez plus faire confiance à la voix ou à une vidéo de votre collègue", explique un spécialiste de la détection de deepfake Henry Adjer, à Axios, repris par korii.