L’inquiétant phénomène des “deepfake”, ces fausses vidéos ultra-réalistes, la nouvelle grande menace pour la démocratie ?
Discours politiques magistralement manipulés, plus vrais que nature, des stars impliquées dans un scandale de vidéos pornographiques détournées,… le phénomène bouleversant des “deepfake”, une technique qui permet de réaliser des fausses vidéos ultra-réalistes qui se basent sur l’intelligence artificielle, pourrait mener à de graves dérives.
Vous avez peut-être déjà entendu parler de ce phénomène relativement neuf et ô combien inquiétant : celui des “deepfake”. Vous avez peut-être également vu cette vidéo publiée sur le site BuzzFeed dans laquelle on peut voir l’ancien président américain Barack Obama insulter ouvertement son successeur à la Maison-Blanche, Donald Trump : “Trump n’est qu’une sombre merde. Vous voyez, je ne dirais jamais ça dans un discours public, mais quelqu’un d’autre oui, comme Jordan Peele”. Cette vidéo, diffusée en avril 2018, est en fait un fake réalisé par l’acteur et humoriste américain Jordan Peele, qui parvient à faire dire n’importe quoi à l’ancien président américain grâce à une technique sophistiquée basée sur l’intelligence artificielle. Cette vidéo avait justement pour but de mettre en garde contre les dangers liés à cette technique malsaine.
Mais ce n’est pas tout. Le président argentin Mauricio Macri s’est retrouvé malgré lui avec la tête d’Adolf Hitler, ou Angela Merkel avec celle de Donald Trump.
Ces vidéos sont certes fausses, mais elles sont surtout très difficiles à repérer tellement elles semblent réalistes. Le “deepfake”, de la contraction entre “deep learning” (apprentissage profond) et fake (faux) en anglais, est une technique de synthèse d’image, qui permet notamment de combiner et de superposer des images déjà existantes sur d’autres images. L’exemple le plus connu reste le changement de visage d’une personne.
C’est vers la fin de l’année 2017 que le phénomène prend de l’ampleur. Un utilisateur anonyme du site Reddit publie plusieurs vidéos à caractère pornographique qui met en scène plusieurs stars mondialement connues, comme Gal Gadot, Emma Watson, Katy Perry ou encore Scarlett Johansson. On compte à ce moment plus de 8000 vidéos de “fake porn”, où les visages des actrices pornographiques ont été soigneusement remplacés par ceux des actrices et chanteuses.
“Les experts en sécurité pourraient faire la différence entre ce qui est vrai et ce qui est faux, mais une personne lambda peut facilement croire que cette vidéo est réelle“, explique Paul Scharre, expert au Centre pour une nouvelle sécurité américaine, dans un article de France Info. Le spécialiste donne néanmoins deux conseils pour tenter de débusquer ces fausses vidéos : “Vous pouvez voir, si vous regardez d’assez près et utilisez le bon équipement, des changements de couleur à cause du pouls et du sang qui circule. Ça n’arrive pas dans les vidéos truquées, donc c’est le signe que c’est faux. Il y en a un autre : dans beaucoup de vidéos truquées, les gens ne clignent pas des yeux“
Vous pouvez modifier vos choix à tout moment en cliquant sur « Paramètres des cookies » en bas du site.
Une menace pour la démocratie ?
Ce phénomène inquiétant pourrait aller encore plus loin et pourrait menacer la démocratie et peser lourd pour de futures échéances électorales importantes, à l’instar des fake news. “Au cours des deux prochaines années, nous verrons des vidéos truquées jouer un rôle dans les campagnes politiques aux États-Unis ou en Europe. Avec la technologie qui s’améliore, nous verrons des gens créer de fausses vidéos pour essayer d’influencer la campagne, de salir les candidats, et ce sera un défi pour les démocraties. C’est un bras de fer entre ceux qui créent des vidéos et les chercheurs en sécurité qui essaient de mettre au point des outils de détection efficaces“, explique Paul Scharre.
Mais si les “deepfake” ont jusqu’ici concerné principalement des personnalités publiques, elles pourraient également toucher le commun des mortels. “Nos conversations sur Skype pourront être manipulées sur le vif : nous croirons discuter avec un ami en qui nous avons toute confiance, alors que nous serons en contact avec un faussaire utilisant des algorithmes permettant d’imiter en direct le visage, le corps, les expressions, la voix de cette personne”, prévient Giorgio Patrini, cofondateur de DeepTrace, une société italienne spécialisée dans la détection des deepfake, dans une interview accordée au journal Les Echos.
Des logiciels gratuits circulent déjà sur le net, et l’inquiétude grandit. Va-t-on se retrouver dans un monde où personne n’a plus confiance en rien ni personne et où l’information serait presque systématiquement reçue avec méfiance ? Comme l’explique le même article des Echos, les plus alarmistes pensent que nous allons de plus en plus être confrontés à des vidéos truquées de personnalités qui commettent des crimes ou disent des choses très compromettantes pour leur réputation ou celle d’autrui. D’autant plus que si la technique se sophistique encore plus, il sera de plus en plus difficile de dégager le vrai du faux.
Les Américains prennent le problème très au sérieux
Le département de la Défense américaine a en tout cas voulu prendre le problème à bras-le-corps et a alloué près de 70 millions de dollars pour financer des projets “anti deepfake”. Les responsables de la DARPA, une agence du Pentagone, ont lancé un programme appelé MediFor en 2016 et travaillent activement en collaboration avec des instituts et des universités pour contrer les dérives liées au “deepfake”.
Le but de ces dizaines d’organismes qui travaillent de pair avec le gouvernement américain, c’est de mettre en place toute une série d’algorithmes capables d’identifier toutes les imperfections des vidéos truquées, comme une bouche mal dessinée, l’éclairage du visage incohérent avec celui de l’arrière-plan ou des veines de cou sans pouls.
Mais les pirates, toujours de plus en plus précis et dont les techniques vont forcément se sophistiquer au fil du temps, auront peut-être toujours un coup d’avance.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici