Le tatouage numérique pour repérer l’IA
Dans un monde ou le vrai se distingue de moins en moins facilement du faux, on developpe de nouveaux outils pour repérer les contenus crées par intelligence artificielle (IA).
Comment mieux repérer les contenus crées par intelligence artificielle (IA) ? Vingt géants du numérique se sont engagés vendredi, en marge de la grande conférence de Munich sur la sécurité (MSC), à développer des outils spécifiques comme le tatouage numérique (“watermarking”, en anglais).
Qu’est-ce que c’est ?
L’IA générative permet de créer, sur simple demande en langage courant, du texte, des images, des fichiers sonores ou des vidéos susceptibles de faire passer pour authentiques des documents générés de toutes pièces. “Le tatouage numérique consiste à insérer un message invisible à l’oeil nu (sur ces documents) qui pourra ensuite être détecté par une machine”, explique Alexis Leautier, ingénieur IA à la Cnil, le gendarme français du numérique. Cette marque permet ensuite de “savoir si le contenu est artificiel et d’avoir une connaissance sur sa provenance.” Si des défauts ou des incohérences dans l’image permettaient jusqu’à présent de repérer le contenu généré par IA, il est désormais de plus en plus difficile de repérer les images modifiées. “Le tatouage permet de rajouter de l’information pour faire la distinction entre le réel et le faux”, affirme Pierre Fernandez, doctorant à l’Institut national de recherche en sciences et technologies du numérique et spécialiste du watermarking IA.
Comment ça marche ?
Dans le cas d’une image, le tatouage modifie quelques pixels, l’unité de base d’une image numérique. “Ce sont des toutes petites modifications, un changement de couleur qui ne représente rien”, explique M. Leautier. “Mais analysées par un ordinateur, on arrivera à retrouver cette petite nuance pour reconstituer le message global qu’il contient.” Le tatouage peut-être apposé au moment de la génération de l’image ou a posteriori. Pour Alexis Leautier, “le plus sécurisant serait d’imposer au propriétaire du modèle de générer lui-même le tatouage”, ce qui permet de remonter directement à l’IA utilisée pour créer l’image.
Quelles IA sont concernées ?
Google expérimente depuis quelques mois SynthID, qui permet d’apposer un tatouage numérique aux images générées par Google Imagen. Si Meta a déjà mis en place ces étiquettes sur les images créées à partir de son outil Meta AI lancé en décembre, le géant américain dit vouloir identifier “dans les prochains mois” toute image générée par IA qui sera publiée sur ses réseaux sociaux. Microsoft, Adobe et d’autres acteurs majeurs de la tech ont fondé la Coalition pour la provenance et l’authenticité des contenus (C2PA), une initiative visant à développer des normes et des solutions technologiques pour vérifier l’authenticité des contenus en ligne. Début 2024, la start-up californienne OpenAI a rejoint la C2PA, donnant la possibilité aux utilisateurs de détecter si une image a été créée par son ChatGPT ou le générateur d’images DALL-E 3. Mais à ce stade, “il s’agit simplement d’informations liées à l’image et non un véritable tatouage”, indique M. Fernandez.
Quels sont les enjeux ?
L’essor de l’IA générative fait craindre des perturbations politiques par le biais de la désinformation ou de la mésinformation à l’approche de plusieurs élections majeures, notamment aux Etats-Unis.
Une vidéo générée par IA a ainsi été récemment diffusée par le parti d’Imran Khan dans laquelle l’ex-Premier ministre pakistanais, actuellement emprisonné, est représenté en train de revendiquer la victoire aux élections législatives. “C’est un risque préoccupant”, analyse M. Leautier, pour qui le tatouage numérique pourrait permettre aux réseaux sociaux “d’avoir un rôle pour empêcher cela d’un point de vue technique.” Au-delà de ces scrutins, le développement de programmes d’IA générative s’accompagne de la production d’un flux de contenus dégradants, selon de nombreux experts et régulateurs, à l’image des fausses images (“deepfakes”) pornographiques visant des femmes célèbres comme anonymes.
Quelles sont ses limites ?
“Les outils existants, comme SynthID, ne permettent généralement que de détecter les tatouages qu’ils ont eux-mêmes généré,”, constate M. Leautier. Des modifications ou des compressions de l’image peuvent également altérer l’efficacité de la détection du marqueur. “Le tatouage offre une protection assez forte, mais on ne pourra jamais empêcher des individus très déterminés de le retirer”, résume M. Fernandez. “Mais ça demande des compétences techniques que tout le monde n’a pas.”