La Maison Blanche veut que les contenus créés avec de l’IA soient identifiables
Des entreprises américaines à la pointe de l’intelligence artificielle (IA) se sont engagées à rendre cette technologie plus sûre et plus transparente, notamment en travaillant à des systèmes de marquage des contenus créés avec de l’IA pour réduire les risques de fraude et de désinformation.
La Maison Blanche a annoncé vendredi que sept entreprises – Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI – avaient accepté de respecter plusieurs principes dans le développement de l’IA.
Elles ont notamment promis de tester leurs programmes informatiques en interne et en externe avant leur lancement, d’investir dans la cybersécurité et de partager des informations pertinentes sur leurs outils, y compris d’éventuelles failles, avec les autorités et les chercheurs.
Elles doivent aussi “développer des techniques solides pour s’assurer que les utilisateurs savent quand des contenus ont été générés par de l’IA, comme un système de marquage en filigrane”, indique un communiqué de l’administration américaine.
“Cela permettra à la créativité liée à l’IA de prospérer tout en réduisant les dangers liés aux fraudes et aux supercheries”, précise-t-elle.
Déferlement de faux contenus en ligne
Les fausses photographies et les montages perfectionnés (deepfake) existent depuis des années, mais l’IA générative, capable de produire du texte et des images sur simple requête en langage courant, fait craindre un déferlement de faux contenus en ligne.
Ceux-ci peuvent servir à fabriquer des arnaques ultra crédibles ou encore à manipuler l’opinion. Une perspective particulièrement inquiétante à l’approche de l’élection américaine de 2024.
Jusqu’à présent, les principales entreprises concernées se sont montrées plutôt réticentes à l’idée d’ajouter de telles marques sur les contenus créés avec leurs programmes.
“C’est un sujet complexe”, a reconnu un haut responsable de la Maison Blanche lors d’une conférence de presse.
Marque en filigrane
La marque en filigrane “doit fonctionner pour les contenus visuels aussi bien que sonores”, a-t-il détaillé. “Elle doit être techniquement robuste, mais aussi facile à voir pour les utilisateurs”.
“C’est un bon premier pas pour aider le public à identifier des contenus créés avec de l’IA”, a commenté James Steyer, fondateur de l’ONG Common Sense Media.
“Mais ce type de marquage ne suffira pas à lui seul à empêcher des acteurs malveillants d’utiliser de tels contenus à des fins néfastes ou illégales”, a-t-il nuancé, évoquant l’existence de programmes piratés d’IA générative, disponibles en ligne.
En mai, la Maison Blanche avait insisté sur le “devoir moral” des entreprises d’IA de garantir la sûreté et la sécurité de leurs produits.
Les tensions politiques au Congrès rendent de nouvelles lois sur l’IA peu probables dans l’immédiat, mais le gouvernement a indiqué travailler à un décret exécutif.