Un réseau social qui repose sur un formidable outil de génération d’images et de vidéos grâce à l’IA… Il fallait bien évidemment s’attendre à ce qu’il y a des abus, non ? Pourtant, d’après Sam Altman, PDG d’OpenAI à l’origine de Sora, ce n’était pas forcément prévisible.
En lançant son réseau social Sora, OpenAI n’imaginait pas que les contenus créés pourraient être problématiques. C’est en tout cas le postulat affiché par Sam Altman, le PDG de l’entreprise américaine. “Les images ont été différentes de ce qu’on avait pensé”, a-t-il confié à The Verge. “Je pense que la perception qu’on en avait, et la façon dont les gens l’ont réellement vécu, étaient très différentes”, a souligné Altman. L’origine du mal vient de son outil phare, “Cameo”, qui permet aux utilisateurs d’utiliser des deepfakes grâce à Sora 2, la nouvelle version d’outil de génération d’images et de vidéos basé sur l’IA.
Des propos qui trahissent une certaine naïveté face à Internet et un manque de préparation de l’entreprise.
Changement de politique pour les ayants droit
OpenAI a vite constaté les dérives liées à la propriété intellectuelle. Au lancement, les ayants droit devaient exprimer leur refus d’utilisation – une politique d’« opt-out » qui leur faisait porter la responsabilité. Si Disney s’est protégée, Nintendo, lui, ne l’a pas fait. Résultat : des vidéos de Bob l’Éponge en nazi ou en trafiquant de drogue, de Pikachu en criminel et d’autres détournements.
“Sora est devenu très populaire très vite… Nous pensions pouvoir ralentir la montée en puissance ; cela ne s’est pas produit”, a admis Altman, reconnaissant que la situation leur avait échappé.
OpenAI a donc revu sa politique : les ayants droit peuvent désormais choisir explicitement d’autoriser ou non l’utilisation de leurs personnages. En théorie, si un personnage n’a pas été injecté dans Sora, il ne peut plus être généré.
Mais les utilisateurs contournent déjà ces règles, demandant par exemple à l’IA d’intégrer un rôle interprété par une célébrité, sans nommer directement la personne. Des vidéos mettant en scène des personnalités décédées, dont Robbie Williams, Michael Jackson ou Stephen Hawking, ont également émergé, soulignant, là encore, un manque de préparation de l’entreprise. La fille de Robbie Williams, Zelda, a publiquement dénoncé cette utilisation non autorisée.
Des protections pour les utilisateurs
Les abus ne touchent pas que les célébrités. Des utilisateurs lambda ont vu leur deepfake réutilisé dans des contextes gênants. Certains réclament davantage de contrôle, comme l’exclusion de vidéos à contenu politique ou l’interdiction de prononcer certains mots, a expliqué Bill Peebles, responsable du projet Sora, sur X.
“Je pensais que les gens voudraient soit rendre leur “cameo” public, soit le garder privé, mais il y a beaucoup de zones grises“, a reconnu Sam Altman – une preuve supplémentaire de la sous-estimation des risques d’Internet par OpenAI.
Les dérives n’ont pourtant rien de nouveau : deepfakes pornographiques, atteintes à la réputation, détournements d’images… Des abus déjà connus à l’époque de la première version de Sora.
Responsabiliser les individus
Sam Altman a cependant assuré qu’OpenAI n’adaptait pas de position dite “move fast and break things” avec ses produits. Il assure même que des utilisateurs critiquaient l’entreprise d’être “beaucoup trop restrictive” avec Sora et de “censure”, rapporte The Verge. Il a même annoncé vouloir trouver “des moyens d’autoriser davantage [d’usages] au fil du temps”.
“Il faut une coévolution technologique et sociétale”, a indiqué Sam Altman, rejetant d’une certaine façon la responsabilité de contrer les contenus problématiques du côté des individus. Une position que certains estiment “provocatrice”. “Il y aura des défis, c’est certain. Mais la seule manière d’y faire face, c’est de confronter le monde à cette réalité. Et de voir comment il s’y adapte”, a ajouté le patron d’OpenAI, après avoir assuré qu’il n’adoptait pas une approche “move fast and break things”…