Amid Faljaoui

Sora, la vidéo IA et le monstre du Dr Frankenstein

“On n’arrête pas le progrès”, dit le dicton. Mais parfois, on se demande vraiment s’il ne faudrait pas l’arrêter. Voyez la dernière “trouvaille” de la société OpenAI.

Après le texte avec ChatGPT, après l’image avec Dall-E, l’entreprise passe maintenant à la vidéo avec Sora, le nom de son nouvel outil dopé à l’intelligence artificielle.

La démonstration d’OpenAI du 15 février dernier est à la fois époustouflante et fait peur, très peur. Epoustouflante parce qu’au départ d’une description textuelle, soit quelques lignes, ce nouvel outil peut vous produire une vidéo d’une minute plus vraie que nature. D’une minute… pour l’instant, nous précisent ses créateurs.

L’affichage de ce contenu a été bloqué pour respecter vos choix en matière de cookies. Cliquez ici pour régler vos préférences en matière de cookies et afficher le contenu.
Vous pouvez modifier vos choix à tout moment en cliquant sur « Paramètres des cookies » en bas du site.

Sora est aussi époustouflant car il peut même extraire des scènes d’autres vidéos ou les compléter. A l’heure actuelle, cet outil n’est disponible qu’auprès d’un nombre limité d’utilisateurs. Mais d’ores et déjà, les trucages abondent sur le web et se propagent à une vitesse folle via les réseaux sociaux. Or, si via Sora ou d’autres outils concurrents, vous arrivez à insérer des vidéos plus vraies que nature, nous passons à une autre dimension en matière de désinformation. 

En clair, cette possibilité bientôt offerte à n’importe qui de créer des vidéos ultraréalistes au départ d’une simple requête textuelle est une bombe sociale, politique et économique. Il ne faudra plus avoir de talent, ni avoir suivi des cours de réalisation ou de montage vidéo: il suffira qu’un quidam écrive quelques lignes et hop, comme par magie, la vidéo sera disponible quelques secondes ou minutes plus tard.

Comme le faisait remarquer un spécialiste à mes confrères de la chaîne américaine CBS, “ce qui se passe en ce moment, c’est comme voler avec un avion qu’on est encore en train de construire, sans réglementation aérienne ni tour de contrôle”. Or cet avion pourrait atterrir avant novembre prochain, juste avant les élections les plus importantes de la planète, la présidentielle américaine ! Par ailleurs, si OpenAI teste encore Sora et tente d’estimer les dangers associés à ce nouvel outil, vous pouvez être sûr que d’autres sociétés n’auront pas les mêmes scrupules. La raison ? Au-delà de la désinformation, Sora risque de mettre au chômage une bonne partie du personnel du secteur audiovisuel et donc aussi énormément d’artistes.

Avec le recul, on se demande même si la lutte de pouvoir à la tête de la société OpenAI ne s’explique pas par Sora. A l’époque, souvenez-vous, le patron d’OpenAI s’était fait virer pendant quelques jours avant de retrouver sa fonction. Quelques semaines plus tard, il est légitime de se demander si son conseil d’administration ne s’était pas montré inquiet des plans de son patron, Sam Altman. D’où ma question : Sora était-elle à l’origine du licenciement du patron d’OpenAI ? On finira bien par le savoir. Mais nous comprenons mieux pourquoi les plus grands patrons du monde – réunis début février à Davos – avaient indiqué par sondage interposé que la menace la plus importante pour l’économie et nos sociétés n’était pas le réchauffement climatique, la hausse des taux d’intérêt mais la montée de… la désinformation.

Un monde où plus personne ne sait si ce qu’il lit ou regarde est vrai est par définition un monde invivable. C’est aussi la porte ouverte à tous les partis extrêmes et aux aventuriers sans scrupules. Sora nous rappelle que l’être humain est fasciné par sa propre autodestruction. Sora, c’est le monstre lâché par le Dr Frankenstein.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Partner Content