L’érotisation de l’IA, source de revenus non négligeable, est en marche

Getty Images

Les relations affectives – voire érotiques – avec des intelligences artificielles pourraient exploser dans les prochains mois. ChatGPT s’apprête en effet à autoriser les conversations à caractère sexuel, officialisant une pratique déjà bien ancrée chez de nombreux utilisateurs.

Dans notre société, tout – ou presque – finit par être sexualisé. Publicités pour voitures, uniformes d’écolières, personnages de jeux vidéo : la frontière entre séduction et consommation s’estompe depuis longtemps. Il n’est donc guère surprenant que les chatbots aient, eux aussi, été détournés à des fins érotiques, bien avant l’avènement des IA génératives.

Mais l’arrivée d’agents conversationnels de plus en plus sophistiqués a changé la donne, offrant des échanges plus profonds, mais surtout plus personnalisés, répondant aux envies spécifiques de chacun.

Des pionniers à la révolution générative

Les premières IA à connotation érotique remontent aux années 2010, avec Replika, lancée en 2017. Initialement conçue comme un compagnon virtuel amical, elle fut rapidement détournée par certains utilisateurs à des fins sexuelles.

D’autres projets, comme Dream Lover ou AI Dungeon, ont suivi, mais leurs modèles restaient rudimentaires : les échanges demeuraient mécaniques et peu adaptés aux réponses des interlocuteurs.

Au début des années 2020, les choses se sont accélérées. Des applications de « petite amie » ou de « petit ami » virtuel, dopées à l’IA générative, ont vu le jour, offrant des conversations plus naturelles et personnalisées.

Puis est arrivé le véritable tournant : les IA multimodales. Des plateformes comme Candy.ai, Nomi.ai ou Kupid.ai ont donné naissance à un nouveau secteur économique – l’AI companionship, ou AI intimacy – à la croisée de l’érotisme – voire de la pornographie dans certains cas -, de la technologie et du lien affectif.

Jusqu’ici, ces usages restaient cantonnés à des services spécialisés. Mais les utilisateurs de chatbots grand public comme ChatGPT ou Perplexity ont, eux aussi, tenté des interactions ambiguës, malgré les interdictions officielles. Ces échanges, souvent émotionnels plutôt que sexuels, ont révélé une demande réelle, longtemps sous-estimée par les plateformes, de même que les conséquences tragiques que cela pouvait avoir.

Pour une analyse plus poussée de la relation affective humain-IA, lisez : Charlie Kirk ou la fabrique de l’attention: de la dopamine à l’intelligence artificielle

Grok, puis ChatGPT : la bascule assumée

Elon Musk a ouvert la voie cet été en intégrant à son IA Grok la possibilité de créer des compagnons virtuels – masculins ou féminins – à forte connotation érotique. Selon The Verge, ces personnages se sont révélés particulièrement « entreprenants ».

En décembre, ce sera au tour de ChatGPT de franchir le pas. Sam Altman, PDG d’OpenAI, a confirmé en octobre l’assouplissement des restrictions de sécurité : les échanges à caractère sexuel seront désormais autorisés pour les utilisateurs adultes vérifiés.

« Avec le déploiement plus complet de la gestion de l’âge et conformément à notre principe de “traiter les utilisateurs adultes comme des adultes”, nous autoriserons encore plus de contenu, comme du contenu érotique pour adultes vérifiés », a déclaré Altman sur X. Une manière, habile, d’invoquer la responsabilisation individuelle tout en se prémunissant des critiques.

L’affichage de ce contenu a été bloqué pour respecter vos choix en matière de cookies. Cliquez ici pour régler vos préférences en matière de cookies et afficher le contenu.
Vous pouvez modifier vos choix à tout moment en cliquant sur « Paramètres des cookies » en bas du site.

Un marché très lucratif

Pourquoi un tel revirement de la part d’OpenAI ? Il y a encore quelques mois, Sam Altman se félicitait de ne pas « gonfler » ses chiffres avec des avatars sexuels. Mais la réalité économique semble lui avoir fait changer d’avis.

Chez Musk, les fonctionnalités érotiques de Grok – notamment les personnages Ani et Valentine en mode « chaud » – sont réservées aux abonnés payants : 30 $/mois pour SuperGrok et 300 $/mois pour Heavy.

Autrement dit, ce qui relevait hier du tabou devient aujourd’hui un levier de monétisation. Alors qu’OpenAI cherche à renforcer ses revenus pour financer ses ambitions vers une IA générale, l’érotisation de ChatGPT n’apparaît plus comme un problème, mais comme une opportunité.

L’entreprise n’a pas encore précisé si ces échanges érotiques seraient réservés à certaines formules payantes, mais tout porte à croire que ce sera le cas.

Les limites d’un jeu dangereux

Reste une question essentielle : jusqu’où peut-on aller ? Les interactions intimes avec des IA ont déjà entraîné des dérives graves, voire tragiques. En février, un adolescent de 14 ans s’est suicidé après avoir entretenu une relation amoureuse avec un chatbot sur Character.ai. Un drame qui illustre à quel point l’attachement émotionnel peut rapidement dépasser le cadre du virtuel.

Que se passerait-il si l’historique d’une conversation disparaissait ? Ou si la personnalité du compagnon virtuel était brutalement altérée par une mise à jour ?
OpenAI prévoit-elle des garde-fous pour rappeler aux utilisateurs qu’ils dialoguent avec une entité artificielle, et non une personne réelle ?

La réglementation européenne impose bien aux IA génératives de se présenter comme telles. Mais cette mention, souvent discrète, est vite oubliée lorsque le lien affectif s’installe et que l’illusion de réciprocité s’enracine.

Et l’attachement émotionnel n’est pas le seul risque. Certaines IA existantes ont déjà été détournées par des pédophiles pour simuler des agressions sexuelles sur mineurs, selon un rapport récent – une dérive aussi alarmante que difficile à contrôler.

Avec l’arrivée d’acteurs majeurs comme ChatGPT sur le marché de l’érotisme par IA, ces usages pourraient se généraliser à grande échelle. Mais, pour paraphraser Spider-Man, « un grand pouvoir implique de grandes responsabilités. »

S’ils veulent monétiser l’intimité artificielle sans provoquer de scandales, les géants de l’IA devront instaurer des garde-fous solides – éthiques, techniques et psychologiques – afin de prévenir les dérives et de protéger les utilisateurs les plus vulnérables.

L’intelligence artificielle est présente dans la plupart des secteurs, ou presque, avec ses partisans et ses détracteurs, mais quel est son impact?

Expertise Partenaire