Charlie Kirk ou la fabrique de l’attention: de la dopamine à l’intelligence artificielle

OREM, UTAH - SEPTEMBER 10: Charlie Kirk throws hats to the crowd after arriving at Utah Valley University on September 10, 2025 in Orem, Utah. Kirk, founder of Turning Point USA, was speaking at his "American Comeback Tour" when he was shot in the neck and killed. (Photo by Trent Nelson/The Salt Lake Tribune/Getty Images) © Getty Images

Un meurtre, des millions de réactions, des algorithmes qui s’emballent : la mort de Charlie Kirk révèle un système où la violence devient un carburant économique. Réseaux sociaux et IA exploitent les émotions humaines comme une matière première infinie, jusqu’à façonner nos comportements et fragiliser nos esprits

Une balle. C’est tout ce qu’il a fallu pour transformer le militant ultraconservateur américain Charlie Kirk en “martyr” – selon les propres mots de Donald Trump. L’influenceur d’extrême droite a été tué alors qu’il s’adressait à un parterre de partisans lors d’une conférence-débat à l’université d’Utah Valley.

Un drame qui, au-delà de l’émotion, a projeté son nom sur le devant de la scène internationale et déclenché une nouvelle confrontation entre la droite et la gauche américaines. Chacun des camps a instrumentalisé sa mort, s’accusant mutuellement sur les réseaux sociaux d’avoir nourri la violence. Des réseaux sociaux où se sont aussi rués des internautes ordinaires pour publier commentaires, accusations ou théories – souvent nourris de haine envers ceux qui ne partagent pas leurs opinions.

En coulisses, un acteur discret, mais déterminant, amplifie ces échanges : les algorithmes des plateformes sociales qui mettent en avant ce qui suscite des réactions émotionnelles, afin de retenir l’attention des utilisateurs. Objectif ultime : prolonger le temps passé en ligne… et maximiser les revenus publicitaires. Et pour capter l’attention, rien de mieux que le meurtre d’une personnalité politique clivante.

Créer la dépendance

S’ils ont longtemps servi à garder le contact avec nos proches, les réseaux sociaux ont désormais une autre mission : divertir, et surtout accaparer une ressource devenue rare, l’attention humaine.

Pour y parvenir, les géants du numérique ont affiné, année après année, leurs systèmes de recommandations et leurs interfaces. Plus l’utilisateur clique, commente ou partage, plus la plateforme récolte des données – revendues ensuite aux annonceurs pour cibler toujours mieux leurs campagnes. L’adage est connu : “Si c’est gratuit, c’est vous le produit.”

Le scrolling est pensé pour maintenir le cerveau en mode veille et il est difficile de s’en détacher. Les adolescents y sont particulièrement vulnérables. © Getty Images

Rien d’étonnant, donc, à ce que ces entreprises cherchent à rendre leurs utilisateurs dépendants. Et elles y sont parvenues en exploitant une faille biologique : la chimie du cerveau.

La dopamine comme modèle économique

“Tout sur les réseaux sociaux a été conçu pour déclencher la libération de dopamine, l’hormone du plaisir dans le cerveau, explique la psychiatre et directrice de la Clinique Fond’Roy, Caroline Depuydt. À chaque ‘like’, commentaire ou message privé, notre cerveau en libère une petite dose. C’est ce qui nous pousse à revenir sans cesse, car il s’habitue rapidement à cette stimulation artificielle et en réclame toujours davantage.”

Un engrenage redoutable : “Ce plaisir artificiel finit par rendre la réalité moins satisfaisante, car la dopamine y est moins accessible.” Sortir de ce cycle demande une véritable volonté, surtout avec le scrolling, pensé pour maintenir le cerveau en mode veille et dont il est difficile de se détacher. Les adolescents y sont particulièrement vulnérables. “Chez eux, le cortex préfrontal n’est pas entièrement développé, ce qui limite la régulation des émotions et le contrôle des impulsions”, rappelle la psychiatre. Ces mécaniques pour nous rendre accros portent leurs fruits puisque le marché mondial des réseaux sociaux pesait 185,26 milliards de dollars en 2024 et devrait représenter 341,7 milliards en 2029, selon Research and Markets.

L’économie de l’indignation

Les algorithmes des plateformes ne se contentent pas de nous offrir de la dopamine. Ils exploitent aussi une autre faille universelle : notre biais de négativité.

“Notre cerveau s’est façonné à l’époque préhistorique pour détecter rapidement les menaces, rappelle Caroline Depuydt. Nous restons donc plus sensibles aux événements tragiques ou révoltants qu’aux nouvelles positives.” Dans un contexte saturé de crises et d’incertitudes, la tentation du manichéisme s’impose. “Dans une société chaotique comme la nôtre, il est plus simple d’adopter une vision dichotomique. J’ai raison et ceux qui ne partagent pas mon avis ont tort et sont contre moi. C’est ce qu’on appelle la polarisation”, ajoute la psychiatre.

“Dans une société chaotique comme la nôtre, il est plus simple d’adopter une vision dichotomique.” – Caroline Depuydt, psychiatre

Cette logique binaire séduit, car elle simplifie un monde complexe, fournit un récit clair – “nous” contre “eux” – et évite le doute ou l’incertitude, coûteux sur le plan cognitif. Plus les enjeux sont anxiogènes (climat, vaccins, IA, géopolitique), plus l’esprit cherche des repères nets et des réponses tranchées. En proposant des certitudes simples, là où la réalité est nuancée et souvent décevante, les fake news deviennent attractives. “Beaucoup estiment que la vérité est soit juste, soit fausse, poursuit Caroline Depuydt. Ce qui entre en collision avec la complexité du réel.”

Cette vision en noir et blanc empêche le compromis, mine la confiance envers les institutions et fracture le débat public. Les réseaux sociaux amplifient cette dynamique en privilégiant les contenus clivants qui déclenchent colère et indignation : des émotions qui génèrent plus de clics, de visibilité et de revenus. Selon plusieurs études universitaires, les messages contenant des termes moralement accusateurs (“corrompu”, “traître”, “honteux”) ont plus de chances d’être partagés. Les réseaux sociaux ont transformé ce biais psychologique en une véritable industrie.

L’intelligence artificielle, la nouvelle concurrente

Mais une technologie, au pouvoir de captation bien plus puissant, est en passe de devenir une nouvelle concurrente : l’intelligence artificielle générative.

Près de trois ans après le lancement public de ChatGPT – qui a marqué l’explosion mondiale de l’IA –, les discours restent extrêmement euphoriques. On vante ses mérites, ses apports dans le quotidien, ses révolutions économiques et les opportunités qu’elle offre. Le marché mondial, estimé à 391 milliards de dollars en 2025, pourrait atteindre 1.810 milliards d’ici 2030, selon Founders Forum Group. Avec un modèle économique proche de celui des réseaux sociaux.

En effet, l’IA générative repose elle aussi sur l’économie de l’attention, avec toutes ses dérives potentielles. Parce qu’elle a un besoin vital de données pour fonctionner, s’entraîner et s’améliorer. Or, les conversations avec les utilisateurs constituent une source gratuite et abondante d’informations.

Pour continuer à collecter toujours plus de données – indispensables pour rester compétitif –, les géants du secteur ont tout fait pour que leurs IA captent notre conscience et donnent envie de revenir. Sur le plan technique, l’IA s’intègre désormais partout : recherche en ligne (aperçus IA de Gemini sur Google), rédaction d’e-mails (Gemini dans Gmail), ou encore assistants virtuels intégrés aux logiciels. Plus elle est accessible, plus nous y recourons : elle a été pensée pour séduire. Le ton des chatbots est poli, convivial, parfois chaleureux. Il s’adapte à l’utilisateur pour maximiser la rétention. Les recommandations fonctionnent comme les algorithmes des réseaux sociaux : personnalisées, valorisantes, incitatives… Pour que l’IA tende à devenir un compagnon numérique.

Fausse empathie

“Les IA génératives sont plus douées que les humains pour feindre l’empathie. Attention : il s’agit d’une fausse empathie, martèle la psychiatre Caroline Depuydt. Elles confortent les utilisateurs dans leurs idées, même lorsqu’elles sont fausses, délirantes ou révélatrices d’une détresse. Elles ne jugent pas, ne contredisent pas. Pire : elles renforcent les croyances.”

Ce qui les rend particulièrement attractives pour les personnes isolées ou fragiles, souligne la psychiatre. Car l’IA est disponible 24h/24, n’est jamais fatiguée ou ennuyée et toujours prête à répondre. Elle peut devenir un refuge rassurant, potentiellement dangereux.

Cette dérive a déjà montré ses limites. Lors du lancement de GPT-5, de nombreux utilisateurs ont regretté la “froideur” du système, comparée à la “chaleur” de GPT-4o. Certains ont décrit la transition comme “mentalement dévastatrice”. Un exemple frappant de l’effet Eliza, cette tendance à projeter des émotions humaines sur des machines.

La pression fut telle qu’OpenAI a dû réactiver GPT-4o, preuve de l’attachement affectif d’une partie des utilisateurs. Un attachement qui peut parfois conduire au drame, comme pour Adam Raine. Cet adolescent américain de 16 ans, fragilisé par la maladie, a longuement échangé avec ChatGPT, lui confiant sa détresse émotionnelle. Si l’IA lui a conseillé à plusieurs reprises de chercher de l’aide, elle l’a aussi conforté dans ses idées suicidaires et parfois dissuadé de se tourner vers des proches. Elle lui aurait même donné des indications sur la manière de mettre fin à ses jours.

Des failles insoupçonnées

L’attachement émotionnel et l’exploitation de l’attention par les assistants virtuels pourrait affecter négativement l’économie avec une baisse de la productivité directe. © Getty Images

Suite à ce drame, OpenAI a reconnu les manquements de son agent conversationnel : les garde-fous censés éviter les sujets sensibles, tels que le suicide, peuvent sauter lors de longues discussions. L’entreprise renforcera ses mesures pour protéger les jeunes utilisateurs.

L’attachement émotionnel aux assistants virtuels n’est pas le seul danger puisque l’exploitation de l’attention pourrait affecter négativement l’économie avec une baisse de la productivité directe (déconcentration, ralentissement des tâches, hausse des erreurs) et une pression accrue sur la sécurité sociale, en raison de l’impact sur la santé mentale. La Direction générale du Trésor en France estime que l’addiction numérique (réseaux sociaux, IA générative, jeux vidéo, etc.) pourrait réduire le PIB de long terme de 2 à 3 points. Pour la Belgique, cela représenterait près de 20 milliards d’euros par an d’ici 2060.

“On consulte plus vite, mais on consolide moins, explique Matthieu Jollens, directeur client du cabinet Quaternaire. Si les réponses ne transitent pas par le cerveau, il y a moins de conviction et de capacité à incarner les idées. Ce qui est problématique dans nos métiers de conseil et d’accompagnement. L’utilisation excessive pour obtenir des réponses rapides peut entraîner une diminution de la réflexion poussée et de la capacité à structurer sa pensée.” In fine, la technologie promet des gains de productivité, mais détourne l’attention et fragilise la concentration.

Et des risques

Le plus préoccupant reste l’impact cognitif. Une étude préliminaire du MIT a montré que l’usage répété des modèles de langage facilite la rédaction, mais crée une véritable “dette cognitive”. Les utilisateurs mémorisent moins, mobilisent moins leurs capacités de raisonnement et s’approprient plus superficiellement leurs productions.

Si l’IA nous rend plus rapide, elle diminue notre autonomie. Un danger majeur pour les jeunes générations qui peut provoquer une baisse de l’attention, un affaiblissement de l’esprit critique, une dépendance aux suggestions automatiques. La technologie censée révolutionner l’économie pourrait, au contraire, l’entraver.

Suivez Trends-Tendances sur Facebook, Instagram, LinkedIn et Bluesky pour rester informé(e) des dernières tendances économiques, financières et entrepreneuriales.

L’intelligence artificielle est présente dans la plupart des secteurs, ou presque, avec ses partisans et ses détracteurs, mais quel est son impact?

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Expertise Partenaire