Le Dr Laurent Alexandre, grand spécialiste de l’IA et qu’on ne présente plus, a une formule qui a fait mouche : “L’IA, ce n’est pas un cerveau humain. C’est un chien… avec un QI très élevé.”
Un chien. Voilà qui change des fantasmes de Skynet, l’intelligence artificielle malveillante de la saga cinématographique Terminator. Autrement dit, cela tranche avec l’imaginaire catastrophiste dans lequel l’IA deviendrait une machine autonome, malveillante, qui prendrait le pouvoir et détruirait les humains. Et pourtant, cette métaphore du chien du Dr. Laurent Alexandre est bien plus inquiétante qu’il n’y paraît.
Car imaginez un chien. Fidèle, rapide, obéissant. On lui apprend à détecter des bombes, à sauver des gens, à retrouver un enfant dans les décombres. Formidable.
Maintenant imaginez ce même chien… avec un QI de 160. Un chien qui comprend tous les langages, dévore Wikipédia, rédige des rapports, anticipe vos humeurs, note vos performances, fait vos comptes… et bientôt votre métier.
Il ne comprend pas le sens de ce qu’il fait, mais il l’exécute parfaitement. Il est puissant mais bête, utile mais dangereux, docile mais incontrôlable si mal dressé.
Et c’est là que la métaphore du Dr. Laurent Alexandre devient brillante. Car l’IA ne rêve pas, ne pense pas, ne doute pas. Elle calcule. Elle prédit. Elle exécute. Mais comme un chien de chasse lancé à toute vitesse : elle ne sait pas où elle court, ni pourquoi. Elle fonce. Elle fait ce qu’on lui dit. Elle optimise. Et parfois… elle vous ramène un gibier que vous n’avez jamais voulu tuer.
Or, c’est ce qui se passe en ce moment dans les entreprises.
On intègre de l’IA générative pour optimiser les coûts. Très bien. Mais elle optimise aussi… l’élimination des tâches humaines. D’abord les métiers répétitifs. Puis les métiers intermédiaires. Puis les métiers dits créatifs.
Et que fait ce chien intelligent ? Il vous propose de licencier 30 % de vos effectifs. Logique. Rentable. Mais inhumain.
Vous voyez le problème ? Le QI ne fait pas la morale. Il ne connaît ni l’éthique, ni la justice, ni la solidarité. Il connaît l’objectif. Et si votre objectif est la marge… il s’en charge. Avec zèle.
Autrement dit : ce chien très intelligent ne vous trahira pas. Mais il risque de vous obéir trop bien.
Et c’est peut-être ça, le cœur du danger : le capitalisme, dopé à l’IA, devient un système sans frein moral. Le patron qui décide de supprimer un service client pour le remplacer par un chatbot n’est pas méchant. Il est juste « conseillé par l’IA ». Il suit la data. Il gagne du temps.
Mais à force d’obéir à ce chien intelligent, on devient soi-même un maître automatique. Un gestionnaire sans intuition. Un humain qui ne décide plus, mais qui acquiesce.
Et ce n’est pas de la science-fiction. C’est la réalité de 2025. Le monde des RH, de la finance, de la médecine, du droit, du journalisme… Tout le monde utilise désormais ce chien savant. On ne le remet pas en cause. On l’installe. On lui fait confiance.
Et un jour, peut-être, il se retournera. Pas par méchanceté. Mais par excès d’intelligence… et absence de sens. Alors oui, l’image du Dr Laurent Alexandre est brillante : l’IA, c’est un chien avec un QI très élevé. Mais la vraie question, c’est : sommes-nous encore capables de le tenir en laisse ?