L’IA n’a jamais autant impressionné. Les modèles de langage progressent encore, mais la course des dernières années se heurte désormais à des limites tangibles et des erreurs tenaces. Entre percées techniques et illusions entretenues, le futur de l’IA apparaît moins linéaire qu’on ne l’imaginait.
Longtemps présentés comme la vitrine la plus spectaculaire de l’intelligence artificielle, ChatGPT et l’innombrable famille de modèles qui lui ressemblent se sont glissés dans nos usages quotidiens au point de redessiner nos manières de travailler, de chercher, d’écrire. Cette révolution, bien réelle, a pourtant nourri une illusion tenace d’une intelligence en croissance exponentielle, renforcée par des discours médiatiques enthousiastes et parfois flous sur les capacités réelles de ces systèmes. Beaucoup d’utilisateurs en ont tiré l’idée que cette progression se poursuivrait indéfiniment.
Or, des limites apparaissent aujourd’hui plus clairement. Les modèles fondés sur les LLMs (Large Language Models) semblent atteindre un palier, leur taux d’erreur semble difficile à réduire et ils restent entièrement dépendants des données qui ont servi à les entraîner. Ils prédisent du texte à partir de corrélations statistiques, sans véritable compréhension du monde et sans capacité d’exploration autonome.
Un effet d’habitude?
Dans un document publié en avril 2025, OpenAI reconnaît même que ses nouveaux modèles de raisonnement ne sont pas exempts de faiblesses. Pour Gilles Louppe, professeur à l’ULiège et chercheur en intelligence artificielle, cette impression de limite est probablement due “à un effet d’habitude chez les utilisateurs”.
“Les améliorations d’une version à l’autre sont bien là, mais elles sont plus incrémentales, et surtout moins visibles pour quelqu’un qui ne pousse pas le modèle dans ses usages les plus avancés, dit-il. Pour des tâches simples, la version d’une IA d’il y a un an faisait déjà très bien le travail. Au niveau de la recherche, on aurait pu croire à une saturation des LLMs, car plusieurs modèles concurrents atteignent des performances similaires. Jusqu’il y a une semaine, j’aurais même osé dire qu’on approchait certainement d’un plateau. Mais entre-temps, Google a sorti Gemini 3, et le gain de performance est, cette fois-ci, significatif, y compris par rapport à GPT-5.1. Donc non, le plafond n’est visiblement pas encore atteint. Il reste du potentiel pour les LLMs”.
Il faut noter également que les modèles deviennent de plus en plus multimodaux. En plus du texte, on les entraîne avec des images, du son, de la vidéo, etc. Là, il y a encore beaucoup de potentiel. Google, par exemple, entraîne probablement son IA Gemini sur le contenu vidéo de YouTube. Il y a énormément d’informations à aller chercher dans ces contenus. Mais c’est techniquement plus compliqué car l’architecture actuelle des IA est pensée pour du texte. Reste que des chercheurs pensent que l’on finira par atteindre un palier d’ici quelques années. Il faudra alors penser à des architectures alternatives, comme les world models.”
“World models”
Pour plusieurs spécialistes, les world models constituent aujourd’hui l’une des pistes les plus prometteuses pour dépasser les limites des LLMs. Contrairement aux modèles actuels qui prédisent du texte à partir de corrélations statistiques, un world model cherche à se construire une représentation interne du monde à partir d’images, de sons ou d’interactions directes. Il apprend comment un environnement fonctionne, anticipe les conséquences possibles d’une action et peut simuler mentalement plusieurs scénarios avant d’agir.Cette capacité de planification et de raisonnement causal, proche de celle d’un humain ou d’un animal, ouvre la voie à des systèmes plus robustes, plus autonomes et moins dépendants des données textuelles existantes. C’est l’approche défendue notamment par Yann LeCun, qui y voit une alternative nécessaire pour franchir une nouvelle étape dans l’intelligence artificielle.
Hallucinations
Reste un écueil dont aucun laboratoire ne sait encore se défaire, le véritable talon d’Achille des modèles actuels : leur propension à halluciner. Le terme désigne des réponses incorrectes, parfois totalement inventées, mais formulées avec une assurance déconcertante, que le système produit lorsqu’il extrapole au-delà de ce qu’il sait réellement. L’IA ne ment pas, elle complète et devine, elle comble les vides comme un auteur qui poursuivrait une phrase alors qu’il n’a pas lu les chapitres précédents.
“Je pense que cela va rester un problème majeur dans les années à venir, poursuit Gilles Louppe. Ces modèles sont entraînés de façon statistique à produire des réponses plausibles, mais jamais à prédire des réponses correctes. Ils apprennent à reproduire les données qu’on leur fournit, qu’elles soient vraies ou fausses. Le modèle génère des tokens (une unité de texte, comme un mot, une partie de mot, un caractère ou de la ponctuation, ndlr) qui sonnent juste, mais il n’a aucun mécanisme d’introspection lui permettant de dire ‘ça, c’est vrai’ ou ‘ça, c’est faux’.
“Les modèles d’IA sont entraînés à produire des réponses plausibles, mais jamais à prédire des réponses correctes.” – Gilles Louppe (ULiège)
Dans les versions avancées, on peut réduire ce problème en combinant le modèle avec des outils externes, notamment des moteurs de recherche. Le système génère alors plusieurs réponses en parallèle, fait appel à des sources externes, rassemble les résultats, puis produit une réponse finale. On ne lui demande donc plus de prédire directement la vérité, mais de mettre en œuvre une procédure pour aller la chercher ailleurs, même si cela coûte beaucoup plus d’énergie et de calcul.”
Super-intelligence
Dans les bureaux d’OpenAI, les chercheurs s’aventurent dans d’autres directions, plus ambitieuses et parfois controversées. Ces pistes pourraient mener à une intelligence artificielle plus générale, voire à la super-intelligence. OpenAI avance plusieurs raisons pour lesquelles une super-intelligence serait, selon elle, non seulement inévitable, mais utile. L’entreprise la présente comme une technologie susceptible de résoudre “les problèmes les plus importants du monde et d’accélérer la recherche scientifique bien au-delà des capacités humaines”. Ce modèle soulève aussi de nouveaux doutes et replace au centre du débat une question essentielle, à savoir jusqu’où sommes-nous prêts à aller dans cette quête d’une intelligence qui dépasserait la nôtre ?
En juillet 2023, OpenAI publiait une note stratégique alarmante consacrée au “superalignment”, c’est-à-dire à la manière de contrôler une future superintelligence. L’entreprise y reconnaissait que cette technologie, décrite comme “la plus puissante jamais inventée”, pourrait aussi devenir dangereuse au point d’entraîner une “perte de contrôle de l’humanité, voire son extinction”.
Surtout du marketing
“Il ne faut pas se tromper, la communication alarmiste d’OpenAI, c’est aussi de la stratégie, sourit Gilles Louppe. S’ils poussent les États à créer des lois, ils peuvent ensuite dire : ‘Nous, on respecte déjà la loi’, et verrouiller le marché. C’est une façon de créer artificiellement un monopole.
La ‘superintelligence’, c’est surtout du marketing ou de la spéculation à ce stade, même s’il est vrai que cela reflète aussi une ambition certaine de réellement développer de tels systèmes. Mais personne ne sait si ça passera par les architectures LLMs. Moi-même, en tant que chercheur, je ne peux pas vous le dire. Avant, les chercheurs d’OpenAI publiaient des articles scientifiques sur leurs avancées. Depuis deux ou trois ans que ces systèmes d’IA sont devenus des produits commerciaux, les entreprises sont très fermées. On ne sait plus ce qu’elles font. Personne ne peut dire ce qu’elles préparent car les enjeux stratégiques sont énormes et les montants financiers engagés sont colossaux.”
Reste que le 22 octobre dernier, un front inattendu s’est formé contre la superintelligence. Plus de 700 scientifiques, responsables politiques et figures publiques ont demandé d’arrêter la fuite en avant vers une intelligence artificielle capable de dépasser l’humain. Dans une lettre ouverte publiée par le Future of Life Institute, une ONG américaine qui alerte depuis des années sur les dérives possibles de l’IA, les signataires appelaient à une pause nette.
700 signatures
“L’initiative demande l’interdiction du développement de la superintelligence jusqu’à ce que la technologie soit, de manière fiable, sûre, contrôlable et soutenue par l’opinion publique”, écrivaient-ils, comme pour rappeler que le débat dépassait déjà largement les cercles spécialisés. On retrouvait parmi eux des voix majeures telles que Geoffrey Hinton, le parrain de l’IA et prix Nobel de physique 2024, Stuart Russell, professeur à l’Université de Californie à Berkeley, ou encore Yoshua Bengio, chercheur le plus cité au monde dans le domaine.
Leur prise de position marque un tournant. Ceux qui ont contribué à bâtir le secteur en appellent désormais à utiliser le frein. Cette lettre ouverte fait écho à un autre appel publié un mois plus tôt lors de l’Assemblée générale des Nations unies. Chercheurs et travailleurs du secteur y demandaient aux gouvernements de fixer, d’ici fin 2026, de véritables lignes rouges internationales concernant l’intelligence artificielle.
“Une IA consciente d’elle-même ? Là, on est dans quelque chose que l’on ne comprend pas encore, même pour les humains.” – Gilles Louppe (ULiège)
“On peut imaginer ces technologies émerger un jour, conclut Gilles Louppe. Il y a 15 ans, on nous aurait pris pour des rêveurs, mais aujourd’hui, c’est plausible. Pas certain, mais plausible. Anticiper dès maintenant un cadre éthique et légal avant que ces technologies n’existent vraiment n’est donc certainement pas une mauvaise chose. Techniquement, on peut imaginer une IA supérieure à l’humain pour certaines tâches, mais on n’a pas encore les concepts pour développer une IA qui serait générale. Une IA consciente d’elle-même ? Là, on est dans quelque chose que l’on ne comprend pas encore, même pour les humains.”
ANI, AGI, ASI : les trois “niveaux” d’intelligence artificielle
La distinction entre IA faible, IA générale et super-intelligence s’est imposée au milieu des années 2010, notamment sous l’impulsion du philosophe Nick Bostrom (Université d’Oxford) qui en décrit les principes dans l’ouvrage Superintelligence: Paths, Dangers, Strategies publié en 2014.Cette classification théorique a ensuite été reprise par l’industrie qui y voit une manière de situer les progrès de l’IA sur un axe clair.
● Le premier niveau, l’IA faible (ANI – Artificial Narrow Intelligence), regroupe les systèmes spécialisés : assistants vocaux, moteurs de recommandations, modèles de vision… ou ChatGPT.
● L’IA générale (AGI – Artificial General Intelligence), encore théorique, désignerait une machine capable d’apprendre et de raisonner comme un humain, dans n’importe quel domaine cognitif.
● Quant à la super-intelligence (ASI – Artificial Superintelligence), elle renverrait à une IA dépassant largement nos capacités intellectuelles, soit un scénario encore hautement spéculatif.
Aujourd’hui, toute l’IA déployée dans le monde (y compris les modèles les plus avancés) appartient à la première catégorie. Le reste relève d’hypothèses, d’ambitions… ou de craintes, selon les points de vue.
Suivez Trends-Tendances sur Facebook, Instagram, LinkedIn et Bluesky pour rester informé(e) des dernières tendances économiques, financières et entrepreneuriales.