Les universités repondent à Laurent Alexandre : “Ce n’est pas parce qu’une machine est puissante qu’il faut renoncer à penser”

En matière d’IA, les universités ont choisi la voie de la responsabilisation plutôt que celle de l’interdiction. © Getty Images
Vincent Genot
Vincent Genot Coordinateur online news

Laurent Alexandre annonce la fin des études. Loin de rendre l’université obsolète, l’intelligence artificielle en révèle au contraire toute la nécessité, répondent les universités belges.

Faut-il encore étudier à l’université à l’heure de l’intelligence artificielle (IA) ? C’est la question provocatrice posée par Laurent Alexandre dans son dernier livre Ne faites plus d’études !, coécrit avec Olivier Babeau. Selon le médecin et entrepreneur français, les universités continueraient à former des esprits pour un monde déjà révolu. Les cursus actuels, estime-t-il, n’ont plus grand-chose à offrir face à la puissance des outils d’intelligence artificielle capables de produire, d’analyser et même de raisonner plus vite que l’humain.

Françoise Smets, rectrice de l’UCLouvain, reconnaît l’efficacité rhétorique du titre. “C’est certainement intéressant d’accrocher la curiosité des gens avec ce genre de titre, à condition de prendre ensuite le temps d’expliquer pourquoi il est erroné.” Car pour elle, une chose est certaine, “dire qu’il ne faut plus étudier n’a aucun sens. Ce qui est vrai, c’est que l’intelligence artificielle va prendre une grande place dans nos vies et qu’elle va aider à accomplir beaucoup de tâches. Mais notre responsabilité, à l’université, est d’apprendre aux étudiants à la comprendre et à l’utiliser à bon escient, de manière responsable et éthique.”

La thèse de l’ouvrage repose sur une vision éminemment productiviste du savoir, l’intelligence comme levier d’efficacité et de rentabilité au service de l’innovation et de l’entrepreneuriat. En filigrane, la valeur d’une étude ou d’un diplôme se mesurerait surtout à sa capacité à générer de la performance économique. Mais étudier, ce n’est pas seulement se préparer à “réussir”, c’est aussi apprendre à comprendre le monde, à penser de manière critique, à se confronter à des savoirs qui ne sont pas toujours monnayables. Derrière cette vision très mécaniste de l’intelligence, on retrouve aussi une tendance plus large à réduire l’esprit humain à un QI, à une simple capacité cognitive mesurable et reproductible.

Une vision “horriblement réductrice” de l’unif

Pour Nicolas Van Zeebroeck, professeur à la Solvay Brussels School et conseiller de la rectrice de l’ULB pour l’informatique, le numérique et l’IA, le livre de Laurent Alexandre relève avant tout de la provocation. “Il force le trait pour susciter le débat, et c’est en soi une bonne chose. Mais sa vision du rôle de l’université est horriblement réductrice.” Cette réduction tient en une équation simple qui voit l’université comme fabrique de main-d’œuvre pour le marché du travail. “Or, l’université, ce n’est pas une fabrique de compétences immédiatement rentables, insiste-t-il. C’est un lieu où l’on développe les capacités cognitives, la pensée critique, l’éthique, la créativité. Réduire cela à de la ‘production de talents’ pour l’économie, c’est d’une pauvreté intellectuelle affligeante.”

“Réduire le rôle de l’université à de la ‘production de talents’ pour l’économie, c’est d’une pauvreté intellectuelle affligeante.” – Nicolas Van Zeebroeck (ULB)

La responsabilité de l’université s’inscrit dans une mission plus large que la simple transmission de compétences professionnelles. Benoît Frénay, professeur en Faculté d’informatique et président du Conseil de l’IA à l’UNamur, rappelle les trois piliers de l’enseignement universitaire. “La transmission des savoirs, les capacités d’analyse et la formation de citoyens restent nécessaires, insiste-t-il. Loin de rendre l’université obsolète, l’intelligence artificielle en révèle au contraire la nécessité.” Car derrière les performances spectaculaires de ChatGPT ou de ses concurrents se cachent de nombreuses failles que seule l’expertise humaine peut identifier et corriger. Benoît Frénay se souvient d’un avocat dont le client était arrivé chez lui en panique.

“Ce dernier avait fait sa déclaration fiscale à l’aide de ChatGPT. L’IA l’a aidé à tout faire, mais tout était faux. Le fisc a requalifié le dossier et c’était la catastrophe. Ce client n’avait pas l’expertise nécessaire pour ce montage fiscal. Comme l’IA a complètement déraillé et qu’il n’avait pas l’expertise, il était incapable de détecter le problème.”

Ce cas illustre un problème fondamental de l’IA. “L’intelligence artificielle génère encore énormément d’hallucinations. Selon les sources, on parle d’environ 20% d’erreurs. Le problème, c’est que plus on va vers le spécialisé, plus elle fait d’erreurs.” D’où sa conclusion sans appel : “Cela démontre qu’on a besoin de l’expertise humaine. Et qui dit expertise humaine, dit expertise que l’on doit acquérir quelque part.”

Nicolas Van Zeebroeck partage cette analyse et la prolonge par une comparaison éclairante. “On ne peut pas utiliser une calculatrice sans comprendre les calculs qu’il y a derrière. Il faut savoir poser le problème, interpréter le résultat, juger s’il est plausible ou non. C’est pour cela que l’on continue à enseigner le calcul mental à l’école primaire. Non pas parce qu’il faut calculer toute sa vie, mais parce qu’il faut comprendre ce que l’on fait. C’est exactement la même chose avec l’intelligence artificielle, il faut comprendre comment elle fonctionne, ce qu’elle fait et ce qu’elle ne fait pas.”

Il relate d’ailleurs une anecdote révélatrice. “Une de nos professeures de microéconomie m’a raconté le cas d’une étudiante qui avait demandé à ChatGPT de résoudre un exercice. Le modèle lui a donné une réponse différente de celle du professeur. L’étudiante a alors mis en doute la solution de l’enseignante, en affirmant que ‘ChatGPT ne pouvait pas se tromper’. Ce réflexe en dit long sur la manière dont certains étudiants perçoivent l’autorité de la machine. Et c’est précisément ce que nous devons combattre.”

Françoise Smets insiste, elle aussi, sur la pluralité des formes d’intelligence. “Au-delà des compétences techniques, il faut aussi rappeler que l’intelligence humaine est multiple. L’IA est très performante pour exécuter des tâches cognitives, mais elle n’aura jamais l’intelligence émotionnelle, relationnelle ou pratique. L’université doit continuer à développer ces formes d’intelligence-là, à travers l’apprentissage, la découverte, la collaboration.”

L’utilisation de l’IA nécessite de prendre de bonnes habitudes dès le primaire et le secondaire. © Getty Images

Les limites d’une révolution annoncée

Laurent Alexandre suppose que l’intelligence artificielle progressera de manière exponentielle jusqu’à surpasser toutes les facultés humaines. Mais cette hypothèse reste largement spéculative. L’IA s’appuie d’abord sur le savoir humain accumulé. Elle ne crée pas encore véritablement, sinon par recombinaison ou imitation. Que se passera-t-il lorsqu’elle atteindra les limites du réservoir humain ? Pourra-t-elle produire de la science, inventer de nouvelles idées, exercer un jugement autonome ? Rien ne permet encore de l’affirmer. Une étude récente menée par Holzner, Maier et Feuerriegel (Generative AI and Creativity: A Systematic Literature Review and Meta-Analysis, 2025) montre d’ailleurs que l’intelligence artificielle ne surpasse pas les humains en créativité et tend, lorsqu’elle collabore avec eux, à réduire la diversité des idées plutôt qu’à la stimuler.

Benoît Frénay pointe trois obstacles majeurs à une IA que l’on imagine exponentielle. Il existe d’abord, une limite technologique. “Tous ces outils sont basés sur des transformers (architecture d’apprentissage profond, ndlr) sortis en 2017. C’est une technologie qui a presque 10 ans et qui n’a fondamentalement pas changé. Si on écoute Yann LeCun, un des pères fondateurs du deep learning, pour lui, les LLM (large language models, ndlr) et la manière dont on les utilise actuellement, c’est une voie sans issue. Il n’est techniquement pas possible de surmonter les problèmes tels que les hallucinations.”

Il y a ensuite une limite énergétique et surtout, une limite en termes de données. “Les données disponibles ont déjà toutes été utilisées pour nourrir les IA, que ce soit celles librement disponibles ou sous copyright.” Pour obtenir de nouvelles données, les entreprises se tournent désormais vers les utilisateurs eux-mêmes. “Ce sont les utilisateurs qui les créent sur les plateformes comme ChatGPT, souligne Benoît Frénay. On leur fournit de nouvelles données avec nos requêtes ou en produisant du contenu. D’ailleurs, depuis le 10 octobre, Gmail se sert dans vos emails pour alimenter les IA. Tous les derniers espaces où l’IA n’a pas encore accès, les entreprises de la tech essaient d’y accéder. Cela montre qu’elles sont aux abois en termes de données.”

Quant à l’idée d’une IA qui apprendrait d’elle-même de manière exponentielle, Benoît Frénay la qualifie de mythe. “Des chercheurs ont fait l’expérience. Ils ont pris des chiffres manuscrits et ont entraîné une IA à régénérer des chiffres. Puis, ils ont nourri une nouvelle IA avec cette première génération artificielle, puis une deuxième, puis une troisième. À partir d’une trentaine de générations, l’IA produisait tout le temps quasi les mêmes chiffres qui ne ressemblaient plus à rien.” Et de conclure par un principe fondamental de la théorie de l’information : “Un système informatique ne peut pas créer de l’information sans apport externe.”

“L’idée d’une IA qui apprendrait d’elle-même de manière exponentielle est un mythe.” – Benoît Frénay (UNamur)

Comment les universités s’adaptent

Face aux enjeux de l’IA, les universités belges ne restent pas passives. Loin de l’image d’institutions figées véhiculée par Laurent Alexandre, elles développent plusieurs stratégies. À l’UCLouvain, Françoise Smets annonce le lancement d’une première phase pilote d’un outil d’IA interne : “Une sorte de ChatGPT ‘in-house’. Il sera gratuit pour l’ensemble des étudiants et du personnel.” Pour la rectrice, cette initiative répond à trois objectifs.

“D’abord, éviter la fracture numérique. Aujourd’hui, certains étudiants paient un abonnement pour utiliser l’IA, d’autres non. Ensuite, garantir la propriété et la protection des données. Notre outil repose sur Mistral, un moteur européen, mais toutes les données restent sur nos serveurs. Enfin, former à un usage responsable. Nous voulons que les étudiants comprennent les limites de l’IA, qu’ils apprennent à citer leurs sources et à vérifier les réponses.” L’outil intègre également une dimension écologique. “Il y aura un compteur de crédits pour les sensibiliser à la consommation énergétique. S’ils font des requêtes trop nombreuses ou trop lourdes, un rappel à l’ordre apparaîtra. C’est une façon de les conscientiser, pas de les sanctionner.”

“Nous voulons que les étudiants comprennent les limites de l’IA, qu’ils apprennent à citer leurs sources et à vérifier les réponses.” – Françoise Smets (UCLouvain)

À l’ULB, Nicolas Van Zeebroeck a opté pour une approche similaire. “Nous proposons à toute la communauté universitaire l’accès à Microsoft Copilot, intégré à nos licences institutionnelles. Cet outil garantit la confidentialité et la propriété des données, hébergées sur des serveurs européens. En parallèle, nous développons une solution 100% souveraine, hébergée sur nos propres infrastructures, pour les projets sensibles.” Mais au-delà de la mise à disposition d’outils, c’est toute une démarche pédagogique qui se déploie : “Nous avons lancé un vaste plan de formation. Plus de 4.000 étudiants et 500 enseignants ont déjà suivi une initiation à l’usage critique de l’IA. L’objectif n’est pas de leur apprendre à ‘faire du prompt’, mais de comprendre le fonctionnement, les biais, les risques et les enjeux éthiques de ces technologies.”

La question cruciale de l’évaluation

L’intégration de l’IA dans l’enseignement pose inévitablement la question de l’évaluation. Comment certifier les compétences d’un étudiant quand une machine peut produire à sa place ? Les universités ont choisi la voie de la responsabilisation plutôt que celle de l’interdiction. Françoise Smets l’affirme clairement : “Depuis deux ans, l’UCLouvain a pris la décision institutionnelle de ne pas interdire l’IA. Chaque enseignant conserve sa liberté pédagogique, mais dans notre règlement général, l’utilisation de l’IA n’est pas interdite. La seule règle, c’est : il faut citer ses sources.” Cette approche implique de repenser les modalités d’évaluation : “Par exemple, un mémoire évalué à 80% sur l’écrit, ce n’est plus pertinent. Il faut repenser les critères, les méthodes, les finalités, en donnant, par exemple, plus de place aux évaluations orales.”

À l’ULB, explique Nicolas Van Zeebroeck, “l’usage de l’IA est autorisé dans les mémoires à condition de respecter trois principes : transparence, subsidiarité et responsabilité. En dehors de ce cadre, il reste interdit par défaut, sauf décision contraire de l’enseignant. Cela nous permet de garantir que le diplôme reste un certificat de compétence humaine. Nous devons évaluer l’étudiant, pas la machine.” Cette évolution s’accompagne d’une transformation plus large des formats d’évaluation. “Nous allons vers plus d’examens oraux, d’évaluations continues et de projets collaboratifs. Ces formats permettent de mieux mesurer les compétences réelles.”

Mais Nicolas Van Zeebroeck va plus loin en défendant une position contre-intuitive. “La vraie question est plus large : quelles compétences voulons-nous certifier ? Pour moi, il faut continuer à évaluer des capacités que l’IA peut reproduire, justement pour s’assurer que l’humain les conserve. Ce n’est pas parce qu’une machine sait écrire un texte ou résoudre un problème qu’il faut cesser d’enseigner à le faire.”

Adapter la pédagogie selon le niveau d’expertise

L’utilisation de l’IA ne peut être uniforme, elle doit s’adapter au niveau de maturité et d’expertise de l’étudiant. C’est le principe central de la réflexion de Benoît Frénay. “Quelles sont les compétences que l’étudiant doit acquérir pour devenir un expert, avec ou sans IA ? Quand l’étudiant est au début de sa formation, le problème c’est qu’il n’a pas d’expertise. Comment peut-il être critique par rapport à ce que l’IA va produire ? L’utilisation trop importante de l’IA pourrait lui donner l’impression fausse qu’il a développé ses compétences sans les avoir réellement acquises.”

D’où une approche graduée. “Tant que l’étudiant ne maîtrise pas les fondamentaux, l’IA présente un danger. On ne peut pas dire qu’il ne faut pas du tout l’utiliser, mais probablement de façon assez limitée et très encadrée. Par contre, quand on avance dans le cursus, on a des étudiants qui développent une expertise de plus en plus grande et on peut commencer à débloquer l’accès à l’IA, surtout si elle fait partie des compétences à acquérir.”

Françoise Smets partage cette vision d’une transformation progressive de l’apprentissage. “Pendant longtemps, les étudiants ont appris de manière très passive : ils recevaient la matière, étudiaient intensivement pendant le blocus, restituaient le tout, puis oubliaient presque aussi vite. Ce modèle n’est plus souhaitable.” L’UCLouvain réfléchit d’ailleurs à “un nouveau calendrier académique, avec des périodes d’apprentissage plus courtes et des évaluations rapprochées. L’objectif, c’est que les étudiants apprennent à mobiliser leurs connaissances au lieu de simplement les stocker.”

Pour alimenter leurs IA, les entreprises vont puiser du côté des utilisateurs. À l’instar de Gmail qui, depuis le 10 octobre, se sert dans nos emails. © Getty Images

Les enjeux d’équité et d’indépendance

Au-delà des questions purement pédagogiques, l’intégration de l’IA dans l’enseignement soulève des enjeux sociétaux majeurs, notamment en termes d’équité et d’indépendance. Nicolas Van Zeebroeck alerte sur le risque d’accentuation des inégalités. “Nous estimons qu’entre 10 et 15% de nos étudiants disposent d’un abonnement payant à ChatGPT. Les autres utilisent la version gratuite ou d’autres outils. Plus largement, l’histoire du numérique montre que la technologie n’a pas détruit l’emploi, mais qu’elle a creusé les écarts. Les innovations profitent d’abord aux plus qualifiés, aux plus diplômés, tandis que les autres peinent à suivre. L’IA risque d’accélérer ce phénomène de polarisation.” Il nuance toutefois ce constat par une note d’espoir : “Ces outils peuvent gommer certaines barrières d’accès. L’orthographe, la traduction ou le codage deviennent plus accessibles. En ce sens, l’IA pourrait aussi ‘abaisser les murs’ qui freinaient certaines catégories de population.

Les deux effets vont coexister : démocratisation pour certains, accentuation des écarts pour d’autres.”

Françoise Smets souligne également l’urgence d’intervenir dès les premiers niveaux d’enseignement. “Les universités ne peuvent pas être seules à se mettre en ordre de marche. Si de mauvaises habitudes dans l’utilisation de l’IA se prennent dès le primaire ou le secondaire, il est déjà un peu tard lorsque les étudiants arrivent chez nous. La formation initiale des enseignants est donc un levier essentiel. Former les enseignants, c’est aussi préparer les citoyens à comprendre et à encadrer l’usage de l’IA dès le plus jeune âge.”

Benoît Frénay insiste particulièrement sur la question de l’équité dans l’accès à l’éducation : “La vision où l’on remplace l’enseignement par une IA est une vision libérale, pour ne pas dire libertarienne. Le problème, c’est qu’on part du principe que tout un chacun a exactement la même chance. Or c’est complètement faux. À l’université, on voit arriver des étudiants qui ont des parcours très divers. Une des missions de l’enseignement, c’est de prendre tous les étudiants et de leur permettre de réaliser ce dont ils sont capables. L’objectif n’est pas de les faire réussir à tout prix, mais de leur donner la chance de le faire. Certains étudiants vont nécessiter plus d’attention, un encadrement spécifique.

Remplacer un enseignement public indépendant, soucieux de l’étudiant, par un outil conçu par des sociétés privées n’ayant de comptes à rendre à personne, guidées par des agendas opaques et un actionnariat dont l’unique objectif est le profit, me semble être la meilleure recette pour conduire nos sociétés droit dans le mur. Les professeurs d’université sont des experts de niveau international dans leurs domaines. Je dirige une dizaine de chercheurs en IA et mène des recherches sur la fiabilité et l’efficacité énergétique des intelligences artificielles. Cela nous confère une pertinence bien plus grande qu’une IA pour dispenser un enseignement fondé sur les derniers développements dans le domaine.”

Nicolas Van Zeebroeck exprime cette préoccupation avec force. “Cette idée selon laquelle l’intelligence artificielle pourrait tout faire à notre place est profondément pernicieuse. Ce n’est pas parce qu’une machine devient puissante qu’il faut abandonner notre libre arbitre, notre capacité de jugement ou notre sens critique. Si on accepte cela, on se prépare à un monde dans lequel une minorité maîtrisera les outils et les modèles, y intégrera ses valeurs, et le reste de la population suivra béatement les décisions de la machine. C’est un glissement intellectuel et politique extrêmement dangereux.”

Suivez Trends-Tendances sur Facebook, Instagram, LinkedIn et Bluesky pour rester informé(e) des dernières tendances économiques, financières et entrepreneuriales.

L’intelligence artificielle est présente dans la plupart des secteurs, ou presque, avec ses partisans et ses détracteurs, mais quel est son impact?

Expertise Partenaire