Professeur à la Solvay Brussels School et conseiller de la rectrice de l’ULB pour le numérique et l’intelligence artificielle, Nicolas Van Zeebroeck réagit à la thèse provocatrice de Laurent Alexandre, selon laquelle les études universitaires seraient devenues obsolètes dans un monde bousculé par l’intelligence artificielle.
Le livre de Laurent Alexandre pose une question volontairement provocante : faut-il encore faire des études, à l’heure où l’IA bouleverse tout ? Quelle est votre première réaction ?
D’abord, il faut reconnaître que Laurent Alexandre aime forcer le trait. C’est dans son style : il jette un pavé dans la mare pour susciter le débat. Et en soi, ça n’est pas une mauvaise chose. Mais son propos repose sur une vision horriblement limitative et utilitariste de l’université. Il suppose que sa mission principale, c’est de préparer de la main-d’œuvre pour le marché du travail. Si c’était uniquement ça, effectivement, on pourrait ouvrir la discussion. Mais c’est d’une pauvreté intellectuelle atroce. Ce serait réduire l’université à une fabrique de chair à canon pour l’économie.
Lire aussi| Le diplôme est mort. Votre cerveau, non
Vous refusez cette idée d’une université purement « productive ». Mais dans un monde où les machines nous dépassent, certains s’interrogent sur la pertinence de continuer à enseigner des compétences que l’IA pourrait automatiser…
Ce que je trouve dangereux, c’est que ce raisonnement nous conduit à accepter l’idée que les compétences humaines ne servent plus à rien. Que la machine fait tout mieux, donc que nous devons devenir de simples presse-boutons face à une IA toute-puissante. Mais qu’est-ce que ça veut dire, concrètement ? Que nous renonçons à notre libre arbitre, à notre capacité critique, à notre pouvoir éthique et créatif ? Ce serait une démission intellectuelle catastrophique. On se préparerait à un monde où une élite conçoit les IA, encode ses propres valeurs dans ces outils – car ils sont bourrés de biais, de choix, de préférences – et où le reste de la population suit béatement. Ce serait atroce.
Donc, pour vous, l’intelligence artificielle ne rend pas l’université obsolète. Elle en renforce au contraire la nécessité ?
Exactement. L’IA rend l’université plus nécessaire que jamais. Pas pour enseigner des compétences techniques qui deviennent obsolètes en quelques mois – ce serait absurde. Mais pour former des citoyens responsables, dotés d’un bagage intellectuel solide, capables de recul critique. Ce bagage, c’est un mélange de raisonnement, de logique, de culture, de jugement moral. C’est long à acquérir. Et l’université joue un rôle structurant essentiel dans cette acquisition.
Vous utilisez une analogie avec la calculatrice pour illustrer ce besoin de culture de fond. Pouvez-vous l’expliquer ?
Oui. J’aime comparer l’IA générative à la calculatrice. Alors bien sûr, c’est très restrictif : la calculatrice ne fait que du calcul, l’IA fait mille choses. Mais le parallèle est utile. On ne peut pas utiliser une calculatrice si on ne comprend pas le calcul qu’on veut faire. Il faut savoir pourquoi on le fait, comment on le pose, et surtout, avoir fait soi-même assez de calculs pour détecter si le résultat donné par la machine est plausible ou non.
C’est pareil avec ChatGPT. Ce n’est pas parce qu’un outil vous donne une réponse avec aplomb qu’il a raison. À l’université, une étudiante m’a récemment expliqué que ChatGPT avait résolu un exercice de microéconomie différemment du professeur. Et quand la prof lui dit : « Peut-être que ChatGPT s’est trompé », l’étudiante répond : « Impossible, il m’a dit qu’il était sûr de son calcul ». C’est ça, le danger. Accepter sans filtre ce que dit une machine.
Selon vous, le risque, ce n’est donc pas que l’IA pense pour nous, mais qu’on arrête de penser ?
C’est exactement ça. Le plus gros risque, c’est l’atrophie de nos capacités cognitives. Si on cesse de faire travailler notre cerveau, on va collectivement décliner. Le bagage que l’université permet de construire – un savoir structuré, une capacité critique, une logique – est indispensable pour interagir intelligemment avec les machines. Pas juste pour appuyer sur les boutons, mais pour comprendre, formuler, vérifier. Ce n’est pas un luxe. C’est vital.
Quel outil est mis à disposition des étudiants et des enseignants de l’ULB ?
Depuis deux ans, nous utilisons Microsoft Copilot, basé sur le modèle GPT. Ce choix repose sur un contrat qui garantit la confidentialité et la propriété des données. C’est une solution gratuite, illimitée, sécurisée, qui reste dans l’environnement européen. Et malgré cela, ce que l’on observe, c’est que la majorité des étudiants – et beaucoup d’enseignants – continuent à utiliser ChatGPT.
Pourquoi ce rejet des solutions institutionnelles, selon vous ?
Il y a deux raisons principales. D’abord, la performance : malgré nos efforts pour leur faire tester Copilot, les étudiants reviennent toujours à ChatGPT. Pour eux, les résultats sont meilleurs, plus rapides, plus pertinents. C’est un peu comme avec Google pour la recherche. Même si on leur propose des alternatives, ils y reviennent. Ensuite, il y a la confidentialité perçue. Beaucoup ne veulent pas que l’université puisse voir ce qu’ils font avec l’outil. Parce qu’ils savent qu’ils flirtent parfois avec les limites du règlement. Sur ChatGPT, ils ont le sentiment d’être tranquilles, hors radar. Et ils n’ont pas envie de transposer ces usages dans un environnement contrôlé.
Cela vous pousse à penser différemment les usages ?
Oui. On sait que certains contextes exigent de la sécurité, du contrôle, de la souveraineté. Mais la majorité des usages ne rentrent pas dans cette case. Donc on propose les deux : une solution encadrée, gratuite, sécurisée pour le quotidien avec Copilot, et une IA autonome à venir, pour les besoins très spécifiques. Mais on ne se berce pas d’illusions : l’usage sauvage de ChatGPT continuera. Il faut l’encadrer, pas l’interdire.
Vous formez les étudiants à ces nouveaux outils. Qu’est-ce que ça implique concrètement ?
On travaille énormément sur la formation, justement à la pensée critique autour de ces outils. On a lancé un plan de formation assez ambitieux. L’idée, c’est que les 40 000 étudiants de l’université puissent, à un moment de leur parcours, suivre au moins une formation de base sur le fonctionnement de ces outils. Comprendre ce qu’il y a derrière, les biais, les risques, comment s’en servir intelligemment, comment vérifier les sources… On relie ça à tout ce qu’on enseigne déjà en recherche bibliographique, en vérification d’information. On y ajoute aussi un regard éthique, critique : qu’est-ce que ça veut dire d’utiliser ces outils dans une perspective universitaire ou professionnelle ?
Le plan a été lancé l’an dernier, et on essaye maintenant de l’accélérer. À ce stade, on a formé entre 3 000 et 4 000 étudiants et environ 400 ou 500 enseignants. Le but, à terme, c’est que tous les étudiants qui passent par l’ULB aient eu une formation critique à l’usage de l’IA.
Il ne s’agit donc pas d’apprendre à utiliser ChatGPT ou à faire du prompt engineering ?
Non, ce n’est pas ça le but. On ne veut pas nécessairement les former à utiliser le prompting, ni à leur enseigner l’usage détaillé de ChatGPT aujourd’hui, parce que dans un an, l’outil aura changé. Sur ce point, je rejoins Laurent Alexandre : la vitesse à laquelle les compétences techniques deviennent obsolètes est telle que ça n’a aucun sens de s’épuiser à enseigner des techniques qui auront changé d’ici à ce que les étudiants soient diplômés. Par contre, donner des bases critiques pour pouvoir utiliser ces outils de manière responsable, ça, c’est autre chose.
L’IA vous oblige aussi à repenser l’évaluation, non ?
Oui, bien sûr. Et c’est compliqué. Mais ce n’est pas compliqué uniquement à cause de l’IA. On vit une époque où il existe déjà plein de moyens de triche, d’assistance à distance pendant les examens… Il faut être très vigilant. La triche a toujours existé à l’université, simplement, là, on a un outil qui la rend encore plus facile.
Cela dit, se limiter à la réflexion sur la fraude, ce n’est pas très intéressant. C’est important, évidemment, mais ce n’est qu’une partie du problème. Ce qu’on essaie de faire, c’est de réfléchir à des méthodes d’évaluation plus robustes. Par exemple, on va accorder plus d’importance à la défense orale des mémoires qu’au rapport écrit. Et dans de nombreux contextes, on va de plus en plus vers des examens oraux, vers des épreuves où l’on peut s’assurer que ce sont bien les compétences de l’étudiant qui sont en jeu.
Pourquoi est-ce si important ?
Parce que l’université a aussi un rôle de certification. Elle doit pouvoir être ce gage reconnu dans le pays, et même au niveau international, que le titulaire d’un diplôme universitaire maîtrise un certain nombre de compétences. Ce rôle certificatif, il est fondamental. C’est une des missions que la société attend de l’université. Donc, si je délivre un diplôme, je dois être capable de garantir que l’étudiant l’a vraiment mérité, qu’il a acquis ces compétences. Et pour ça, il faut qu’on puisse tester les compétences réelles de l’étudiant, pas celles de ChatGPT.
Donc oui, on adapte nos méthodes d’évaluation. Les oraux vont nous aider, mais aussi l’évaluation continue. C’est une évolution progressive, qui prend du temps, qui demande des moyens… Et malheureusement, on n’est pas vraiment aidés. On doit faire tout ça avec des moyens limités. Ce ne sera pas réglé du jour au lendemain.
Il y a aussi une réflexion plus profonde à mener sur ce qu’on évalue, non ?
Oui, exactement. On essaie de se reposer cette question : quelles sont les compétences qu’on doit vraiment tester ? Et là, je suis en désaccord total avec Laurent Alexandre. Dire que, puisque l’IA est capable de faire quelque chose, alors nous, on ne doit plus l’apprendre en tant qu’humains, c’est une absurdité. Je me pose totalement en faux par rapport à ça. Ce n’est pas parce qu’une machine sait faire quelque chose qu’on ne doit plus être capable de le faire nous-mêmes. Au contraire, on doit continuer à évaluer certaines compétences que ChatGPT est capable de produire, mais en vérifiant que c’est bien l’étudiant qui les maîtrise. C’est un peu comme si on voulait tester le calcul mental chez un enfant : on ne va pas lui laisser une calculatrice pendant l’examen. C’est la même logique.
Est-ce que ça veut dire que l’université doit ralentir pour mieux réfléchir ?
Je dirais plutôt qu’elle doit garder le cap. L’université ne peut pas rester assise sur ses habitudes, c’est vrai. Mais elle ne peut pas non plus tout remettre en question du jour au lendemain. Pour beaucoup d’enseignants, c’est déstabilisant. Le choc de ces outils, la vitesse à laquelle ils évoluent, c’est perturbant. Moi, dans mon rôle, je dois gérer cette tension entre les attentes de la société, qui voudrait qu’on réagisse au quart de tour, et notre mission fondamentale, qui nécessite du temps et de la réflexion. On a connu d’autres transformations. Celle-ci est particulière parce qu’elle touche à la cognition, donc on est au cœur de notre métier. Mais ça ne veut pas dire qu’il faut paniquer. Le football panique, ce n’est jamais une bonne stratégie. Les entreprises qui ont bien traversé les disruptions technologiques sont celles qui ont pris le temps de réfléchir. Et c’est ce qu’on doit faire ici aussi.
Mais certains usages sont déjà bien ancrés, notamment dans le secondaire. Vous le percevez à l’entrée à l’université ?
Oui, clairement. On voit bien que les étudiants arrivent en ayant déjà utilisé l’IA, mais souvent de manière non encadrée. On est dans un flou. Ni les étudiants ni les profs ne savent très bien où est la frontière. Le premier réflexe, dans beaucoup d’écoles ou d’universités, a été d’interdire. Mais interdire quelque chose qu’on ne peut pas vérifier, ça ne sert à rien. Ça encourage même les usages illicites.
Ce qu’il faut, c’est encadrer. Et c’est ce qu’on fait à l’ULB. Pour les mémoires, l’usage de l’IA est autorisé par défaut, mais à condition de respecter trois principes : la transparence (dire ce qu’on a utilisé), la subsidiarité (rester maître de ce qu’on produit), et la responsabilité (ne pas injecter de données sensibles, par exemple).
Pour les autres évaluations, c’est interdit par défaut, mais chaque enseignant peut choisir de l’autoriser. S’il le fait, ces trois principes s’appliquent toujours. Ce n’est pas une interdiction bête et méchante, c’est une règle de prudence.
Il y a un vrai enjeu d’égalité aussi, non ?
Oui. On le voit déjà : certains étudiants ont les moyens de s’offrir un abonnement payant à ChatGPT, d’autres non. Nous, on met à disposition Copilot, un outil fourni par Microsoft, gratuit pour l’instant. Il est sécurisé, fiable, sans limite d’usage. Mais il ne fait pas tout. Ceux qui peuvent se payer des outils plus puissants auront un avantage.
C’est une vraie question. Le numérique, depuis quarante ans, n’a pas détruit massivement de l’emploi – au contraire, on est au plein emploi dans de nombreux pays – mais il a creusé les inégalités. Il y a une polarisation du marché du travail. Ce sont toujours les profils les plus qualifiés, les plus diplômés, qui bénéficient le plus des transformations technologiques. Et ceux qui ont le moins de qualifications sont les plus en difficulté.
Et l’IA va accentuer cette polarisation ?
C’est ma conviction. Sur base des études que j’ai lues, et de mes propres observations, je pense que l’IA va accélérer cette polarisation. Ce sont les profils les plus compétents qui vont tirer leur épingle du jeu, qui vont comprendre comment créer de la valeur avec ces outils.
Mais il y a aussi une thèse plus optimiste, portée notamment par l’économiste David Autor. Il dit que l’IA pourrait, au contraire, faire renaître une forme de classe moyenne, parce qu’elle permet de lisser certaines différences de compétences. Prenons l’orthographe : aujourd’hui, n’importe qui peut écrire un texte sans faute grâce à ChatGPT. On voit clairement que les mémoires sont mieux rédigés qu’il y a deux ans. Ce n’est pas parce que les étudiants sont devenus meilleurs en orthographe, c’est parce que l’outil corrige tout. Même chose pour la traduction ou le codage. Des tâches qui demandaient un certain niveau de spécialisation deviennent progressivement accessibles à des profils un peu moins qualifiés. Donc il y a ces deux dynamiques qui coexistent : un potentiel égalisateur, mais aussi un risque d’accentuer les écarts entre ceux qui sauront bien s’en servir et les autres.
Suivez Trends-Tendances sur Facebook, Instagram, LinkedIn et Bluesky pour rester informé(e) des dernières tendances économiques, financières et entrepreneuriales.