Benoît Frénay (UNamur): “Dire que l’IA dépasse l’humain dans la plupart des domaines, c’est faux”

Benoît Frénay
Benoît Frénay , professeur de la Faculté d’informatique et président du Conseil de l’IA à l’UNamur. © UNamur
Vincent Genot
Vincent Genot Coordinateur online news

Professeur de la Faculté d’informatique et président du Conseil de l’IA à l’UNamur, Benoît Frénay réagit à la thèse provocatrice de Laurent Alexandre, selon laquelle les études universitaires seraient devenues obsolètes dans un monde bousculé par l’intelligence artificielle.

Le livre de Laurent Alexandre avance que l’IA progresse si vite que l’enseignement universitaire n’a pas compris l’ampleur de la révolution. Selon lui, l’université risque d’être dépassée. Que pensez-vous de cette thèse ?

Il faut déjà remettre l’église au milieu du village. Quand on entend dire que l’IA dépasse l’humain dans la plupart des domaines, c’est faux. Les modèles restent bourrés d’hallucinations : on parle d’environ 20 %, et plus on va dans le spécialisé, plus les erreurs augmentent. On m’a rapporté l’exemple d’une personne qui avait fait sa déclaration fiscale avec ChatGPT. Tout était faux, le fisc a tout requalifié. Le problème était double : l’IA avait déraillé, et l’utilisateur n’avait pas l’expertise nécessaire pour s’en rendre compte.

Pour moi, cela montre surtout que l’on a besoin d’expertise humaine. Pour utiliser l’IA correctement, il faut déjà maîtriser le domaine. A l’université, on transmet des savoirs, on développe la capacité d’analyse et on forme des citoyens. Les trois restent essentiels. On disait déjà à l’époque de Wikipédia que les savoirs n’étaient plus nécessaires, mais les savoirs structurent la pensée. Et la capacité d’analyse est tout aussi essentielle. Si on veut pouvoir challenger ce que dit l’IA, il faut disposer d’un esprit critique solide.

Qu’avez-vous mis en place à l’Université de Namur ? D’autres institutions travaillent déjà sur leur propre IA interne.

Il y a deux niveaux. À l’échelle globale, l’université bouge avec une certaine forme d’inertie, et c’est normal puisqu’elle doit exercer un principe de précaution. On ne va pas imposer l’IA partout du jour au lendemain. La Corée l’a fait et ils ont dû faire marche arrière parce que cela ne fonctionnait pas, notamment parce que les professeurs n’étaient pas formés. Décréter un changement radical ne suffit jamais puisqu’il faut partir des besoins du terrain, élaborer une stratégie et expérimenter.

C’est ce que nous faisons. Quelques semaines après la sortie de ChatGTP en 2022, nous organisions déjà un atelier en interne pour discuter de l’impact de ce nouvel outil.  Et nous testons actuellement l’usage d’IA dans un cours bien défini, dans un cadre contrôlé. Le but est d’identifier les limites, ce qui fonctionne, ce qui ne fonctionne pas, et les compétences réellement nécessaires pour les étudiants. Car c’est cela qui guide la réflexion et pose la question de savoir quelles compétences l’étudiant doit acquérir pour devenir expert, avec ou sans IA.

En début de cursus, l’étudiant n’a pas d’expertise. Il ne sait pas encore détecter les erreurs de l’IA et risque de croire avoir développé des compétences qu’il n’a pas. Donc l’usage doit être limité et encadré. Plus tard, lorsque l’expertise grandit, on peut ouvrir davantage l’accès à l’IA, surtout lorsqu’elle fait partie des compétences à maîtriser. En informatique, par exemple, apprendre à utiliser ou développer l’IA devient une compétence essentielle.

Parallèlement, nous avons créé un cours transdisciplinaire destiné à tous les étudiants de troisième année, quelle que soit leur filière. Un tiers du cours porte sur les bases de l’IA, son fonctionnement et la déconstruction de l’anthropomorphisation, car beaucoup de gens pensent que ces modèles sont fiables, humains, voire conscients. Un autre tiers traite de gestion du changement, d’éthique et de législation européenne. Le dernier tiers est consacré à des usages concrets dans divers métiers. Nous avons par exemple invité un chef de service en radiologie afin d’illustrer dans quelles situations l’IA est utile et dans quelles autres son impact reste marginal.

Dans vos propos, vous évoquez la difficulté pour les jeunes diplômés. Les entreprises favorisent aujourd’hui les seniors capables de superviser l’IA. Est-ce un risque ?

C’est déjà ce qu’on observe : les juniors sont un peu boudés, alors que les seniors, eux, restent indispensables. Ils utilisent l’IA, mais savent la challenger et reprendre la main lorsqu’elle se trompe. C’est probablement un mauvais calcul à long terme pour les entreprises : les juniors d’aujourd’hui sont les seniors de demain. Si on continue dans cette direction, on risque une crise d’expertise dans cinq à dix ans.

Dans le secondaire, les élèves utilisent déjà l’IA sans cadre clair. Certains professeurs l’utilisent aussi. Ne faudrait-il pas déjà former les élèves avant leur arrivée à l’université ?

La première chose, c’est la clarté. Les enseignants doivent expliciter leur position et les étudiants doivent savoir ce qui est autorisé ou non. Par exemple, en première année, j’interdis l’usage de ChatGPT pour les projets de programmation. Quelqu’un qui ne sait pas faire 2 x 3 est handicapé dans la vie quotidienne. C’est pareil en informatique. Je suis aussi transparent avec mes étudiants. Pour des raisons éthiques et environnementales, je n’utilise pas ces outils dans ma pratique ni dans mes évaluations. Et je leur explique pourquoi. L’enseignant ne peut pas interdire l’IA aux étudiants tout en l’utilisant en secret. Cela ne tient pas.

Ensuite, il faut réfléchir à ce qu’on enseigne. L’idée que l’IA peut écrire à notre place et que, par conséquent, apprendre à écrire ne sert plus à rien est une vision simpliste et pédagogiquement fausse. Écrire structure la pensée. Communiquer, que ce soit oralement ou par écrit, reste une compétence fondamentale. L’IA ne remplace pas cela. Avant d’enseigner l’usage de l’IA, il faut enseigner ce qu’est l’IA et ce qu’elle n’est pas. Casser l’anthropomorphisation est essentiel. Beaucoup de jeunes prennent l’IA pour un interlocuteur fiable, voire pour un thérapeute. Or certaines IA sont conçues, comme les réseaux sociaux, pour maintenir l’utilisateur dans la boucle. Un psy humain crée de la friction, il remet en question, il refuse parfois de répondre. L’IA, non. Si les jeunes ne comprennent pas cela, on ouvre la porte à des dérives graves.

L’école et l’université ne forment pas seulement des travailleurs, mais aussi des citoyens. De ce point de vue, l’éducation à l’IA doit d’abord passer par de la compréhension avant d’aller vers la technique.

Laurent Alexandre voit l’IA comme un système exponentiel, qui se nourrit elle-même et ne cesse de croître. Pourtant, de nombreux rapports indiquent que l’IA ne peut pas s’auto-alimenter indéfiniment. Y a-t-il une limite à cette croissance ?

Oui, et on y est déjà. Il y a trois limites principales. La première est technologique. Les modèles actuels reposent sur les transformers, une technologie introduite en 2017 par les équipe de Google. Elle n’a pas fondamentalement évolué depuis. Selon un spécialiste comme Yann LeCun, cette voie est même une impasse puisque les modèles de langage actuels ne permettront pas de résoudre certains problèmes structurels, comme les hallucinations.

La deuxième limite est énergétique. Généraliser l’usage de l’IA à l’échelle mondiale est irréaliste. Nous parlons d’Europe et des États-Unis, mais dans une grande partie du monde, l’accès à l’électricité n’est même pas garanti. Les ressources énergétiques mondiales ne suffiront pas à alimenter les ambitions des grandes entreprises de l’IA.

La troisième limite concerne les données. Toutes les données accessibles ont déjà été exploitées, qu’elles soient libres ou sous copyright. Comme les entreprises de la tech manquent désormais de nouvelles données pour nourrir leur IA, elles comptent sur les utilisateurs pour en produire à travers leurs requêtes et leurs contenus. On le voit aussi avec l’extension des zones de collecte. Depuis le 10 octobre, par exemple, Google, via Gmail utilise désormais les emails pour alimenter ses modèles. Cela montre bien qu’on arrive au bout des données disponibles.

Si l’IA manque de nouvelles données, pourrait-elle finir par s’auto-entraîner et créer sa propre information ?

Non. Lorsque l’on entraîne une IA sur ses propres productions, elle dégénère très vite. Des chercheurs l’ont montré en prenant une IA entraînée à générer des chiffres manuscrits, puis en réentraînant de nouveaux modèles uniquement à partir de ces chiffres générés. On observe qu’après une trentaine de générations, la diversité disparaît. Les chiffres deviennent tous identiques et illisibles. Ce phénomène est systématique.

Il existe une raison fondamentale à cela. Un système informatique ne peut pas créer d’information sans apport extérieur. C’est un principe de base en théorie de l’information. L’IA tourne en boucle. Les grandes avancées de l’IA sont toujours arrivées lorsque l’on y ajoutait de l’expertise humaine. Par exemple, en vision par ordinateur, les réseaux ont commencé à fonctionner correctement lorsqu’on leur a imposé l’idée de regarder des zones locales d’une image avant d’élargir. Une telle idée n’aurait jamais pu émerger d’elle-même.

Une IA créative, capable d’agir de sa propre initiative, est-ce possible aujourd’hui ?

Non. On parle désormais d’agents plutôt que de modèles, ce qui entretient l’illusion d’autonomie, mais il n’existe rien d’autonome. Prenez Pulse, un outil censé travailler pendant que vous dormez. En réalité, on réserve simplement du temps de serveur au milieu de la nuit pour traiter les demandes. Il n’y a aucune spontanéité. Et tout le discours marketing  pousse à croire l’inverse. Je ne blâme pas les gens qui y croient, tout est construit pour entretenir cette impression.

À Namur, y a-t-il une feuille de route claire pour l’usage de l’IA dans l’enseignement ?

Pour le moment, chaque enseignant reste responsable de son cours et décide d’autoriser ou non l’usage de l’IA, à condition de rester cohérent avec les compétences visées. De notre côté, nous avons mis en place un Conseil de l’IA composé d’une quinzaine de professeurs issus de l’informatique, du droit, de la philosophie, du management, etc. Notre mission est d’élaborer des lignes directrices pour l’enseignement, la recherche et l’administration.

Nous voulons définir une ligne rouge (ce qu’on ne peut jamais faire), une ligne verte (ce qui est autorisé sans demander) et une zone intermédiaire où l’on donne des recommandations spécifiques. Par exemple, il est évident qu’on ne va pas envoyer des dossiers étudiants dans ChatGPT. À l’inverse, Grammarly ne pose pas de problème. Mais entre les deux, il faut des nuances : selon qu’on est étudiant, enseignant, chercheur, membre de l’administration ou directeur de service, les besoins et les risques ne sont pas les mêmes.

Vous vouliez revenir sur un dernier point, celui de l’indépendance de l’enseignement.

Oui, c’est essentiel. L’indépendance académique n’est pas une légende. Nous sommes payés par l’État, pas par une entreprise. Nous pouvons dire ce que nous pensons tant que nous restons dans des limites raisonnables. Si demain je dis qu’une société fait n’importe quoi, je ne risque pas de perdre mon emploi. Cette liberté est fondamentale. Privatiser l’enseignement ferait disparaître cette indépendance. Et l’enseignement doit pouvoir former les étudiants à un usage responsable des outils, expliquer que ces systèmes consomment énormément d’énergie, qu’ils utilisent des données sous copyright, qu’ils sont biaisés, qu’ils reposent parfois sur des dark patterns destinés à garder l’utilisateur captif.

La vision où on remplace l’enseignement par une IA est une vision libérale, pour ne pas dire libertarienne. Le problème, c’est qu’on part du principe que tout un chacun a exactement la même chance. Or c’est complètement faux. À l’université, on voit arriver des étudiants qui ont des parcours très divers. Une des missions de l’enseignement, c’est de prendre tous les étudiants et de leur permettre de réaliser ce dont ils sont capables. L’objectif n’est pas de les faire réussir à tout prix, mais de leur donner la chance de le faire. Certains étudiants vont nécessiter plus d’attention, un encadrement spécifique.  

Remplacer un enseignement public indépendant, soucieux de l’étudiant, par un outil conçu par des sociétés privées n’ayant de comptes à rendre à personne, guidées par des agendas opaques et un actionnariat dont l’unique objectif est le profit, me semble être la meilleure recette pour conduire nos sociétés droit dans le mur. Les professeurs d’université sont des experts de niveau international dans leurs domaines. Je dirige une dizaine de chercheurs en IA et mène des recherches sur la fiabilité et l’efficacité énergétique des intelligences artificielles. Cela nous confère une pertinence bien plus grande qu’une IA pour dispenser un enseignement fondé sur les derniers développements dans le domaine.

Suivez Trends-Tendances sur Facebook, Instagram, LinkedIn et Bluesky pour rester informé(e) des dernières tendances économiques, financières et entrepreneuriales.

L’intelligence artificielle est présente dans la plupart des secteurs, ou presque, avec ses partisans et ses détracteurs, mais quel est son impact?

Expertise Partenaire