ChatGPT, un robot thésiste?

© Getty Images

L’université d’Anvers soupçonne ChatGPT d’avoir rédigé tout ou partie du mémoire d’un étudiant et prépare la riposte.

C’est un assistant soupçonneux qui a déclenché l’alarme. Le mémoire qu’il était en train d’examiner ne citait guère de sources, contrairement aux usages. Un contrôle en ligne via un programme approprié confirma rapidement ses doutes: une partie au moins du texte était le fruit d’une intelligence artificielle du type ChatGPT, ce robot fournisseur de contenus dont tout le monde parle.

Le retour des examens oraux ?

“Y recourir, c’est tricher. Et si la faute est avérée, une sanction suivra”, a déjà fait savoir Peter De Meyer, porte-parole de l’université d’Anvers qui, consciente du problème, étudie actuellement comment évaluer équitablement les étudiants dans ce nouveau contexte. Sans doute en accordant davantage d’importance à l’oral, par exemple. “Nous allons clairement indiquer dans notre règlement que toute forme de ghostwriting sera considérée comme une fraude”, précise en outre Peter De Meyer.

S’en servir comme sparring-partner

Variantes modernes du “nègre littéraire”, les ghostwriters sont ces “écrivains fantômes” chargés d’améliorer les écrits ou propos d’hommes politiques, chefs d’entreprise ou célébrités afin de les rendre plus percutants. Toutes les universités affirment réfléchir au problème. “Nous allons sanctionner mais, en même temps, examiner comment nous pouvons adapter et mettre en oeuvre de tels systèmes dans notre éducation de manière contrôlée”, poursuit Piet De Meyer.

Plus promptes à réagir, les coupoles d’enseignement y ont déjà vu de nouvelles opportunités. S’en servir comme sparring-partner pour développer l’esprit critique des élèves, suggère Katholiek Onderwijs Vlaanderen, ou comme éducation critique aux médias, recommande GO! , la coupole de l’enseignement officiel. Toutes deux se rejoignent pour demander que soient davantage traités des sujets d’actualité. ChatGPT n’est en effet actualisé que jusqu’en 2021…

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Partner Content