Paul Vacca

Attention, l’IA peut ralentir la science

Paul Vacca Romancier, essayiste et consultant

Vaincre le cancer, piloter des missions autonomes vers Mars et au-delà, doubler notre espérance de vie… Largement diffusé par les acteurs de l’IA eux-mêmes, le refrain est connu : l’IA est la promesse et le grand accélérateur de la science au 21e siècle. Indéniable et évident : plus de puissance de calcul, donc plus de découvertes. Ce Qu’il Fallait Démontrer.

Peut-être pas si indéniable et évident que cela, si l’on en croit une analyse intitulée “Could AI slow science?“, publiée sur le blog AI Snake Oil par Sayash Kapoor et Arvind Narayanan, chercheurs en IA à l’université de Princeton. Non par IA-phobie, mais parce que, selon eux, le postulat mésestime les effets systémiques induits par l’IA sur le fonctionnement de la recherche scientifique.

Premier constat inquiétant : plus de volumes de publications scientifiques produisent dans les faits moins de progrès visibles. Le nombre des publications explose et la part de travaux disruptifs, la production d’idées neuves et la productivité par chercheur, elles, selon des études, déclinent. Bref, la science produit plus, mais avance moins : c’est le “paradoxe production-progrès”.

En automatisant rédaction et analyse et en générant plus d’articles, l’IA exacerbe une malédiction endémique dans le monde académique : le publish or perish, à savoir la pression exercée sur les chercheurs à publier pour espérer décrocher financements, postes et reconnaissance. Cela alimente le bétonnage quantitatif, au détriment d’une dynamique de la découverte.

Mais, au fait, l’IA ne devait-elle pas justement permettre au chercheur, de se dégager des tâches automatiques pour se consacrer tout entier à son véritable métier : chercher ? Dans la pratique, c’est un brin moins idyllique. Avec l’IA, les chercheurs tombent dans le piège bien connu de la commodité. Chaque innovation censée libérer du temps – c’était déjà vrai pour le lave-linge – engendre de nouvelles tâches qui en absorbent aussitôt le bénéfice. Plus un outil ou une application vous fait gagner du temps, plus il tend à vous en reprendre. Le gain d’efficacité est donc illusoire puisqu’il se trouve mécaniquement absorbé par des exigences à la hausse.

Si le modèle géocentrique avait été boosté par l’IA, il aurait certainement retardé la révolution copernicienne.

Second constat : l’effet “boîte noire”. L’IA est devenue le levier idéal pour les calculs prédictifs. Or, comme le soulignent Kapoor et Narayanan, prédire n’est pas comprendre. Les grandes révolutions scientifiques reposent sur des avancées théoriques, non sur des modèles simplement plus puissants ou précis. En optimisant les modèles existants, l’IA décourage les remises en question radicales. Si le modèle géocentrique avait été boosté par l’IA, il aurait certainement retardé la révolution copernicienne. En raffinant l’existant, l’IA peut certes rendre les paradigmes scientifiques plus performants, mais aussi plus rigides. Donc moins ouverts à la disruption. Ce Qu’il Fallait Éviter.

Alors faut-il jeter l’IA avec l’eau de la recherche ? Non, estiment les auteurs qui rappellent toutefois que la science ne se résume pas à résoudre des équations ou à publier des résultats mais à questionner et chercher à comprendre la complexité du monde : choses qui ne sortent pas armées de la cuisse de l’IA, même la plus performante.

Or, en fournissant des solutions toutes prêtes, des preuves sans intuition, des résultats sans apprentissage, l’IA tend à affaiblir les conditions mêmes du progrès scientifique. Mal intégrée, elle ne fait qu’amplifier les défauts actuels du système scientifique. Alors accélérer avec l’IA, pourquoi pas ? Mais encore faut-il savoir dans quelle direction on va. En science, un raccourci n’est pas toujours un gain de temps.

L’intelligence artificielle est présente dans la plupart des secteurs, ou presque, avec ses partisans et ses détracteurs, mais quel est son impact?

Partner Content