Les grands modèles de langage (LLM), tels que ceux qui alimentent les outils d’intelligence artificielle générative, sont souvent perçus comme des gouffres énergétiques. Une nouvelle étude conjointe de l’UNESCO et de l’University College London (UCL) remet en cause cette fatalité : jusqu’à 90% de la consommation énergétique de ces modèles pourrait être réduite, et cela, sans perte de performance.
« L’empreinte énergétique annuelle de l’IA générative équivaut déjà à celle d’un pays à faible revenu, et elle croît de façon exponentielle », alerte Tawfik Jelassi, sous‑directeur général pour la Communication et l’information au sein de l’UNESCO. « Pour inscrire l’IA dans une démarche de durabilité, il est impératif de repenser notre manière de l’utiliser », ajoute-t-il.
Une IA plus sobre est possible
Le rapport conjoint de l’UNESCO et de l’University College London (UCL), s’inscrit dans la continuité de la Recommandation de 2021 sur l’éthique de l’intelligence artificielle adoptée à l’unanimité par les 194 États membres de l’UNESCO. Il appelle à une transition urgente vers une IA économe en énergie. L’enjeu est de taille : chaque requête adressée à un modèle d’IA générative consomme environ 0,34 Wh. À l’échelle mondiale, cela représente plus de 310 GWh par an, soit autant que la consommation électrique annuelle de 3 millions de personnes dans un pays africain à faible revenu.
Les chercheurs de l’UCL, en testant plusieurs modèles open source, identifient trois leviers concrets pour alléger l’empreinte énergétique de l’IA.
Choisir des modèles plus petits et spécialisés
Contrairement à la logique actuelle qui favorise les modèles géants et polyvalents, l’étude montre qu’il est plus efficace — et plus sobre — d’utiliser des petits modèles adaptés à des tâches spécifiques (résumer, traduire, classer…). Cette simple adaptation permettrait de réduire jusqu’à 90% la consommation d’énergie. Le rapport évoque notamment l’intérêt des architectures « MoE » (Mixture of Experts), où plusieurs petits modèles spécialisés ne s’activent que lorsqu’ils sont requis.
Alléger les requêtes et les réponses
Les chercheurs observent que des échanges plus courts peuvent diminuer de plus de 50% la consommation énergétique. Un levier à la portée immédiate des utilisateurs finaux. Grâce à des techniques comme la quantification ou la distillation, il est possible de réduire la taille des modèles — et donc leur consommation — jusqu’à 44%, sans sacrifier la qualité des résultats.
Vers une IA plus inclusive
La question énergétique cache aussi un enjeu d’équité, souligne le rapport de l’Unesco. Aujourd’hui, la majorité des infrastructures d’IA sont concentrées dans les pays à revenu élevé. Or, selon l’Union internationale des télécommunications (UIT), seuls 5% des experts en IA en Afrique ont accès aux ressources de calcul nécessaires à l’usage ou au développement d’outils génératifs.
Pour ces régions, les modèles plus petits, moins gourmands en énergie et plus faciles à déployer localement, constituent une voie d’accès cruciale à l’IA. Un enjeu stratégique, tant pour réduire la fracture numérique que pour inscrire le développement technologique dans une logique de durabilité. L’UNESCO, fidèle à son mandat multilatéral, appelle donc non seulement à repenser la conception de l’IA, mais aussi à éduquer les utilisateurs sur les bonnes pratiques environnementales.