Pour la planète, faut-il cesser de multiplier les requêtes sur ChatGPT?


Un long prompt bien construit pourrait être plus efficace qu’une série de petites questions. Du moins, pour la planète…
Ne vous contentez jamais de la première réponse”, est le conseil que tous les experts en IA vous donneront. L’itération est en effet un principe de base pour optimiser ses prompts sur ChatGPT et améliorer le travail de l’intelligence artificielle. La garantie d’une réponse précise: ajuster ses questions en fonction du résultat obtenu et surtout celui que nous souhaitons obtenir. Mais sur le plan énergétique et donc environnemental, c’est loin d’être l’option idéale…
Découvrez notre dossier “ChatGPT au bureau” – Les secrets de ceux qui l’utilisent vraiment.
Qu’est-ce qui consomme de l’énergie dans un échange avec ChatGPT?
Chaque échange que l’on a avec ChatGPT, que ce soit lors de l’entraînement de l’IA ou d’un usage quotidien, nécessite une énorme puissance de calcul:
- Lecture et analyse du prompt: il divise chaque phrase en plusieurs parties (des tokens) pour mieux comprendre ce qu’on lui demande.
- Consultation du contexte: s’il y a plusieurs messages dans la conversation, il identifie et isole la requête principale parmi tous les autres éléments.
- Calcul de la réponse: ChatGPT utilise des algorithmes avancés pour prédire le mot suivant dans une phrase. C’est ce qui lui permet de produire des réponses complexes et nuancées.
- Transmission de la réponse (envoi des données): formulation d’une réponse complète et adéquate, selon la demande.
Chacun de ces étapes demande des calculs, et donc de l’énergie. Or, cette puissance est fournie par des centres de données qui eux aussi consomment beaucoup d’électricité… et d’eau (en raison de leurs systèmes de refroidissement complexes). « Les data centers consommeraient entre 2 et 3% de l’électricité mondiale », selon l’Agence internationale de l’énergie. Sans compter qu’ils utilisent souvent des matériaux rares (semi-conducteurs) dont l’extraction a aussi un impact environnemental. Bref, plus il y a d’itérations, plus la dépense énergétique est élevée.
Pour illustrer la problématique, revenons sur une habitude de certains utilisateurs: saluer ChatGPT, le remercier et lui dire au revoir lors de chaque interaction. Être poli avec une intelligence artificielle entraînerait de nombreux frais, en consommation énergétique et en ressources informatiques, a récemment dévoilé le patron d’OpenAI, Sam Altman. De quoi accentuer l’impact environnemental de la technologie. “Une session de 10 échanges avec ChatGPT génère en moyenne 0,12g de CO2”, estime une récente étude.
tens of millions of dollars well spent–you never know
— Sam Altman (@sama) April 16, 2025
Vous pouvez modifier vos choix à tout moment en cliquant sur « Paramètres des cookies » en bas du site.
Long prompt VS plusieurs petits prompts: quelle différence?
Mais c’est aussi vrai pour les prompts trop longs et complexes… Comme expliqué juste avant, les outils tels que ChatGPT utilisent un processus de « tokens » pour traiter les textes. Ils découpent donc le texte en différentes parties, qui ne respectent pas forcément l’intégralité d’un mot. Cela peut être un mot complet, une partie d’un mot, de la ponctuation… ou même des chiffres.
Plus le message de l’internaute est long, plus le texte à analyser sera long. Par conséquent, le travail effectué par l’IA – qui doit diviser chaque prompt en tokens – sera lui aussi plus important. Et l’énergie consommée lors de cette étape va dès lors augmenter. Finalement, quel est le prompt le plus énergivore? On a réalisé un tableau comparatif des deux méthodes:
Le prompt optimal = celui qui demande une réponse compacte
In fine, multiplier nos requêtes, sur le plan environnemental, ne serait pas la stratégie la plus optimale. Même si paradoxalement, c’est comme ça que l’on obtient la meilleure réponse. Mais tout grouper dans un seul prompt demande aussi beaucoup d’énergie. Dans ce cas, quel serait le prompt idéal?
Nous avons posé la question à ChatGPT lui-même. « Un très long prompt associé à une longue réponse consomme beaucoup d’énergie d’un seul coup. Mais une succession de petits prompts, surtout si le contexte doit être rechargé à chaque fois, peut au final consommer encore plus, car chaque interaction ajoute des frais fixes liés au traitement du contexte, à la prédiction, à la réponse.
Quelques grands prompts bien construits sont souvent plus efficaces énergétiquement que de nombreuses petites interactions successives. Mais si le long prompt déclenche une réponse énorme (genre 2000 mots), l’empreinte explose aussi. » Et pour cause: plus le texte à formuler est long, plus le travail de prédiction sera important et plus les calculs seront nombreux.
En d’autres termes, ce n’est pas tant la longueur du prompt d’origine qui compte, mais la longueur de la réponse de ChatGPT. “Un long prompt sera plus lourd à traiter au départ mais sera plus efficace globalement si la réponse que l’on obtient est compacte”, conclut l’IA. “Ainsi, si tu veux économiser l’énergie quand tu utilises ChatGPT, il vaut mieux structurer ta question clairement et précisément, pour limiter les échanges successifs, tout en restant raisonnable sur la longueur de la réponse attendue.”
Intelligence artificielle
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici