Vers une compréhension des impacts invisibles de l’IA
Vous êtes-vous déjà demandé combien d’électricité et d’eau votre équipe consomme en utilisant des outils d’IA, et plus particulièrement des LLM (large language models) comme ChatGPT, au quotidien ?
Nous, oui. Et nous nous sommes aussi demandé quelle pourrait être la consommation du monde des entreprises en Belgique si tout le monde utilisait ces outils comme nous. Car même de petits changements dans notre manière d’utiliser l’IA, plus de requêtes, des fichiers plus lourds, une utilisation plus fréquente, peuvent rapidement s’amplifier et générer des impacts réels, positifs (ou négatifs), sur l’environnement, à l’échelle nationale et au-delà.
Mesure de l’usage interne : volume de requêtes et consommation associée
Nous avons mesuré le nombre de requêtes que nous avons adressées à ChatGPT sur environ un mois. En moyenne, un employé de BetterBusiness effectue 600 requêtes par mois, soit 30 requêtes par jour ouvré, pour des tâches telles que le suivi d’e-mails, la traduction, les résumés réglementaires et bien sûr la génération de texte. À notre échelle, cela représente une consommation de 0,18 kWh/mois¹, soit suffisamment d’énergie pour alimenter une ampoule LED classique de 9W pendant 20 heures par mois, ou environ 1 heure par jour ouvré.
Nous étions également curieux de connaître la consommation directe d’eau liée à ces requêtes, qui s’élève à environ 1,34 L¹ par mois. Si on traduit cela en bières, c’est suffisant pour passer un vendredi soir typiquement belge.
Changement d’échelle : extrapolation au niveau des entreprises belges
Ces chiffres peuvent sembler faibles, mais n’oublions pas que nous ne sommes pas la seule entreprise à utiliser des LLM. Les données montrent que 12,7 %² des entreprises belges utilisent aujourd’hui des LLM sur leur lieu de travail. Nous avons voulu estimer la consommation totale d’électricité et d’eau si notre usage de ChatGPT était reproduit dans ces entreprises, et les chiffres deviennent alors beaucoup plus significatifs.
En 2025, la Belgique comptait 1,2 million d’entreprises³, avec environ 4,2 millions d’employés⁴, soit en moyenne 3,5 employés par entreprise. Sur cette base, nous estimons que la consommation d’électricité liée aux LLM dans le monde des entreprises atteindrait 96,2 MWh, soit l’équivalent de l’alimentation de 330 ménages par mois (en considérant une maison moyenne hors Bruxelles)⁵, ou encore plus de 10 millions d’heures d’éclairage avec une ampoule LED.
En ce qui concerne la consommation d’eau, les chiffres précédents ne prennent en compte que l’eau utilisée directement pour refroidir les centres de données. Cela représente environ 718 000 litres, soit l’équivalent de la consommation mensuelle de 113 ménages belges moyens⁶⁷.
Analyse comparative : requêtes LLM vs recherches web classiques
Et si nous utilisions un moteur de recherche classique à la place ? Une requête LLM consomme 10 fois plus qu’une recherche classique⁸. Au lieu d’alimenter 330 foyers par mois, on n’en alimenterait que 33.
Pour l’eau, les choses se compliquent. Il n’existe pas de donnée publique claire sur la consommation d’eau directe par requête pour une recherche web standard. Autrement dit, nous n’avons pas trouvé de chiffre précis indiquant combien d’eau est utilisée pour refroidir les serveurs lors d’une seule recherche Google.
Pour garantir une comparaison équitable, nous avons donc utilisé la consommation d’eau indirecte liée à la production d’électricité, appelée “water in energy”. Cela permet de comparer les deux technologies sur une base commune : la quantité d’eau associée à l’électricité nécessaire pour traiter une requête. Certaines estimations permettent néanmoins de donner un ordre de grandeur. Une étude des Nations Unies⁹ estime qu’une recherche Google consomme environ 0,5 mL d’eau “in energy”, tandis que ChatGPT consommerait environ 500 mL pour 5 à 50 requêtes.
Pour nos calculs, nous utilisons une hypothèse de 18 mL par requête LLM. En extrapolant l’usage de BetterBusiness à l’ensemble des entreprises belges, la consommation indirecte d’eau pourrait atteindre 5,7 millions de litres pour les LLM, contre environ 160 000 litres pour le même nombre de requêtes via un moteur de recherche.
Autrement dit, dans ce scénario, l’empreinte eau indirecte est environ 36 fois plus élevée pour les requêtes LLM que pour les recherches web. La raison est simple : une requête LLM nécessite beaucoup plus de puissance de calcul. Un moteur de recherche se contente de récupérer de l’information indexée, tandis qu’un LLM génère du texte via un réseau neuronal complexe. Plus de calcul implique plus d’électricité, et donc plus d’eau associée à sa production.
Recommandations : vers un usage plus sobre et intentionnel des LLM
Une solution pourrait être d’attendre que les LLM deviennent plus efficaces et moins gourmands en ressources. Ou de choisir volontairement des modèles plus légers et moins énergivores lorsque c’est possible. Ou encore, dans certains cas, de ne pas utiliser l’IA du tout si cela reste réaliste dans un monde où la productivité domine.
Chez BetterBusiness, nous avons choisi de ne pas attendre. Nous avons mis en place un cadre d’utilisation interne simple. Les employés sont encouragés à utiliser les LLM lorsqu’il y a un gain de productivité clair ou une contrainte de temps réelle, et non par défaut. Nous avons également créé des GPT spécifiques avec des prompts système structurés, afin d’obtenir des réponses plus pertinentes dès le départ. Cela réduit les échanges inutiles et donc le nombre de requêtes. Moins d’itérations signifie moins de calcul. Nous avons même travaillé sur le style d’écriture. Des prompts plus courts et plus clairs génèrent des réponses plus courtes et plus efficaces. Nos équipes étaient parfois un peu trop polies et verbeuses avec l’IA ce qui est charmant, mais génère plus de texte et donc plus de traitement. Être précis, direct et structuré est plus efficace, pour les humains comme pour les modèles. Nous avons aussi mis en place des recommandations pratiques, notamment sur le “prompting efficace”, en privilégiant la clarté plutôt que l’expérimentation excessive. Enfin, nous suivons l’usage de manière transparente afin de maintenir la sensibilisation au sein de notre culture non pas pour freiner l’innovation, mais pour encourager une utilisation consciente et responsable.
Aucune de ces actions n’élimine totalement l’impact. Mais elles permettent de passer d’un usage automatique à un usage intentionnel et à grande échelle, cette différence compte.
Conclusion : une question d’arbitrage entre usage et valeur créée
L’adoption de l’IA ne fera que croître dans les années à venir. Cet outil, accessible, polyvalent et libérateur de temps, est tout simplement trop utile pour ne pas être utilisé. Cet article ne prend même pas en compte les usages privés, éducatifs ou les nombreuses autres façons dont l’IA s’intègre déjà dans notre quotidien ce qui signifie que ces chiffres sont encore loin de la réalité complète. Si la consommation continue d’augmenter à ce rythme, les efforts nécessaires pour la compenser ne seront pas négligeables. Cela aura des répercussions sur les équilibres environnementaux et sociaux, et pourrait accentuer certaines inégalités. Les coûts et les “avantages” liés à l’IA continueront d’augmenter, sans que tout le monde ne soit nécessairement compensé pour cette évolution.
Certains pourraient ainsi payer, directement ou indirectement, pour une technologie qui bénéficie principalement aux entreprises et aux organisations. Bien sûr, on peut aussi considérer que l’IA permet de mieux travailler, d’aller plus vite et de produire des résultats positifs. Mais plus un outil devient accessible, plus il est utilisé, même lorsqu’il n’est pas nécessaire. Cet usage excessif peut, à terme, annuler les bénéfices attendus, surtout dans un contexte où de nombreuses organisations s’efforcent déjà de réduire les inégalités.
Oui, nous sommes plus productifs que jamais. Mais est-ce que cela en vaut la peine ?
La vraie question n’est peut-être pas “combien pouvons-nous faire de plus grâce à l’IA”, mais plutôt “quelle quantité de progrès réellement utile produisons-nous par unité d’IA consommée ?”
Une équation intéressante à explorer et probablement difficile à ignorer encore longtemps.
Références:
Jegham, N.,Abdelatti, M., Koh, C. Y., Elmoubarki, L., & Hendawi, A. (2025). How hungry is ai? benchmarking energy, water, and carbon footprint of llm inference. arXiv preprint arXiv:2505.09598.
https://www.acerta.be/en/inspiration/using-artificial-intelligence-in-the-workplace-belgian-companies-in-top-3-in-europe
https://www.belganewsagency.eu/over-113000-new-companies-established-in-belgium-last-year
https://www.onss.be/actualites/2025/09/01/barometre-du-travail-salarie—juin-2025
https://www.energuide.be/en/questions-answers/what-is-the-average-electricity-and-gas-consumption-in-the-brussels-region/273
https://statbel.fgov.be/en/news/there-were-5163139-private-households-belgium-1-january-2024
De Vries, A. (2023). The growing energy footprint of artificial intelligence. Joule, 7(10), 2191-2194.
Gupta, J., Bosch, H., & van Vliet, L. (2024). AI’s excessive water consumption threatens to drown out its environmental contributions. The Conversation.

