L'IA consomme beaucoup d'eau

Édition du 7 avril 2025

Combien d’eau consomme l’intelligence artificielle?

Écrit par Caroline Gagné, ROBVQ

L’in­tel­li­gence arti­fi­cielle (IA) est aujour­d’hui au cœur des trans­for­ma­tions numé­riques qui façonnent notre société. Que ce soit pour amélio­rer les services, opti­mi­ser les indus­tries ou même rendre nos vies quoti­diennes plus faciles, l’IA est de plus en plus omni­pré­sente. Cepen­dant, derrière cette petite révo­lu­tion se cache un fait préoc­cu­pant: l’énorme consom­ma­tion d’eau néces­saire à son fonc­tion­ne­ment.

Une tech­no­lo­gie gour­mande

Le déve­lop­pe­ment et le déploie­ment des tech­no­lo­gies d’IA, en parti­cu­lier celles qui reposent sur l’ap­pren­tis­sage profond (deep lear­ning), ont besoin d’une puis­sance de calcul colos­sale. En effet, la créa­tion et l’uti­li­sa­tion de modèles d’IA perfor­mants peuvent néces­si­ter des billions de calculs par seconde. Pour ce faire, les entre­prises doivent opérer d’im­po­sants centres de données qui consomment non seule­ment beau­coup d’élec­tri­cité, mais égale­ment des quan­ti­tés d’eau consi­dé­rables pour refroi­dir les serveurs. À titre d’exemple, en 2023, Google a utilisé 24 milliards de litres d’eau! (Basta!, 2025)  Micro­soft a égale­ment reconnu l’aug­men­ta­tion de sa consom­ma­tion d’eau en raison de l’IA, avec une hausse de 34 % dans certaines régions (Fortune, 2023).

Des pistes de solu­tion

Les chiffres présen­tés ci-haut mettent en lumière la néces­sité de recou­rir à des solu­tions de refroi­dis­se­ment plus durables. Les grandes entre­prises tech­no­lo­giques sont conscientes de leur consom­ma­tion d’eau et plusieurs d’entre elles prennent des mesures pour la limi­ter. Si certaines ont investi dans des systèmes de refroi­dis­se­ment en circuit fermé qui permettent de recy­cler l’eau, d’autres cherchent à instal­ler leurs centres de données dans des régions froides pour tirer parti des condi­tions clima­tiques locales. Ces initia­tives restent cepen­dant insuf­fi­santes pour compen­ser l’am­pleur de la demande.

Il est aussi possible de rendre les proces­sus d’en­traî­ne­ment et de ré-entraî­ne­ment des modèles d’IA plus effi­caces afin de réduire la consom­ma­tion de ressources. (France Science, 2023) Des approches d’IA plus vertes sont aussi à l’étude, telles que l’IA embarquée, qui vise à déployer des modèles plus petits et plus effi­caces sur des appa­reils locaux, sans néces­si­ter une infra­struc­ture lourde de centres de données. (neovi­sion)

La respon­sa­bi­lité indi­vi­duelle

Les efforts de l’in­dus­trie doivent être couplés à ceux des utili­sa­teurs et des utili­sa­trices. Il est de notre respon­sa­bi­lité indi­vi­duelle de s’in­for­mer sur les impacts envi­ron­ne­men­taux de nos habi­tudes tech­no­lo­giques et à exiger de meilleures pratiques des entre­prises.  

Aussi et surtout, il s’avère impé­ra­tif d’éta­blir notre propre ligne de conduite.  D’après une étude réali­sée par l’Uni­ver­sité de River­side, une simple recherche sur Chat GPT-3 consom­me­rait 500 milli­litres d’eau, un chiffre qui doit sans doute être révisé à la hausse avec le déploie­ment des nouvelles versions du réputé robot conver­sa­tion­nel. (Les numé­riques, 2024) Sachant ceci, avons-nous vrai­ment besoin du support de l’in­tel­li­gence arti­fi­cielle pour choi­sir nos acti­vi­tés de la fin de semaine ou le prénom de notre dernier reje­ton?