La firme de Mountain View lève le voile sur la consommation énergétique et l’impact environnemental de ses outils d’intelligence artificielle. Une transparence inédite dans l’industrie technologique.
Chaque fois que nous interrogeons une intelligence artificielle, nous déclenchons une machine énergétique colossale dont l’impact environnemental commence à peine à être mesuré. Google vient de dévoiler les chiffres de cette réalité méconnue.
Selon les données publiées par le géant technologique, une requête typique adressée à son chatbot Gemini consomme seulement 0,24 wattheure d’énergie. Cela équivaut à regarder la télévision pendant environ neuf secondes. Chaque requête génère également 0,03 gramme d’équivalent CO2 et utilise 0,26 millilitre d’eau, soit approximativement cinq gouttes.
Ces chiffres, bien qu’apparemment modestes à l’échelle individuelle, prennent une dimension différente lorsqu’on considère que des milliards de requêtes sont traitées quotidiennement à travers le monde. L’impact cumulé devient alors considérable et soulève des questions importantes sur la soutenabilité de notre dépendance croissante à l’IA.
Selon l’Agence internationale de l’énergie, la demande électrique mondiale des centres de données devrait plus que doubler d’ici 2030, atteignant 945 térawatts-heures, soit plus que la consommation totale du Japon.
Une démarche de verdisation
Un seul centre de données dédié à l’IA peut consommer autant d’électricité qu’une petite ville et autant d’eau qu’un grand quartier résidentiel, d’après le Wall Street Journal (WSJ). Aux États-Unis, ces infrastructures représenteront près de la moitié de la croissance de la demande électrique au cours des cinq prochaines années.
La démarche de Google témoigne d’une transparence rare, alors que la plupart des géants du numérique gardent jalousement secrets les détails de leur consommation énergétique. Sam Altman, PDG d’OpenAI, a ainsi récemment évoqué la consommation de ChatGPT de manière plutôt vague.
« Environ la quantité qu’un four utiliserait en un peu plus d’une seconde, et un quinzième de cuillère à café d’eau« , a-t-il indiqué, sans fournir de méthodologie ni de données précises pour étayer ces estimations. Google, au contraire, ne manque pas d’en jouer.
Le géant de la recherche souligne que sur une période de douze mois se terminant en mai 2025, la consommation énergétique médiane par requête Gemini a diminué de 33 fois, tandis que l’empreinte carbone a chuté d’un facteur de 44 fois.
Le chemin vers une IA plus sobre
Ces améliorations résultent selon Google d’une « stratégie d’efficacité full stack », qui optimise l’ensemble de la chaîne technologique. Cela englobe l’optimisation des algorithmes logiciels et la conception de matériel personnalisé spécifiquement adapté aux charges de travail IA.
Almond Vogdad, vice-président de l’ingénierie chez l’entreprise, estime que ces gains d’efficacité pourraient continuer au point où l’empreinte carbone de l’IA deviendrait essentiellement négligeable. Une quête cruciale pour l’environnement.
Parmi les solutions qui émergent pour parvenir à une intelligence artificielle moins énergivore figurent, à en croire le WSJ, le « power capping », technique qui ralentit légèrement les réponses pour les requêtes non urgentes, l’utilisation d’eau recyclée ou non potable pour refroidir les serveurs, ou encore la formulation de requêtes plus courtes et précises adressées à des modèles plus petits, qui peuvent diviser drastiquement la consommation énergétique.