IANIVORE 

L’intelligence artificielle générative s’impose comme l’une des technologies les plus rapidement adoptées de l’histoire. Si chacun d’entre nous a déjà intégré ChatGPT, Mistral IA ou Gemini à ses usages quotidiens, le mouvement est tout aussi fulgurant du côté des organisations.  

  • A un moment où la sobriété énergétique apparaît chaque jour davantage comme une exigence incontournable, cela soulève inévitablement la question de son impact en termes d’émissions et de consommations de ressources. 
  • Tout particulièrement face à une diffusion aussi rapide, 

 

  • L’infrastructure nécessaire au fonctionnement de l’IA affiche une trajectoire énergétique difficilement soutenable.  
  • La consommation électrique mondiale des centres de données est passée de 165 TWh en 2014 à 420 TWh en 2024, avec une accélération de +13 % par an depuis cinq ans (7% par an sur 2014-2019).  
  • Sans inflexion majeure, elle pourrait frôler 1 500 TWh d’ici 2030, dont plus d’un tiers imputable directement à l’IA. 

 

  • En Europe, les tensions sont déjà palpables.  
  • En Irlande, les data centers consomment plus de 20 % de l’électricité nationale, dépassant celle des zones résidentielles urbaines.  
  • En France, les raccordements validés aujourd’hui pèseront sur le système électrique dès 2035.  
  • A cette date, la part des centres de données pourrait atteindre 7,5 % de la consommation totale (contre 2% aujourd’hui), soit un tiers de celle de l’industrie. 
  • Si les phases d’entraînement des modèles restent très carbonées, c’est surtout l’inférence, multipliée par des millions d’utilisations quotidiennes, qui creuse l’empreinte carbone en quelques semaines 
  • Il recommande de fixer une « trajectoire plafond » pour harmoniser l’IA, la croissance des centres de données et les engagements climatiques.  
  • Le Shift Project appelle dès lors à une réorientation rapide :  
  • fixer un plafond de consommation électrique pour la filière,  
  • rendre publiques les données d’usage,  
  • concevoir des modèles plus frugaux et conditionner le déploiement de l’IA à sa compatibilité avec les budgets carbone.  
  • Faute de quoi, le risque est de voir les centres de données grignoter l’électricité nécessaire à la décarbonation du reste de l’économie. 

 

  • Principalement la transparence sur la consommation énergétique des modèles d’IA. 
  • Notamment les modèles à usage général et les systèmes à haut risque. 
  • Les fournisseurs doivent divulguer la consommation d’énergie lors du développement. 
  • Des normes sont en cours d’élaboration pour mesurer et comparer cette consommation.  
  • Cependant, ces obligations restent limitées, sans objectifs contraignants de réduction d’émissions carbone ni couverture complète du cycle de vie des IA.  
  • Les critiques soulignent que ces mesures sont insuffisantes face à l’ampleur des impacts climatiques croissants liés à l’IA.  
  • Elle se concentre sur les modèles d’IA à usage général (GPAI), tels que ChatGPT, Bard et Gemini, qui sont des consommateurs d’énergie élevés.  
  • Les fournisseurs sont invités à suivre la consommation énergétique de l’entraînement de leurs modèles et à collaborer avec les organismes de normalisation pour développer une méthode de documentation comparable.