L’intelligence artificielle générative s’impose comme l’une des technologies les plus rapidement adoptées de l’histoire. Si chacun d’entre nous a déjà intégré ChatGPT, Mistral IA ou Gemini à ses usages quotidiens, le mouvement est tout aussi fulgurant du côté des organisations.
- L’exemple de Mistral est révélateur : son chatbot ne représente que 10 % de son chiffre d’affaires, contre 90 % générés par l’intégration BtoB de ses modèles.
- A un moment où la sobriété énergétique apparaît chaque jour davantage comme une exigence incontournable, cela soulève inévitablement la question de son impact en termes d’émissions et de consommations de ressources.
- Tout particulièrement face à une diffusion aussi rapide,
- Le dernier rapport du Shift Project sur le sujet est riches d’enseignements.
- L’infrastructure nécessaire au fonctionnement de l’IA affiche une trajectoire énergétique difficilement soutenable.
- La consommation électrique mondiale des centres de données est passée de 165 TWh en 2014 à 420 TWh en 2024, avec une accélération de +13 % par an depuis cinq ans (7% par an sur 2014-2019).
- Sans inflexion majeure, elle pourrait frôler 1 500 TWh d’ici 2030, dont plus d’un tiers imputable directement à l’IA.
- En Europe, les tensions sont déjà palpables.
- En Irlande, les data centers consomment plus de 20 % de l’électricité nationale, dépassant celle des zones résidentielles urbaines.
- En France, les raccordements validés aujourd’hui pèseront sur le système électrique dès 2035.
- A cette date, la part des centres de données pourrait atteindre 7,5 % de la consommation totale (contre 2% aujourd’hui), soit un tiers de celle de l’industrie.
- À cette dynamique d’offre et de demande qui s’auto-alimente, car plus d’usages appellent plus de capacités et inversement, s’ajoute un effet « boomerang ».
- Si les phases d’entraînement des modèles restent très carbonées, c’est surtout l’inférence, multipliée par des millions d’utilisations quotidiennes, qui creuse l’empreinte carbone en quelques semaines
- Sans planification, l’essor de l’intelligence artificielle (IA) se révèle insoutenable estime le rapport.
- Il recommande de fixer une « trajectoire plafond » pour harmoniser l’IA, la croissance des centres de données et les engagements climatiques.
- Le Shift Project appelle dès lors à une réorientation rapide :
- fixer un plafond de consommation électrique pour la filière,
- rendre publiques les données d’usage,
- concevoir des modèles plus frugaux et conditionner le déploiement de l’IA à sa compatibilité avec les budgets carbone.
- Faute de quoi, le risque est de voir les centres de données grignoter l’électricité nécessaire à la décarbonation du reste de l’économie.
- Principalement la transparence sur la consommation énergétique des modèles d’IA.
- Notamment les modèles à usage général et les systèmes à haut risque.
- Les fournisseurs doivent divulguer la consommation d’énergie lors du développement.
- Des normes sont en cours d’élaboration pour mesurer et comparer cette consommation.
- Cependant, ces obligations restent limitées, sans objectifs contraignants de réduction d’émissions carbone ni couverture complète du cycle de vie des IA.
- Les critiques soulignent que ces mesures sont insuffisantes face à l’ampleur des impacts climatiques croissants liés à l’IA.
- Elle se concentre sur les modèles d’IA à usage général (GPAI), tels que ChatGPT, Bard et Gemini, qui sont des consommateurs d’énergie élevés.
- Les fournisseurs sont invités à suivre la consommation énergétique de l’entraînement de leurs modèles et à collaborer avec les organismes de normalisation pour développer une méthode de documentation comparable.