Bannière salon 360 2025 articles

Intelligence artificielle : DeepSeek remet aussi en question les besoins en énergie

  • AFP
  • parue le

L'irruption du Chinois DeepSeek, qui ébranle les géants de la Silicon Valley en raison du bien moindre coût de son modèle d'intelligence artificielle, remet aussi en question un autre aspect fondamental pour le secteur de l'IA: ses besoins en énergie.

Un modèle moins gourmand en puces et en énergie

Le nouveau champion de l'IA a indiqué avoir développé son nouveau modèle R1 - devenu ce week-end l'application gratuite la plus téléchargée sur l'App Store américain d'Apple où il a supplanté ChatGPT - avec environ 2 000 puces Nvidia, ce qui représente seulement une petite partie de la puissance informatique habituellement nécessaire pour entraîner des programmes similaires.

Ce qui a un impact déterminant sur le coût mais aussi sur la consommation énergétique des centres de données, ces millions de serveurs qui hébergent nos données informatiques et dans lesquels les géants de la tech investissent actuellement des milliards de dollars pour accompagner l'essor fulgurant de l'IA.

Depuis le début de la révolution IA, le secteur estime que ses besoins en énergie vont croître de façon exponentielle, tout comme ceux de la capacité informatique, soutenant sur les marchés les actions des groupes énergétiques.

Résultat, l'irruption de DeepSeek et de son modèle moins gourmand en puces et en énergie a entraîné une chute des titres des compagnies d'énergie, parallèlement à ceux du secteur de la tech. Le groupe américain Constellation Energy, qui a scellé l'an dernier un accord avec Microsoft pour le fournir en électricité, a ainsi chuté de plus de 20% lundi sur le Nasdaq.

Pour Travis Miller, analyste financier spécialisé dans l'énergie chez Morningstar, le modèle "R1 (de DeepSeek) illustre le danger, pour les producteurs d'électricité, des gains en terme d'efficacité informatique". "Les attentes du marché" sur les perspectives représentées par l'IA pour le secteur énergétique "sont allées trop loin", juge-t-il.

Une consommation électrique des data centers bientôt égale à celle du Japon ?

Sur la seule année 2023, Google, Microsoft et Amazon ont investi l'équivalent de 0,5% du PIB américain dans les centres de données, selon l'Agence internationale de l'énergie (AIE).

Toujours selon l'AIE, ces centres représentent déjà, à l'échelle mondiale, environ 1% de la consommation d'électricité et des émissions de gaz à effet de serre liées à l'énergie.

Si des améliorations en terme d'efficacité énergétique ont permis jusqu'ici de modérer leur consommation, en dépit d'une hausse de la demande, l'AIE prévoit un doublement de la consommation d'énergie des "data centers" entre 2022 et 2026. Elle égalera alors la consommation annuelle d'électricité du Japon.

Aux Etats-Unis, la consommation des centres de données a représenté 4,4% de la consommation globale d'électricité du pays en 2023, selon un rapport commandé par le gouvernement fédéral et en 2028, ce chiffre devrait atteindre 12%.

Ces besoins exponentiels ont poussé les géants de la tech à se lancer dans une course à l'énergie abondante et décarbonée pour nourrir l'essor de l'IA. Amazon, Google ou Microsoft ont ainsi scellé l'an dernier des accords pour avoir un accès direct à de l'énergie d'origine nucléaire pour alimenter leurs centres de données, qui sont par ailleurs très gourmands en eau pour refroidir les serveurs.

Meta a pour sa part signé des contrats pour alimenter ses centres avec de l'énergie d'origine renouvelable.

Paradoxe de Jevons

"Construire des centres de données entraîne beaucoup d'émissions de carbone en raison de la production d'acier mais aussi des processus d'extraction minière et de production du matériel informatique nécessaire", souligne Andrew Lensen, maître de conférences en intelligence artificielle à la Victoria University de Wellington.

"Si DeepSeek venait à remplacer des modèles comme celui d'OpenAI (...), cela entraînerait donc un net repli des besoins en énergie", ajoute-t-il.

Mais le secteur pourrait toutefois se retrouver face au "paradoxe de Jevons", a souligné lundi sur X le patron de Microsoft, Satya Nadella. Une théorie qui veut qu'en rendant une technique plus efficace, on augmente paradoxalement la consommation de ressources au lieu de la diminuer.

"A mesure que l'IA sera plus performante et accessible, nous verrons son utilisation s'envoler, et nous ne pourrons plus nous en passer", a-t-il prédit.

Andrew Lensen note pour sa part que l'apport de la start-up chinoise va aider les géants américains à "utiliser l'optimisation en terme de capacité informatique pour bâtir des modèles plus grands et performants", avec la même quantité d'énergie qu'auparavant et non "pour construire un modèle 10 fois plus petit et performant".

Ajouter un commentaire

Suggestion de lecture