Au Sud de la région parisienne, au sous-sol de l’Institut de développement et des ressources en informatique scientifique (Idris), seize armoires remplies de serveurs tournent à plein régime. Le supercalculateur Jean Zay, le plus puissant de l’Hexagone, réalise jusqu’à 126 millions de milliards d’opérations par seconde – un chiffre multiplié par quatre depuis sa dernière extension inaugurée en mai 2025 en présence du Président de la République ; il est tout entier dévolu à la recherche. « Il n’a jamais été aussi vrai de dire que le calcul intensif est important : il est présent dans toutes les disciplines », témoignait le PDG du CNRS Antoine Petit le 8 octobre en introduction d’une journée consacrée aux nouveaux paradigmes de calcul (voir encadré). Sciences du climat, biochimie, astrophysique… les applications sont nombreuses et souvent “waouh”, comme cette simulation de la Galaxie et de ses trous noirs réalisée en avril dernier sur l’un des plus puissants supercalculateurs au monde, nommé Frontier, aux États-Unis. Des applications qui alimentent elles-même le développement de nouveaux modèles, tournant sur des machines de plus en plus puissantes. Face à cette véritable « fuite en avant », Antoine Petit lui-même voulait apporter de la nuance : « La question de la sobriété est essentielle, on doit se montrer responsable ».
« J’ai été “Madame toujours plus” : plus de résolutions, plus de paramètres physiques… »
Marie-Alice Foujols (CNRS)
Vitesse lumière. Car au niveau mondial, le secteur du numérique – privé en tête – a le pied sur l’accélérateur, générant et accumulant toujours plus de données. Chaque mois de nouveaux data centers – qui servent aujourd’hui à la fois au stockage de données mais aussi à l’entraînement de modèles – se construisent, de plus en plus gourmands en électricité. Sans même prendre en compte les cryptomonnaies, ils auraient consommé en 2024 420 TWh – l’équivalent de la consommation hexagonale – et pourraient atteindre 1500 TWh en 2030, exposait Marlène de Bank, ingénieure de recherche au sein du Shift Project. Une conférence de presse accompagnait la sortie de leur rapport, co-signé par plusieurs chercheuses et chercheurs, le 30 septembre dernier – nous y étions. « L’IA en est le principal moteur, avec une offre qui précède de loin la demande », détaillait Alexandre Theve, expert numérique au Shift Project. Un développement de l’IA lui-même permis par l’arrivée sur le marché des processeurs graphiques (GPU pour les intimes) qui montrent chaque année de meilleures performances. Jean Zay en contiendrait 1500 et une seule « suffirait à transformer votre ordinateur en machine de gamer », selon la vidéo du CNRS. À ce jour dans le monde, neuf millions de GPU seraient déployées, dont l’immense majorité commercialisée par une seule entreprise entretenant un quasi-monopole : Nvidia. Une entreprise qui vient de dépasser Apple ou Microsoft en termes de valorisation boursière et qui n’est pas près de stopper les bénéfices : le Shift Project estime à 60 millions le nombre de GPU d’ici 2030.
Plan B. Plan B. Si l’empreinte carbone de ces infrastructures peut être diminuée en décarbonant l’électricité utilisée, on part de loin. « En 2024, plus de la moitié de la consommation mondiale d’électricité des centres de données était d’origine fossile », détaillait Marlène de Bank. Et vu la croissance actuelle des besoins, « en 2030, leur contribution au changement climatique sera multiplié par deux, voire trois, par rapport à 2020 ». Avec de potentielles tensions sur les réseaux électriques. L’équipe du Shift Project a étudié le cas de l’Irlande qui, dès 2015, a mis en place une politique attractive pour l’installation de data centers. « Leur part dans la consommation d’électricité nationale est passée de 5 à 20% en sept ans », expliquait Hugues Ferreboeuf, chef du projet Numérique au Shift. Une explosion non anticipée qui a mené à une saturation du réseau électrique dans la région de Dublin et au recours, pour certaines entreprises du numérique, à l’ouverture de centrales à gaz dédiées. Une situation préoccupante qui résonne avec l’annonce d’Emmanuel Macron au sommet sur l’IA en février dernier – relire notre analyse – de « 35 sites prêts à l’emploi ». « La consommation électrique des centres de données en France – qui représente aujourd’hui 2% – pourrait être multipliée par quatre, rentrant ainsi en conflit avec d’autres secteurs ayant besoin de se décarboner comme les transports ou le chauffage », exposait Pauline Denis, ingénieure de recherche au Shift Project. Le think tank appelle donc à une planification de ces besoins et à leur intégration au sein de la Stratégie nationale bas carbone, dont une nouvelle mouture est prévue courant 2025.
« La demande est devenue quatre fois supérieure à nos capacités (…) nous devons constamment réfléchir à l’achat de nouvelles machines »
Jean-Philippe Proux (Genci)
La part des labos. La recherche académique est-elle une goutte d’eau dans cet océan ? « On parle beaucoup de l’empreinte environnementale des data centers, mais celle de nos machines reste plusieurs ordres de grandeur en dessous. De plus, leur usage n’est pas ludique, il est académique », rappelle Éric Boyer, chef de projet au Grand équipement national de calcul intensif (Genci) qui a consommé 6400 tonnes d’équivalent CO2 en 2025. Cette société privée a été créée en 2007 afin de mutualiser l’achat de ressources de calcul pour la recherche publique ou privée, avec un budget du ministère de la Recherche et de l’Enseignement supérieur (MESR). « La France était en décrochage et les scientifiques ont alerté », se souvient Marie-Alice Foujols, ingénieure de recherche au CNRS et entre 2015 et 2019 directrice adjointe en charge calcul intensif au sein de l’Institut Pierre-Simon Laplace (IPSL). En sciences du climat, des protocoles lourds mais standardisés permettent de comparer les résultats d’une équipe à une autre, même à l’autre bout de la planète. « J’ai été “Madame toujours plus” : plus de résolutions, plus de paramètres physiques, des simulations plus longues, des ensembles de simulation plus fournis… », admet celle qui est aujourd’hui largement impliquée dans le collectif Labos1point5. Quantifier les ressources de calcul nécessaires, justifier l’achat de nouvelles machines… et trouver l’argent pour financer tout cela, cela faisait partie de son travail. Un travail aujourd’hui facilité par le Genci.
Course à l’intelligence. À l’heure actuelle, trois centres opèrent les machines achetées par le Genci : le Centre informatique national de l’enseignement supérieur (Cines, MESR) à Montpellier, l’Idris (CNRS) à Orsay et le Très grand centre de calcul du CEA (TGCC) à Bruyères-le-Châtel, là où se situe la direction des applications militaires. Les chercheurs qui veulent s’en servir sollicitent des “heures de calcul” auprès du Genci, demande qui sera d’abord examinée sous un angle scientifique par un comité d’experts, avant de se voir attribuer une place sur une machine. À la fin de leur utilisation, une estimation des coûts, financiers et carbone, est communiquée aux scientifiques, sans qu’ils n’aient à débourser un seul euro. Mais les places sont de plus en plus chères : « Pour les GPU prisés par l’IA, les demandes s’accélèrent depuis trois ans : la demande est devenue quatre fois supérieure à nos capacités. Nous devons donc revoir à la baisse certains projets, arbitrer en fonction de l’évaluation scientifique ou orienter les chercheurs vers les infrastructures européennes », témoigne Jean-Philippe Proux, responsable des opérations au Genci. « Avant, seuls quelques chercheurs avaient recours à des modèles IA. Aujourd’hui, ils accélèrent le calcul dans toutes les sciences », analyse Éric Boyer.
« [Rien] ne permet aujourd’hui de dire que le numérique a permis de décarboner quoi que ce soit »
Maxime Efoui-Hess (Shift Project)
La balle au bond. « La situation est inédite, continue Jean-Philippe Proux, nous devons constamment réfléchir à l’achat de nouvelles machines. » Des acquisitions qui prennent en moyenne deux ans entre la prospection et leur mise à disposition. « Il y a 15 ans on choisissait la machine qui allait le plus vite, aujourd’hui, on priorise celle qui, pour une simulation donnée, aura la consommation énergétique la plus faible », explique Éric Boyer. Vertueux mais avant tout efficace, tant les factures d’électricité et les tensions sur les réseaux ont explosé depuis 2022 – nous vous en parlions. Car, si l’empreinte du calcul haute performance académique reste négligeable par rapport à celles des géants du numérique, elle s’accélère également. Aux embryons de supercalculateurs des années 1940 ont succédé des bêtes de compétition qui dominent aujourd’hui le Top 500, ne restant à la tête du podium qu’un an et demi en moyenne. El Capitan, le plus puissant supercalculateur au monde – déclaré – se trouve aujourd’hui hébergé aux États-Unis ; il est environ dix fois plus rapide que Jean Zay. « Alors que les performances ont été multipliées par un milliard, l’efficacité énergétique, elle, n’a été multipliée que par 7 millions », expliquait, graphique à l’appui, Denis Trystram, professeur émérite à Grenoble INP, le 8 octobre 2025 lors de la journée organisée par le CNRS. La facture électrique ne fait donc que grimper, montrant ainsi le fameux “effet rebond” : l’augmentation des usages excède toujours les gains d’efficacité.
PIB compatible. « Augmentation du taux de renouvellement du matériel, des usages, des données… nous avons tous des exemples en tête, même dans la recherche », abondait le 8 octobre Anne-Cécile Orgerie, chercheuse CNRS à Rennes et responsable du groupement de recherche et de service EcoInfo qui dispense des formations et diffuse une plaquette sur l’écoconception à destination des développeurs – entre autres. Alors que sept limites planétaires sur neuf ont été franchies, le constat fait réfléchir la chercheuse : « Les sciences informatiques sont souvent présentées comme une solution, alors qu’en réalité elles font partie du problème ». Une conclusion qui fait écho aux propos de Maxime Efoui-Hess du Shift Project : « Aucun effet observable à l’échelle macroscopique ne permet aujourd’hui de dire que le numérique a permis de décarboner quoi que ce soit. » Au contraire : « L’IA agit comme un catalyseur de l’économie. En la déployant partout dans une société carbonée, les émissions de CO2 augmentent inévitablement. »
« Si cela dépasse l’enveloppe carbone qu’on s’est fixée au départ, alors le projet doit être abandonné »
Maxime Efoui-Hess (Shift Project)
Dommage et intérêts. Une responsabilité pour les chercheuses et chercheurs, en tant qu’utilisateurs – relire notre interview de Pierre Noro – mais aussi en tant que développeurs d’outils reposant sur l’IA. C’est l’avis de Anne-Laure Ligozat, professeure en informatique à l’Université Paris Saclay. L’IA a toujours été son sujet de recherche mais elle a décidé de se consacrer à l’étude de son empreinte écologique. « Malgré les optimisations algorithmiques, matérielles et les annonces de décarbonation de l’électricité, l’entraînement de modèles IA coûte de plus en plus cher en termes environnementaux », explique-t-elle. Et les impacts ne se limitent pas à la quantité de CO2 émis, comme le montre sa collègue Aurélie Bugeau, professeure à l’Université de Bordeaux et travaillant originellement sur l’analyse d’image par IA : « Si on décide d’utiliser des robots équipés d’IA en agriculture, cela nécessite le déploiement d’antennes réseaux et éventuellement de ressources de calcul sur les territoires, avec des impacts environnementaux et financiers supplémentaires. Ils doivent être mis en balance avec les impacts positifs. » La chercheuse constate également l’évolution autour d’elle à l’université : « Beaucoup de chercheurs se retrouvent embarqués dans l’IA, sans trop avoir le choix d’adopter ou non la technologie, et certains se retrouvent en dissonance. »
Moins, mieux. Face aux incitations à tout va, « il faut résister car actuellement la dynamique est imposée par l’offre », concluait Hugues Ferreboeuf du Shift Project, et « veiller à ne pas réorienter toutes les ressources de formation vers l’IA au détriment de la transition écologique et sociale ». Des leviers restent activables sur la conception (diminuer la taille des modèles) et le déploiement (limiter le nombre d’utilisateurs), « mais si cela dépasse l’enveloppe carbone qu’on s’est fixée au départ, alors le projet doit être abandonné », expliquait en complément Maxime Efoui-Hess. Une recherche non pas d’efficacité mais plutôt de frugalité, en somme : « se contenter d’un niveau de résultat jugé suffisant en redéfinissant les usages et les besoins », comme l’explique le référentiel de l’association française de normalisation Afnor sur l’IA frugale. « La qualité des prévisions météo à trois jours équivaut aujourd’hui à celle qu’on avait il y a quelques années à un jour. Mais à quoi cela sert-il ? Quand sera-t-on satisfait du résultat ? », interrogeait Guillaume Pallez, chercheur à Inria lors d’un atelier organisé par Labos 1point5 le 29 septembre 2025. Les chercheuses et chercheurs adopteront-ils le concept de frugalité ? Un projet de data center respectueux des limites planétaires, basé sur du matériel existant, vient de débuter. Denis Trystram y participe : « Les utilisateurs signeraient une charte, s’engageant à se contenter des ressources disponibles. Un peu comme une Amap [Association pour le maintien d’une agriculture paysanne, NDLR] ne délivre que des légumes de saison ! »
Le salut viendra-t-il du quantique ?
Le calcul quantique était présenté comme l’un des potentiels nouveaux paradigmes de calcul au CNRS le 8 octobre aux côtés du calcul moléculaire sur ADN et du calcul neuromorphique. En parallèle, deux machines “quantiques” – souvenez-vous du lancement du plan quantique en janvier 2021, nous y étions – viennent d’être acquises par le Genci et installées au TGCC, avec la volonté, même si celles-ci ne présentent pas encore de grandes performances, d’acculturer les communautés à ces technologies et, à long terme, l’espoir d’accélérer certains calculs. Avec la perspective supplémentaire d’une consommation électrique éventuellement réduite par rapport aux machines actuelles – un sujet encore très supputatif.
Illustration : Argonne National Laboratory
