https://www.lemonde.fr/planete/article/2024/08/04/climat-les-promesses-de-l-ia-grevees-par-un-lourd-bilan-carbone_6266586_3244.html

L’intelligence artificielle (IA) est-elle davantage un remède qu’un poison climatique ? Les géants de la tech, de Google à Microsoft, le clament haut et fort : les apports de ces technologies pour décarboner les économies et s’adapter au réchauffement seront à terme majeurs. A l’inverse, nombre d’experts préviennent que ces gains restent hypothétiques. L’empreinte carbone et la consommation électrique de services comme ChatGPT, d’ores et déjà importantes, risquent de devenir colossales. Ils appellent à la mesure face à une solution « utile » mais pas « miracle ».

Une meilleure connaissance du climat L’IA est considérée comme un outil efficace pour mieux comprendre le changement climatique et répondre aux incertitudes qui persistent. Elle est de plus en plus utilisée dans les prévisions météorologiques, comme s’y emploie le Centre européen pour les prévisions météorologiques à moyen terme (ECMWF), et pour les simulations du climat du futur. Google Research a ainsi dévoilé, le 22 juillet, dans la revue britannique Nature, une nouvelle approche, NeuralGCM, mélangeant IA et modèles climatiques fondés sur la physique, afin de simuler la météo et le climat de la Terre jusqu’à 3 500 fois plus vite que d’autres modèles et de manière autant, voire plus, précise sur une majorité de paramètres.

L’IA sert aussi à mieux anticiper les événements extrêmes, notamment « les incendies, les avalanches ou la trajectoire et les changements brusques d’intensité des cyclones », explique Claire Monteleoni, titulaire de la chaire Choose France AI et directrice de recherche à l’Institut national de recherche en sciences et technologies du numérique (Inria). Dans le cadre du projet de recherche européen Xaida, le climatologue Pascal Yiou fait, quant à lui, appel à l’IA pour savoir si ces catastrophes sont dues au changement climatique d’origine humaine – ce que l’on appelle la science de l’attribution.

Il utilise aussi l’IA pour prédire la survenue d’événements rares, comme des canicules historiques, afin de mieux préparer la société. « Nous avons, par exemple, réalisé 10 000 simulations de l’été 2024 pour savoir ce qui pouvait arriver », explique le directeur de recherche au Laboratoire des sciences du climat et de l’environnement. L’exercice a pris une semaine pour former l’IA puis une dizaine de minutes pour produire des résultats. Deux ou trois mois auraient été nécessaires avec des modèles de climat qui tournent sur des supercalculateurs. « L’IA nous permet de tester davantage d’hypothèses et de répondre à des questions de recherche jusqu’à présent inaccessibles », juge M. Yiou.

Des solutions pour réduire les émissions de CO2 L’IA commence à être utilisée pour accélérer la transition écologique. « Elle est bien adaptée, car les problématiques du climat sont complexes et multifactorielles, donc difficiles à gérer », estime Gilles Babinet, coprésident du Conseil national du numérique et auteur de Green IA. L’intelligence artificielle au service du climat (Odile Jacob, ‎224 pages, 22,90 euros).

Mme Monteleoni explique collaborer avec EDF « pour mieux comprendre où installer des éoliennes en fonction des modifications des vents liés au changement climatique ». L’IA peut aider à optimiser les réseaux électriques, responsables d’un quart des émissions mondiales de gaz à effet de serre, « en sachant prédire où c’est ensoleillé ou venteux dans les jours qui viennent, afin de maximiser la production de renouvelables et moins s’appuyer sur d’autres sources d’énergie plus sales », poursuit-elle.

Les autres exemples d’usages sont légion : observer et inventorier les émissions de millions de sites polluants à travers le globe et traquer la déforestation, développer de nouveaux matériaux, par exemple de meilleurs composants de batteries, optimiser les systèmes de chauffage et de climatisation dans les bâtiments, améliorer l’agriculture de précision, pour limiter les intrants ou l’irrigation, comme les recense une vaste étude, publiée en 2022, par une vingtaine d’universitaires et d’experts de la tech, dont Google.

« Nous voyons l’IA comme une occasion pour le climat », résume Adam Elman, responsable du développement durable pour l’Europe, l’Afrique et le Moyen-Orient chez Google. Parmi ses services, il cite Google Maps, qui, grâce aux données sur la topologie ou le trafic routier, « propose des itinéraires qui minimisent l’utilisation de carburant ». « Depuis 2021, cela a évité 2,9 millions de tonnes de CO2, soit l’équivalent de 660 000 voitures retirées de la route par an », assure-t-il. Les thermostats Nest, de Google, qui peuvent contrôler automatiquement le chauffage et la climatisation d’un domicile, auraient, eux, permis d’économiser 7 millions de tonnes de CO2, toujours selon l’entreprise. Le groupe a également effectué des tests pour réduire, grâce à l’IA, les traînées de condensation des avions, qui aggravent le réchauffement climatique.

Quel pourrait être l’impact pour le climat de l’ensemble de ces pistes ? Il n’existe pas de chiffres ayant fait l’objet d’études approfondies. Les solutions liées à l’IA, si elles étaient mises en œuvre largement, pourraient réduire les émissions de CO2 mondiales de 5 % à 10 %, d’ici à 2030, assure un rapport du Boston Consulting Group commandé par Google. Mais cette estimation n’est qu’une simple extrapolation à partir d’un article de 2021 racontant quelques cas de clients du cabinet de conseil. Un rapport de PwC sur quatre secteurs, financé par Microsoft en 2019, avançait, lui, une fourchette de baisse de 1,5 % à 4 %, d’ici à 2030. Des chiffres que remet en cause Hugues Ferreboeuf, spécialiste du numérique au cercle de réflexion The Shift Project : « Toutes les approches sérieuses mettent en avant l’impossibilité de généraliser à partir de cas d’étude spécifiques. »

Une empreinte carbone en pleine expansion L’enjeu est de taille, car l’IA a d’ores et déjà un coût environnemental important : celles génératives, capables de créer des textes, des images ou des vidéos, nécessitent énormément de calcul informatique, lors de la phase d’entraînement mais surtout d’utilisation. Une requête sur un assistant comme ChatGPT consomme dix fois plus d’électricité qu’une recherche sur Google, selon l’Agence internationale de l’énergie (AIE).

Selon l’organisation non gouvernementale (ONG) Data For Good, spécialisée dans la production de données sur les technologies, 100 millions d’utilisateurs de la dernière version de ChatGPT, avec une conversation par jour, émettraient autant de CO2 en un an que de 100 000 à 364 000 Français. Or, ce type d’assistants d’IA est en cours de déploiement sur le moteur de recherche de Google, les réseaux sociaux de Meta, les smartphones Apple ou Samsung… Les centaines de milliards d’euros investis dans les centres de données par les géants du numérique, en grande partie pour répondre aux besoins de l’IA, ont d’ores et déjà fait bondir leurs émissions de CO2, en raison de la construction des bâtiments et de la fabrication des processeurs : en 2023, + 30 % pour Microsoft et + 13 % pour Google (+ 50 % depuis 2019).

Ce décrochage lié à l’IA remet-il en cause l’objectif de « zéro carbone en 2030 » fixé par Microsoft ou Google ? « Nous sommes très engagés dans la poursuite de cet objectif », assure M. Elman, de Google, tout en soulignant que ce but est « très ambitieux et difficile à atteindre ». Les géants du numérique misent sur leurs achats d’énergies renouvelables et leurs efforts d’efficacité énergétique pour y parvenir.

« Nous pensons que les bénéfices de l’IA pour le climat vont significativement dépasser les aspects négatifs », assure surtout M. Elman, de Google, comme les dirigeants de Microsoft. L’IA ne serait responsable que d’environ 0,01 % des émissions mondiales, selon un article cosigné par des experts de Microsoft, qui ont appuyé leur calcul sur la consommation électrique des processeurs réservés à l’IA en 2023.

Ces estimations sont contestables, rétorque M. Ferreboeuf, du Shift Project : « D’ici à trois ans, la part de l’IA va passer de 8 % à 45 % dans la consommation électrique des centres de données, qui va doubler », explique-t-il, citant des chiffres du cabinet SemiAnalysis. En 2026, l’IA pourrait donc représenter environ 0,9 % des émissions mondiales et les centres de données environ 2 % [contre 0,6 % en 2020], selon l’AIE, estime-t-il. « De plus, le raisonnement en pourcentage n’est pas pertinent, insiste l’expert. Ce qu’il faut, c’est savoir si les émissions absolues baissent de 5 % à 7 % par an, comme le prévoit l’accord de Paris. »

« C’est très dur d’avoir un débat sur le bilan de l’IA » en raison du « manque de chiffres étayés », déplore Sasha Luccioni, spécialiste de la consommation électrique à la start-up d’IA Hugging Face. Elle pointe de plus le risque d’un « effet rebond » qui contrebalance les gains d’efficacité énergétique en faisant augmenter les usages. Et note qu’il faudrait aussi intégrer les activités carbonées que l’IA favorise, comme l’extraction pétrolière : TotalEnergies a noué un partenariat avec Google et Exxon Mobil avec Microsoft…

Une consommation électrique croissante Au-delà des émissions de CO2 des centres de données, leur consommation électrique croissante suscite des inquiétudes : elle pourrait plus que doubler, d’ici à 2026, et passer de 1,7 % à entre 2 % et 3,5 % de la demande mondiale, selon les estimations de l’AIE, qui y inclut les cryptomonnaies. Outre des problèmes liés à l’eau utilisée pour refroidir les processeurs, cette expansion fait craindre des pénuries locales d’électricité ou des conflits d’usages, par exemple avec les voitures électriques.

De plus, pointe M. Ferreboeuf, il y a un risque d’accaparement des ressources limitées en énergies renouvelables : Amazon, Meta, Google et Microsoft ont, à eux seuls, acheté 29 % des nouveaux contrats d’éolien et de solaire dans le monde, en 2023, selon Bloomberg.

Sur les perspectives à long terme, certains apôtres de l’IA assument une explosion des besoins. « L’IA nécessitera de produire le double de l’électricité disponible dans le pays, vous imaginez ? », vient de prévenir le candidat à la présidentielle américaine Donald Trump. « Il n’y a pas moyen [de couvrir les besoins énergétiques de l’IA] sans une avancée scientifique », avait déjà prophétisé, en janvier, Sam Altman, le fondateur d’OpenAI, espérant des percées dans la fusion nucléaire, vue comme une « énergie propre et illimitée ».

Vers une autre IA ? « L’IA générative incarne le technosolutionnisme, ou le mythe de la technologie qui va nous sauver », déplore Lou Welgryn, coprésidente de Data For Good. Présenter l’IA comme une solution à la crise environnementale risquerait de dissuader la société d’agir et d’aller vers davantage de sobriété. L’argument servirait aussi à verdir l’image d’une technologie qui, pourtant, « met sous stéroïdes notre économie actuelle, très carbonée » et favorise la croissance, la publicité et la surconsommation, regrette-t-elle.

L’urgence serait de questionner les usages de l’IA, notamment générative. Et même d’y renoncer dans certains cas. Le référentiel publié fin juin par l’organisme de certification Afnor invite ainsi à préférer, si possible, « une autre solution moins consommatrice pour répondre au même objectif ». Et à privilégier une « IA frugale ». Le principe est là de recourir à des modèles d’IA moins puissants ou moins généralistes pour traiter les requêtes les plus simples ou des usages plus spécifiques.

« Entre le technosolutionnisme et la décroissance, il y a une troisième voie possible », pense M. Babinet. Selon lui, il faut encourager les usages utiles de l’IA, qui, souvent, ne nécessitent pas d’IA générative, et « décourager » les usages futiles et gourmands en calcul, comme la génération d’images sur les réseaux sociaux. « Il faut donc faire payer le vrai prix de l’environnement », poursuit-il, proposant d’intégrer les services numériques comme l’IA dans le mécanisme d’ajustement carbone aux frontières par lequel l’UE va taxer des produits en fonction de leurs émissions de CO2.

Sasha Luccioni ou Frédéric Bordage, de l’ONG Green IT, souhaitent, eux, la création d’une sorte « d’écoscore » qui, à la manière du Nutri-Score pour les aliments, ferait la transparence sur les coûts environnementaux des modèles d’IA, afin d’orienter les usages. Dans cet esprit, l’Afnor a énoncé des méthodologies de calcul pour mesurer l’impact environnemental de l’IA, afin de communiquer « avec des allégations justes et vérifiables ». Et « sans greenwashing », précise le communiqué.

Audrey Garric et Alexandre Piquard

  • Wi(vΛ)lem Ort(Λv)iz@jlai.lu
    link
    fedilink
    Français
    arrow-up
    0
    ·
    edit-2
    3 months ago

    J’avais pas l’intention de commenter, mais il faut quand même dire que ta lecture de la citation sur l’ “entité divine” est extrêmement biaisée, puisque tu n’es pas même plus capable de déceler une figure de style, ni d’avoir le recul critique sur le climat général au sujet de l’IA (qui en fait effectivement une forme d’incantation) :

    On part de la pensée magique, la barre est basse les copains. Donc oui, les IAs, c’est pas arrivé par intervention divine,

    Sur le reste, je trouve que certains de tes arguments sont intéressants sur le coût de l’entraînement mis en rapport avec le fonctionnement du code et la disponibilité des modèles, mais tout ça est noyé dans un techno-solutionnisme que tu refuses d’admettre, et ça décrédibilise le reste.

    • keepthepace@slrpnk.net
      link
      fedilink
      Français
      arrow-up
      0
      ·
      edit-2
      3 months ago

      Je comprends la figure de style, elle signifie qu’on part de la position “je sais pas comment ça marche”. Comme je le dis, la barre de départ est basse.

      Pour le reste, je vous laisse choisir mon étiquette, j’explique mes positions, je détaille mes calculs, si c’est devenu techo-solutioniste de penser qu’une tech puisse améliorer le monde comme des milliers l’ont fait avant elle et ce d’autant plus si elle est open-source, je prends cette étiquette avec joie. Je trouve juste dommage qu’entre technophone et technosolutionniste, il n’y ait aucun espace disponible.

      • Camus [il/lui]@lemmy.ca
        link
        fedilink
        Français
        arrow-up
        0
        ·
        3 months ago

        J’interviens dans le fil maintenant, merci pour la qualité de tes interventions. Personnellement j’avais l’impression que tu avais bien compris la figure de style.

        Je trouve juste dommage qu’entre technophone et technosolutionniste, il n’y ait aucun espace disponible.

        J’espère qu’il en reste, mais bon, chacun utilise ses propres catégories

      • Wi(vΛ)lem Ort(Λv)iz@jlai.lu
        link
        fedilink
        Français
        arrow-up
        0
        ·
        3 months ago

        “je sais pas comment ça marche”

        Oui, donc c’est ce que je dis, tu laisses complètement de côté le fait que le recours à l’IA dans tout et n’importe quoi est une forme d’incantation générale. Donc on ne comprend pas la figure de style de la même façon. Et tu fais exactement pareil d’ailleurs, en t’enfermant toi-même dans des promesses d’améliorer radicalement le monde, la démocratie ou encore de nous libérer du travail (on attend depuis un siècle que le progrès mécanique le fasse, mais bizarrement c’est pas arrivé exactement comme on le pensait…).

        Je trouve juste dommage qu’entre technophobe et technosolutionniste, il n’y ait aucun espace disponible.

        Et voila, maintenant ce sont les gens qui te critiquent qui sont des réducteurs binaires… Si tu ne veux pas être réduit à un de ces deux extrêmes, c’est simple, ne fait pas de promesses de sauver le monde avec l’IA (voir aussi tes anciens posts et AMA). Pour ma part je pense qu’il y a un entre deux, entre technophobe et technosolutionniste, mais je ne te classe pas dedans. Et ton refus du terme “gourmand en énergie” pour le processus de développement d’IA, juste sur la base que ça consomme beaucoup seulement au départ et moins que d’autres, est un bon exemple de ton biais un peu trop évident pour moi.
        Après chacun ses définitions, mais tu as quand même une sacré mauvaise foi par moment.

        • keepthepace@slrpnk.net
          link
          fedilink
          Français
          arrow-up
          0
          ·
          3 months ago

          tu laisses complètement de côté le fait que le recours à l’IA dans tout et n’importe quoi est une forme d’incantation générale

          J’ai pourtant l’impression de lutter directement contre ça en demandant qu’on ait une compréhension plus profonde et une vue plus nuancées des problèmes et des avantages de ces techs. C’est en refusant la complexité d’un sujet qu’on peut l’utiliser de façon incantatoire. Rentre dans les détails et la manipulation avec des formules simplistes devient plus difficile.

          Alors d’accord, cet article a le mérite de passer de “c’est pas magique, c’est des infrastructures”, ce qui est sûrement nécessaire pour certains, mais je trouve qu’on est aussi en droit de demander à ce que l’analyse ne s’arrête pas à cette étape qui reste quand même très simpliste, même si moins simpliste que ce qu’elle déconstruit.

          Et tu fais exactement pareil d’ailleurs, en t’enfermant toi-même dans des promesses d’améliorer radicalement le monde, la démocratie ou encore de nous libérer du travail

          Je ne demande qu’à détailler ces promesses, je le fais un peu là.

          Et note qu’il n’y a pas que des promesses en la matière. De nombreuses améliorations radicales ont été amenées par le deep learning ces 10 dernières années: on a résolu le problème de la traduction automatique. De la transcription automatique. Des non-programmeurs peuvent générer des programmes simples juste en le demandant. Ces technos boostent également la recherche de différentes façons. La capacité de générer des programmes simples accélère grandement l’analyse de données. La génération de texte (bien utilisée, relue par des humains) accélère la génération de publis et la recherche documentaire. On a résolu le problème de repliement des protéines, qui a lui seul est une énorme avancée qui aurait fait la une de plein de journaux scientifiques pendant des mois si ce n’était pas une des nombreuses avancées du machine learning. On décode le langage des baleines, on améliore les simulation de plasmas de fusion, on découvre des planète grâce à ces techniques. Je m’arrête là, mais les avancées sont réelles.

          Démocratie: Là ce n’est encore qu’une promesse, et en fait, même pas une promesse, un espoir qui demande à ce qu’on s’empare collectivement de ces techs au lieu de les laisser entre des mains capitalistes et autoritaires. Des agents basés sur LLM ont la capacité de digérer beaucoup de données légales, économiques, politiques et d’agir comme des représentants fidèles, incorruptibles, honnêtes et transparents des citoyens. Fais toi une discussioon d’une heure avec un tel agent, détaillant tes opinions sur les différents sujets politiques et laisse le ensuite te représenter, trouver les compromis acceptables, les positions de vote sur toutes les questions locales, nationales ou autres et je pense en effet que la démocratie changera de tête.

          Libérer du travail: C’est pas une hypothèse et c’est pas une question technique, c’est une critique faite à l’“IA” aujourd’hui et une constatation faite par de nombreux journalistes (j’avoue que je suis pas allé la vérifier personnellement, mais je la trouve crédible): l’IA détruit des emplois. Autrement dit, plein de boites se rendent compte qu’elles peuvent produire la même chose avec moins d’humains.

          Là pour le coup je trouve ça un peu rude de dire que j’ai une position technosolutioniste sur la question, tant je dis et répète que c’est une question politique et culturelle de passer de la vision “destruction d’emploi” à “transition vers une société post-travail”. La société post-travail, à mon avis, elle était faisable avec la techno des années 90. Elle est d’autant plus faisable aujourd’hui. Alors oui, je pense que les avancées technologiques rendent cette évolution plus évidente, plus inévitable, et la marche moins haute, mais comme on dit, on fait pas boire un âne qui n’a pas soif, la question est avant tout culturelle.

          (on attend depuis un siècle que le progrès mécanique le fasse, mais bizarrement c’est pas arrivé exactement comme on le pensait…).

          Le temps de vie passé à travailler baisse régulièrement depuis la révolution industrielle pourtant. Et le travail purement physique, purement mécanique, où seule la force physique est nécessaire à une tâche, a quasimment complètemetn disparu.

          Si tu avais écouté d’autres personnes que les “incantateurs”, des gens avec une analyse un peu plus détaillée de la baisse du travail par la mécanisation, tu aurais constaté qu’ils ne parlaient pas d’une sortie du travail mais d’une migration vers le tertiaire, cible de l’automatisation actuelle. Une fois les 3 secteurs automatisés par contre, plus de migration possible, on sort du travail. Si on le veut. Si on résiste á la tentation de créer des bullshit jobs par peur du changement.

          Si tu ne veux pas être réduit à un de ces deux extrêmes, c’est simple, ne fait pas de promesses de sauver le monde avec l’IA

          Je suis optimiste et utopiste, je pensais que ces étiquettes là suffisaient, mais si vous trouvez raisonnable de me dire techno-solutionniste parce que je trouve que certains problèmes ont des solutions techniques, c’est vous qui voyez, mais venez pas gueuler quand perso j’applique ma définition de la technophobie qui moi me semble raisonnable: le fait d’adopter une position critique de la tech avant de chercher à la comprendre.

          Y a plein de critiques légitimes des LLMs, de l’IA en général, dont beaucoup viennent des chercheurs dans le domaine. Celle là, elle me dérange pas et le débat est non seulemet légitime mais super important! J’aimerais que la population générale y participe plus, c’est dangereux qu’elle soit confinée au cercle des chercheurs et arbitrée par quelques CEOs. Mais les critiques faits sur des problèmes imaginaires je les mets pas dans la même catégorie en effet.

          Et ton refus du terme “gourmand en énergie” pour le processus de développement d’IA, juste sur la base que ça consomme beaucoup seulement au départ et moins que d’autres, est un bon exemple de ton biais un peu trop évident pour moi.

          Le refus de parler en Wh plutôt qu’en terme vagues de “gourmand”, “beaucoup”, “beaucoup plus”, “beaucoup trop” me parait être de plus mauvaise foi.

          Voici une affirmation claire, falsifiable que je vous invite à contredire: l’entrainement de modèles de langages tel que fait aujourd’hui, avec les datacenters actuels, aurait un impact nul sur le climat dans une société qui a fait sa transition énergétique.

          • Wi(vΛ)lem Ort(Λv)iz@jlai.lu
            link
            fedilink
            Français
            arrow-up
            0
            ·
            3 months ago

            Des agents basés sur LLM ont la capacité de digérer beaucoup de données légales, économiques, politiques et d’agir comme des représentants fidèles, incorruptibles, honnêtes et transparents des citoyens. Fais toi une discussioon d’une heure avec un tel agent, détaillant tes opinions sur les différents sujets politiques et laisse le ensuite te représenter, trouver les compromis acceptables, les positions de vote sur toutes les questions locales, nationales ou autres et je pense en effet que la démocratie changera de tête.

            Voila exactement le genre de croyance qui définit ce que j’appelle du technosolutionnisme. Chacun se fera un avis sur cette promesse, moi je constate surtout que cette façon d’analyser la réalité te donne des résultats totalement en décalage avec ce que tu appelles les “ressentis” quand ça te fait dire, par exemple, que le mandat de Hollande a réduit les inégalités malgré sa loi travail qui a détruit le code du travail. Mais comme t’es ingé bien payé, ton “agent LLM” peut te raconter que la vie s’améliore sur la base d’un tableau INSEE, et ça te convient…

            Le temps de vie passé à travailler baisse régulièrement depuis la révolution industrielle pourtant. Et le travail purement physique, purement mécanique, où seule la force physique est nécessaire à une tâche, a quasimment complètemetn disparu.

            Ça se voit que c’est pas toi qui fait la mise en rayon à Lidl et le ménage dans les bureaux.

            • keepthepace@slrpnk.net
              link
              fedilink
              Français
              arrow-up
              0
              ·
              edit-2
              3 months ago

              Haha, oui, j’appelle “ressentis” les choses que les gens pensent être vrai instinctivement (comme la hausse de l’insécurité) et “faits” les choses mesurées objectivement. C’est la base de la science ça.

              Ça se voit que c’est pas toi qui fait la mise en rayon à Lidl et le ménage dans les bureaux.

              Ça se voit que c’est pas toi qui a eu à décharger à la main des camions remplis de sacs de 50 kg de ciment. C’est pas moi non plus hein. C’est mon grand père, qui se plaignait de la facilité du travail “ouvrier” quand il visitait un atelier où on utilise un transpalette dés qu’il faut décharger quelque chose.

              Le travail reste physique, mais ce n’est plus un travail en force, qui a été remplacée par la force mécanique.

              Mais on a déjà eu cette conversation, on va pas la refaire…