https://www.lemonde.fr/planete/article/2024/08/04/climat-les-promesses-de-l-ia-grevees-par-un-lourd-bilan-carbone_6266586_3244.html

L’intelligence artificielle (IA) est-elle davantage un remède qu’un poison climatique ? Les géants de la tech, de Google à Microsoft, le clament haut et fort : les apports de ces technologies pour décarboner les économies et s’adapter au réchauffement seront à terme majeurs. A l’inverse, nombre d’experts préviennent que ces gains restent hypothétiques. L’empreinte carbone et la consommation électrique de services comme ChatGPT, d’ores et déjà importantes, risquent de devenir colossales. Ils appellent à la mesure face à une solution « utile » mais pas « miracle ».

Une meilleure connaissance du climat L’IA est considérée comme un outil efficace pour mieux comprendre le changement climatique et répondre aux incertitudes qui persistent. Elle est de plus en plus utilisée dans les prévisions météorologiques, comme s’y emploie le Centre européen pour les prévisions météorologiques à moyen terme (ECMWF), et pour les simulations du climat du futur. Google Research a ainsi dévoilé, le 22 juillet, dans la revue britannique Nature, une nouvelle approche, NeuralGCM, mélangeant IA et modèles climatiques fondés sur la physique, afin de simuler la météo et le climat de la Terre jusqu’à 3 500 fois plus vite que d’autres modèles et de manière autant, voire plus, précise sur une majorité de paramètres.

L’IA sert aussi à mieux anticiper les événements extrêmes, notamment « les incendies, les avalanches ou la trajectoire et les changements brusques d’intensité des cyclones », explique Claire Monteleoni, titulaire de la chaire Choose France AI et directrice de recherche à l’Institut national de recherche en sciences et technologies du numérique (Inria). Dans le cadre du projet de recherche européen Xaida, le climatologue Pascal Yiou fait, quant à lui, appel à l’IA pour savoir si ces catastrophes sont dues au changement climatique d’origine humaine – ce que l’on appelle la science de l’attribution.

Il utilise aussi l’IA pour prédire la survenue d’événements rares, comme des canicules historiques, afin de mieux préparer la société. « Nous avons, par exemple, réalisé 10 000 simulations de l’été 2024 pour savoir ce qui pouvait arriver », explique le directeur de recherche au Laboratoire des sciences du climat et de l’environnement. L’exercice a pris une semaine pour former l’IA puis une dizaine de minutes pour produire des résultats. Deux ou trois mois auraient été nécessaires avec des modèles de climat qui tournent sur des supercalculateurs. « L’IA nous permet de tester davantage d’hypothèses et de répondre à des questions de recherche jusqu’à présent inaccessibles », juge M. Yiou.

Des solutions pour réduire les émissions de CO2 L’IA commence à être utilisée pour accélérer la transition écologique. « Elle est bien adaptée, car les problématiques du climat sont complexes et multifactorielles, donc difficiles à gérer », estime Gilles Babinet, coprésident du Conseil national du numérique et auteur de Green IA. L’intelligence artificielle au service du climat (Odile Jacob, ‎224 pages, 22,90 euros).

Mme Monteleoni explique collaborer avec EDF « pour mieux comprendre où installer des éoliennes en fonction des modifications des vents liés au changement climatique ». L’IA peut aider à optimiser les réseaux électriques, responsables d’un quart des émissions mondiales de gaz à effet de serre, « en sachant prédire où c’est ensoleillé ou venteux dans les jours qui viennent, afin de maximiser la production de renouvelables et moins s’appuyer sur d’autres sources d’énergie plus sales », poursuit-elle.

Les autres exemples d’usages sont légion : observer et inventorier les émissions de millions de sites polluants à travers le globe et traquer la déforestation, développer de nouveaux matériaux, par exemple de meilleurs composants de batteries, optimiser les systèmes de chauffage et de climatisation dans les bâtiments, améliorer l’agriculture de précision, pour limiter les intrants ou l’irrigation, comme les recense une vaste étude, publiée en 2022, par une vingtaine d’universitaires et d’experts de la tech, dont Google.

« Nous voyons l’IA comme une occasion pour le climat », résume Adam Elman, responsable du développement durable pour l’Europe, l’Afrique et le Moyen-Orient chez Google. Parmi ses services, il cite Google Maps, qui, grâce aux données sur la topologie ou le trafic routier, « propose des itinéraires qui minimisent l’utilisation de carburant ». « Depuis 2021, cela a évité 2,9 millions de tonnes de CO2, soit l’équivalent de 660 000 voitures retirées de la route par an », assure-t-il. Les thermostats Nest, de Google, qui peuvent contrôler automatiquement le chauffage et la climatisation d’un domicile, auraient, eux, permis d’économiser 7 millions de tonnes de CO2, toujours selon l’entreprise. Le groupe a également effectué des tests pour réduire, grâce à l’IA, les traînées de condensation des avions, qui aggravent le réchauffement climatique.

Quel pourrait être l’impact pour le climat de l’ensemble de ces pistes ? Il n’existe pas de chiffres ayant fait l’objet d’études approfondies. Les solutions liées à l’IA, si elles étaient mises en œuvre largement, pourraient réduire les émissions de CO2 mondiales de 5 % à 10 %, d’ici à 2030, assure un rapport du Boston Consulting Group commandé par Google. Mais cette estimation n’est qu’une simple extrapolation à partir d’un article de 2021 racontant quelques cas de clients du cabinet de conseil. Un rapport de PwC sur quatre secteurs, financé par Microsoft en 2019, avançait, lui, une fourchette de baisse de 1,5 % à 4 %, d’ici à 2030. Des chiffres que remet en cause Hugues Ferreboeuf, spécialiste du numérique au cercle de réflexion The Shift Project : « Toutes les approches sérieuses mettent en avant l’impossibilité de généraliser à partir de cas d’étude spécifiques. »

Une empreinte carbone en pleine expansion L’enjeu est de taille, car l’IA a d’ores et déjà un coût environnemental important : celles génératives, capables de créer des textes, des images ou des vidéos, nécessitent énormément de calcul informatique, lors de la phase d’entraînement mais surtout d’utilisation. Une requête sur un assistant comme ChatGPT consomme dix fois plus d’électricité qu’une recherche sur Google, selon l’Agence internationale de l’énergie (AIE).

Selon l’organisation non gouvernementale (ONG) Data For Good, spécialisée dans la production de données sur les technologies, 100 millions d’utilisateurs de la dernière version de ChatGPT, avec une conversation par jour, émettraient autant de CO2 en un an que de 100 000 à 364 000 Français. Or, ce type d’assistants d’IA est en cours de déploiement sur le moteur de recherche de Google, les réseaux sociaux de Meta, les smartphones Apple ou Samsung… Les centaines de milliards d’euros investis dans les centres de données par les géants du numérique, en grande partie pour répondre aux besoins de l’IA, ont d’ores et déjà fait bondir leurs émissions de CO2, en raison de la construction des bâtiments et de la fabrication des processeurs : en 2023, + 30 % pour Microsoft et + 13 % pour Google (+ 50 % depuis 2019).

Ce décrochage lié à l’IA remet-il en cause l’objectif de « zéro carbone en 2030 » fixé par Microsoft ou Google ? « Nous sommes très engagés dans la poursuite de cet objectif », assure M. Elman, de Google, tout en soulignant que ce but est « très ambitieux et difficile à atteindre ». Les géants du numérique misent sur leurs achats d’énergies renouvelables et leurs efforts d’efficacité énergétique pour y parvenir.

« Nous pensons que les bénéfices de l’IA pour le climat vont significativement dépasser les aspects négatifs », assure surtout M. Elman, de Google, comme les dirigeants de Microsoft. L’IA ne serait responsable que d’environ 0,01 % des émissions mondiales, selon un article cosigné par des experts de Microsoft, qui ont appuyé leur calcul sur la consommation électrique des processeurs réservés à l’IA en 2023.

Ces estimations sont contestables, rétorque M. Ferreboeuf, du Shift Project : « D’ici à trois ans, la part de l’IA va passer de 8 % à 45 % dans la consommation électrique des centres de données, qui va doubler », explique-t-il, citant des chiffres du cabinet SemiAnalysis. En 2026, l’IA pourrait donc représenter environ 0,9 % des émissions mondiales et les centres de données environ 2 % [contre 0,6 % en 2020], selon l’AIE, estime-t-il. « De plus, le raisonnement en pourcentage n’est pas pertinent, insiste l’expert. Ce qu’il faut, c’est savoir si les émissions absolues baissent de 5 % à 7 % par an, comme le prévoit l’accord de Paris. »

« C’est très dur d’avoir un débat sur le bilan de l’IA » en raison du « manque de chiffres étayés », déplore Sasha Luccioni, spécialiste de la consommation électrique à la start-up d’IA Hugging Face. Elle pointe de plus le risque d’un « effet rebond » qui contrebalance les gains d’efficacité énergétique en faisant augmenter les usages. Et note qu’il faudrait aussi intégrer les activités carbonées que l’IA favorise, comme l’extraction pétrolière : TotalEnergies a noué un partenariat avec Google et Exxon Mobil avec Microsoft…

Une consommation électrique croissante Au-delà des émissions de CO2 des centres de données, leur consommation électrique croissante suscite des inquiétudes : elle pourrait plus que doubler, d’ici à 2026, et passer de 1,7 % à entre 2 % et 3,5 % de la demande mondiale, selon les estimations de l’AIE, qui y inclut les cryptomonnaies. Outre des problèmes liés à l’eau utilisée pour refroidir les processeurs, cette expansion fait craindre des pénuries locales d’électricité ou des conflits d’usages, par exemple avec les voitures électriques.

De plus, pointe M. Ferreboeuf, il y a un risque d’accaparement des ressources limitées en énergies renouvelables : Amazon, Meta, Google et Microsoft ont, à eux seuls, acheté 29 % des nouveaux contrats d’éolien et de solaire dans le monde, en 2023, selon Bloomberg.

Sur les perspectives à long terme, certains apôtres de l’IA assument une explosion des besoins. « L’IA nécessitera de produire le double de l’électricité disponible dans le pays, vous imaginez ? », vient de prévenir le candidat à la présidentielle américaine Donald Trump. « Il n’y a pas moyen [de couvrir les besoins énergétiques de l’IA] sans une avancée scientifique », avait déjà prophétisé, en janvier, Sam Altman, le fondateur d’OpenAI, espérant des percées dans la fusion nucléaire, vue comme une « énergie propre et illimitée ».

Vers une autre IA ? « L’IA générative incarne le technosolutionnisme, ou le mythe de la technologie qui va nous sauver », déplore Lou Welgryn, coprésidente de Data For Good. Présenter l’IA comme une solution à la crise environnementale risquerait de dissuader la société d’agir et d’aller vers davantage de sobriété. L’argument servirait aussi à verdir l’image d’une technologie qui, pourtant, « met sous stéroïdes notre économie actuelle, très carbonée » et favorise la croissance, la publicité et la surconsommation, regrette-t-elle.

L’urgence serait de questionner les usages de l’IA, notamment générative. Et même d’y renoncer dans certains cas. Le référentiel publié fin juin par l’organisme de certification Afnor invite ainsi à préférer, si possible, « une autre solution moins consommatrice pour répondre au même objectif ». Et à privilégier une « IA frugale ». Le principe est là de recourir à des modèles d’IA moins puissants ou moins généralistes pour traiter les requêtes les plus simples ou des usages plus spécifiques.

« Entre le technosolutionnisme et la décroissance, il y a une troisième voie possible », pense M. Babinet. Selon lui, il faut encourager les usages utiles de l’IA, qui, souvent, ne nécessitent pas d’IA générative, et « décourager » les usages futiles et gourmands en calcul, comme la génération d’images sur les réseaux sociaux. « Il faut donc faire payer le vrai prix de l’environnement », poursuit-il, proposant d’intégrer les services numériques comme l’IA dans le mécanisme d’ajustement carbone aux frontières par lequel l’UE va taxer des produits en fonction de leurs émissions de CO2.

Sasha Luccioni ou Frédéric Bordage, de l’ONG Green IT, souhaitent, eux, la création d’une sorte « d’écoscore » qui, à la manière du Nutri-Score pour les aliments, ferait la transparence sur les coûts environnementaux des modèles d’IA, afin d’orienter les usages. Dans cet esprit, l’Afnor a énoncé des méthodologies de calcul pour mesurer l’impact environnemental de l’IA, afin de communiquer « avec des allégations justes et vérifiables ». Et « sans greenwashing », précise le communiqué.

Audrey Garric et Alexandre Piquard

  • keepthepace@slrpnk.net
    link
    fedilink
    Français
    arrow-up
    0
    ·
    3 months ago

    Disclaimer: je suis biaisé, vue que je suis un grand enthousiaste de l’IA depuis plus de 20 ans.

    Un beau fouillis. Un article qui ne cite aucun chiffre absolu, qui cite Donald Trump comme une source crédible, qui renvoie dos à dos ONGs et boites privées sans chercher à déterminer qui a raison (les calculs ne sont pas très difficiles à faire).

    Quelques remarques:

    1. L’unité d’émissions de CO2 c’est la tonne ou la tonne eq. CO2. Pas le “pourcentage par rapport à l’année d’avant”.
    2. Les ordinateurs, ça n’émet pas de CO2. Ça consomme de l’électricité. On sait faire de l’électricité renouvelable. L’unité de consommation est le Wh. Aucune mention dans l’article non plus.
    3. “100 millions d’utilisateurs de la dernière version de ChatGPT, avec une conversation par jour, émettraient autant de CO2 en un an que de 100 000 à 364 000 Français.” Autrement dit, une augmentation de 0.1% de leur conso. Sachant que ChatGPT est le plus énergivore, ne dévoile pas sa conso. Au passage, “conversation” c’est pas une unité, pour l’usage de chatbots on parle en nombre de tokens générés.
    4. “Or, ce type d’assistants d’IA est en cours de déploiement sur le moteur de recherche de Google, les réseaux sociaux de Meta, les smartphones Apple ou Samsung…” Mensonger. Ça porte à croire qu’on parle de ChatGPT alors qu’il n’en est pas question pour les fabricants de téléphones qui veulent un modèle qui tourne localement sur une puce spécialisée. Du coup avec une conso beaucoup, beaucoup, beaucoup plus faible que ChatGPT, mais aussi des perfos dégradées vraisemblablement.
    5. Encore une fois un article qui passe sous silence le fait que la plupart des modèles utilisés, y compris par Meta, Apple ou Google, sont open source, et ne sont pas contrôlés par une boite privée comme OpenAI. C’est important, c’est crucial, et c’est fatiguant les journalistes qui réduisent l’“IA” à ChatGPT. Ils ont d’autant moins d’excuse qu’ils ont interviewé des personnes de Huggingface, sans dire ce qu’ils sont: un hub et hébergeur pour les modèles de machine learning ouverts.
    6. Ils en font un peu mention à la fin, mais vraiment, ChatGPT et les générateurs d’image, c’est la partie émergée de l’iceberg. Plein de domaines de l’informatique changent en profondeur. Le contrôle robot, la reconnaisse vocale et visuelle, l’automatisation des tâches ou même de l’écriture de programmes. C’est de ça dont il faudrait parler.

    3/10 fait mieux que beaucoup d’articles sur la matière, mais dissimule volontairement des infos pour écrire un article à charge.

    • nicocool84@sh.itjust.works
      link
      fedilink
      Français
      arrow-up
      0
      ·
      3 months ago

      qui cite Donald Trump comme une source crédible

      Je pense que le but d’insérer la citation de Trump est plutôt de souligner que même Trump est un IA-entousiasthe?

      la plupart des modèles utilisés, y compris par Meta, Apple ou Google, sont open source

      Le fameux code source qui est un ensemble de tenseurs à plusieurs milliards d’éléments ? Facile à auditer ça xD

      Je trouve aussi que ça vole pas très haut niveau vulgarisation. Tu dis des trucs intéressants mais je pense que tu oublies un peu vite le biais que tu reconnais avoir au début de ton post. ;o)

      • keepthepace@slrpnk.net
        link
        fedilink
        Français
        arrow-up
        0
        ·
        3 months ago

        La citation de Trump, hors contexte comme ça, je pense qu’elle est critique en fait. Soit de l’IA, pour dire que ce sera trop cher en énergie (ce qui est faux, ça demandera pas à doubler la production mondiale, c’est ridicule comme affirmation, il faudrait multiplier par plusieurs environ 100 000 sa conso pour que ça commence à être vrai), soit le connaissant, vis à vis de programmes d’énergie renouvelable, pour dire “soyez sérieux, on pourra pas produire autant avec des panneaux solaire”. Comme tout ce qui sort de la bouche de ce mec, c’est sans intérêt, pas documenté, probablement inventé et généralement stupide.

        Le fameux code source qui est un ensemble de tenseurs à plusieurs milliards d’éléments ? Facile à auditer ça xD

        Une chose assez surprenante dans ces technos c’est que le code source de ces modèles est en fait très simple et assez court. Les tenseurs sont de la donnée que personne n’a codé manuellement. Après je t’accorde qu’il y a un débat sur la définition d’un modèle open source: le code pour le faire tourner et les poids binaires sont considérés insuffisants par certains qui demandent accès également au code d’entraînement voire aux datasets d’entraînement.

        Mais je ne vois pas pourquoi tu parles d’auditer? Ces modèles on sait comment ils fonctionnent et on les duplique très facilement en local.

        je pense que tu oublies un peu vite le biais que tu reconnais avoir au début de ton post

        Dans ce cas faut que j’explique un peu pourquoi ce genre de posts m’énervent tout autant que les discours sur l’épuisement des ressources minérales par le secteur de la tech: j’ai choisi ce secteur parce que je pense sincèrement que ça peut aider l’humanité et quand je reçois un argument comme quoi non, ça rend pire certains problèmes, je prends ça à coeur et je vais fouiller. La première fois que j’ai entendu parler de pénurie de cuivre, je me suis renseigné sur les métaux de remplacement disponibles et sur les réserves dans chacun, savoir comment organiser l’effort technologique sans épuiser nos ressources. Et je me suis rendu compte que la pénurie de cuivre se base sur une incompréhension des nombres. Depuis j’ai pu le constater pour beaucoup de “paniques” écologiques qui disparaissent rapidement quand on les prend au sérieux et qu’on fouille.

        Je suis ingé et je suis aussi écologiste. Mon métier mais aussi ma personnalité, c’est de vouloir résoudre les problèmes qu’on me propose et pour ça, chaque fois, il faut commencer à les quantifier. Chaque fois qu’on refuse de quantifier un problème, je soupçonne que c’est parce que le but n’est pas de le résoudre mais de l’instrumentaliser.

        • nicocool84@sh.itjust.works
          link
          fedilink
          Français
          arrow-up
          0
          ·
          3 months ago

          Trump est donc pris en exemple de ce qu’on risque de justifier au nom de l’IA (maintien des énergies fossiles par exemple).

          Auditer c’était pas le bon terme OK, je parlais d’étudier le fonctionnement. Et oui, je pense que si le code source d’entraînement n’est pas public on peut pas vraiment parler d’ouverture, mais de freeware éventuellement. Ce qui ne m’empêche pas de faire mumuse avec Stable Diffusion et LLaMa…

          Je suis OK qu’il existe des paniques “écologiques” qui n’ont rien à envier aux paniques morales qu’on aime dénoncer. Cependant, la consommation énergétique croissante de nos vies numériques n’en fait pas partie je crois (au dela du truc délirant qui avait circulé sur la conso d’un mail). Étant donné que ça sert principalement au ciblage publicitaire et à la surveillance de masse, on a le droit d’en questionner le bien-fondé. Quand tu dis que tu penses que ça va aider l’humanité, ça m’a carrément l’air d’être quasiment la définition du technosolutionnisme. Dans les années 90, avec mon modem 33.6k en faisant des recherches sur altavista, je pensais qu’internet allait aider l’humanité à sortir des ténèbres. Je n’ai pas (encore?) basculé full-Grothendieck mais force est de constater que c’est principalement un supermarché planétaire et un big brother consenti qui fait un peu froid dans le dos aujourd’hui.

          Concernant le cuivre je ne connais pas bien le sujet, et je suis admiratif de ta confiance en toi quand tu penses que c’est du pipeau complet après quelques recherches. Il y a pas si longtemps, on disait ça du changement climatique, avant ça de la dangerosité des clopes… peut-être je me plante complet, mais est-ce que tu serais pas en plein dans l’effet Dunning-Kruger? Est-ce qu’il suffirait pas de te présenter des choses en se disant “rationnel” et en balançant des chiffres pour que ça te convainque?

          Puisqu’on en est aux arguments d’autorités, je suis docteur en informatique et on me paye assez généreusement pour “faire de l’IA”, moi aussi. Faut pas que ça empêche d’avoir un oeil critique et une vision un peu plus large des répercussions de ce qu’on fait. Moi aussi je suis déçu par le traitement trop superficiel/des approximations/des erreurs de n’importe quel article de presse qui parle d’un sujet que je connais un peu en profondeur.

          • keepthepace@slrpnk.net
            link
            fedilink
            Français
            arrow-up
            0
            ·
            3 months ago

            Cependant, la consommation énergétique croissante de nos vies numériques n’en fait pas partie je crois (au dela du truc délirant qui avait circulé sur la conso d’un mail).

            Y a ça, les évaluations de la conso d’une vidéo youtube, d’une recherche google, j’ai vu passer des estimations totalement à l’ouest sur les émissions des datacenters… Et toujours, toujours, cette erreur fondamentale d’attribuer une émission en CO2 à une consommation électrique. Ce qui consomme de l’électricité, ça peut tout à fait avoir sa place dans une société renouvelable. Ce qui émet du CO2 (en net, donc surtout du CO2 d’origine fossile) non.

            Quand tu dis que tu penses que ça va aider l’humanité, ça m’a carrément l’air d’être quasiment la définition du technosolutionnisme.

            Moi je croyais que le technosolutionisme c’était de penser que les progrès techniques amenaient automatiquement, sans aucun travail politique ou social, un progrès humain. Ça je ne le suis pas. Mais penser que ça peut être un moteur de progrès humain, oui, ça me parait évident. Si techosolutionisme est l’opposé de technophobe, en effet, je le suis.

            Dans les années 90, avec mon modem 33.6k en faisant des recherches sur altavista, je pensais qu’internet allait aider l’humanité à sortir des ténèbres.

            Imagine la poltiique actuelle avec seulement la télé et les journaux pour t’informer. Imagine la recherche scientifique sans accès internet. Bordel, imagine même l’éducation supérieure sans ça. Je peux garder contact avec ma famille et mes amis de part le monde entier grâce à internet. Je peux bosser à distance avec (en ce moment) un Finlandais, un Grec et un Canadien sur des technos sorties la semaine dernière car publiées par internet. Rien que Wikipedia est un projet qui a tout changé en augmentant le niveau général de connaissances d’un niveau inimaginable avant elle.

            je suis admiratif de ta confiance en toi quand tu penses que c’est du pipeau complet après quelques recherches.

            “Après quelques recherches” c’est quand même minimiser un peu l’effort que j’ai fait. En école d’ingé, quand j’ai été le plus exposé à ces polémiques, j’étais prêt à changer de voie s’il s’avérait que c’était contre-productif. J’avais le privilège d’avoir un peu de liberté en la matière, alors j’ai fouillé le sujet. Est ce que l’électronique est à abandonner? Est ce que ce sont juste certains matériaux? Est ce que la quantité d’énergie disponible pour notre société industrielle est limitée?

            J’en suis ressorti avec deux opinions, que j’ai toujours:

            1. Le peak oil est le plus grand risque civilisationnel qu’on ait et la position des pays en 2100 dépendra de comment ils ont géré ça.
            2. Le capitalisme, c’est de la merde. C’est pour ça que je suis un grand fan de l’open source (qui, oui, est complètement anti-capitaliste même si des entreprises y participent) et que je grenouille depuis dans les hackerspaces/fablabs et le monde associatif qui me semblent renfermer la clef du monde de demain.

            Par contre les minéraux (dont l’exploitation dans une économie de marché capitaliste pose plein de problèmes humains) ne vont pas manquer, et l’énergie (dont les incitations capitalistiques ralentissent la transition renouvelable) ne pose non plus pas de problème particulier.

            Est-ce qu’il suffirait pas de te présenter des choses en se disant “rationnel” et en balançant des chiffres pour que ça te convainque?

            Il te faudra une source solide et un raisonnement qui se tient et que j’arrive à comprendre ou alors qui est fait par des personnes à la spécialité solide. Alors oui, en effet.

            Il y a pas si longtemps, on disait ça du changement climatique, avant ça de la dangerosité des clopes…

            Qui ça “on”? Y a des gens qui disaient ça. Mais on s’en fout de ce que les gens disent. Ce qui importe c’est pourquoi ils le disent, quelles données et raisonnements ils utilisent. Quand tu élimines toutes les affirmations non étayées par des études scientifiques, tu fais beaucoup de ménage dans le domaine de l’éco-alarmisme. Le changement climatique, le GIEC, composé entre autres de scientifiques et s’appuyant sur la littérature scientifique, sonne l’alarme depuis sa création en 1988. Il y a eu des controverses scientifiques tout à fait légitimes sur l’échelle de l’influence humaine (et ça continue à chaque éruption de volcan, la climatologie reste une science difficile).

            Trouve moi un organisme de cette respectabilité qui parle d’un épuisement des ressources minérales et on tente de voir pourquoi l’USGS dit l’inverse et qui se plante.

            Puisqu’on en est aux arguments d’autorités

            J’ai pas voulu faire un argument d’autorité. J’ai essayé d’être honnête en mentionnant mon biais et en expliquant plus en détail quand on me le pointe du doigt.

            • nicocool84@sh.itjust.works
              link
              fedilink
              Français
              arrow-up
              0
              ·
              3 months ago

              Alright alright on est presque d’accord sur tout, polémique ratée haha (et d’ailleurs mes excuses pour mon ton un peu con en me relisant). Je suis juste pas aussi enthousiaste que toi sur ce que nous permettra “l’IA” - je déteste appeler ça comme ça d’ailleurs. Et je pense pas que les critiques sur l’aspect consommation énergétique sont les plus débiles. Espérons que je me trompe.

              PS: l’open source ça a jamais été anticapitaliste, au contraire même c’est une reformulation capitaliste de ce truc de hippie qu’est le logiciel libre (et je suis un hippie :P).

              • Camus [il/lui]@lemmy.ca
                link
                fedilink
                Français
                arrow-up
                0
                ·
                3 months ago

                PS: l’open source ça a jamais été anticapitaliste, au contraire même c’est une reformulation capitaliste de ce truc de hippie qu’est le logiciel libre (et je suis un hippie :P).

                Je sais qu’on est sur Lemmy, mais l’amalgame libre / open source personnellement ça me va si ce n’est pas le sujet central de la discussion

                • CeJiDe@jlai.lu
                  link
                  fedilink
                  Français
                  arrow-up
                  0
                  ·
                  3 months ago

                  D’ailleurs ça pourrait être cool, un de ces quatre, un petit point sur les différences libre/OS pour les non IT. J’ai déjà lu sur le sujet il y a un moment mais j’avoue que ce n’est pas très clair.

                  • keepthepace@slrpnk.net
                    link
                    fedilink
                    Français
                    arrow-up
                    0
                    ·
                    3 months ago

                    Ce n’est une différence que pour Stallman, franchement. C’est largement synonyme. Après, chaque fois qu’une boite prétend qu’elle fait quelque chose, faut regarder le détail et les petits caractères. Comme Microsoft a essayé d’appeler “Open Source” quelque chose qui ne donnait pas la libertés fondamentales du logiciel libre (droit de recopier, d’utiliser, de modifier, de redistribuer) il a décidé qu’il fallait un autre mot.

                    Pour 90% des libristes c’est synonyme.

    • Klaqos@sh.itjust.worksOP
      link
      fedilink
      Français
      arrow-up
      0
      ·
      3 months ago

      C’est surtout cette partie qui relève le problème autre chose que d’un discours tronqué (forcément c’est du journalisme grand public) :

      « Nous pensons que les bénéfices de l’IA pour le climat vont significativement dépasser les aspects négatifs », assure surtout M. Elman, de Google, comme les dirigeants de Microsoft. L’IA ne serait responsable que d’environ 0,01 % des émissions mondiales, selon un article cosigné par des experts de Microsoft, qui ont appuyé leur calcul sur la consommation électrique des processeurs réservés à l’IA en 2023. Ces estimations sont contestables, rétorque M. Ferreboeuf, du Shift Project : « D’ici à trois ans, la part de l’IA va passer de 8 % à 45 % dans la consommation électrique des centres de données, qui va doubler », explique-t-il, citant des chiffres du cabinet SemiAnalysis. En 2026, l’IA pourrait donc représenter environ 0,9 % des émissions mondiales et les centres de données environ 2 % [contre 0,6 % en 2020], selon l’AIE, estime-t-il. « De plus, le raisonnement en pourcentage n’est pas pertinent, insiste l’expert. Ce qu’il faut, c’est savoir si les émissions absolues baissent de 5 % à 7 % par an, comme le prévoit l’accord de Paris. » C’est très dur d’avoir un débat sur le bilan de l’IA » en raison du « manque de chiffres étayés », déplore Sasha Luccioni, spécialiste de la consommation électrique à la start-up d’IA Hugging Face. Elle pointe de plus le risque d’un « effet rebond » qui contrebalance les gains d’efficacité énergétique en faisant augmenter les usages. Et note qu’il faudrait aussi intégrer les activités carbonées que l’IA favorise, comme l’extraction pétrolière : TotalEnergies a noué un partenariat avec Google et Exxon Mobil avec Microsoft… Une consommation électrique croissante Au-delà des émissions de CO2 des centres de données, leur consommation électrique croissante suscite des inquiétudes : elle pourrait plus que doubler, d’ici à 2026, et passer de 1,7 % à entre 2 % et 3,5 % de la demande mondiale, selon les estimations de l’AIE, qui y inclut les cryptomonnaies. Outre des problèmes liés à l’eau utilisée pour refroidir les processeurs, cette expansion fait craindre des pénuries locales d’électricité ou des conflits d’usages, par exemple avec les voitures électriques. De plus, pointe M. Ferreboeuf, il y a un risque d’accaparement des ressources limitées en énergies renouvelables : Amazon, Meta, Google et Microsoft ont, à eux seuls, acheté 29 % des nouveaux contrats d’éolien et de solaire dans le monde, en 2023, selon Bloomberg.

      On a donc une nouvelle technologie gourmande en énergie qui par ailleurs n’est pas infinie. Donc à voir avec ton point 5 si ta prévision sera (je le souhaite mais crains que non) moins pessimiste que les interrogés (qui par ailleurs ne se contredisent pas et disent juste que bénéfices>inconvénients).

      • keepthepace@slrpnk.net
        link
        fedilink
        Français
        arrow-up
        0
        ·
        edit-2
        3 months ago

        Le fait que ce soit du journalisme grand public n’est pas une excuse, au contraire: du journalisme spécialisé peut se contenter des données les infos brutes, le journalisme grand public se doit de faire une étape d’analyse en plus, pas du tout faite là.

        Au-delà des émissions de CO2 des centres de données, leur consommation électrique croissante suscite des inquiétudes : elle pourrait plus que doubler, d’ici à 2026, et passer de 1,7 % à entre 2 % et 3,5 % de la demande mondiale, selon les estimations de l’AIE, qui y inclut les cryptomonnaies.

        Tiens j’avais pas vu passer ça. On met les cryptomonnaies sur le dos de l’IA maintenant? Qu’est ce que ça fout là?

        On a donc une nouvelle technologie gourmande en énergie

        Bah je trouve ça faux, et je pense que c’est parce que c’est faux que l’article ne donne pas des chiffres en absolu. On verrait que la moindre conférence scientifique génère plus de CO2 que l’entraînement d’un gros modèle open source (à faire une fois pour alimenter le monde entier en modèles).

        Et encore une fois, aucune différence faite entre entraînement des modèles (coûteux, à faire une fois, dans un datacenter) et utilisation des modèles (faite de plus en plus localement, hors des datacenters, consomme à peu près autant que regarder une vidéo sur son ordi).

        Amazon, Meta, Google et Microsoft ont, à eux seuls, acheté 29 % des nouveaux contrats d’éolien et de solaire dans le monde, en 2023, selon Bloomberg.

        Sur ce nombre, j’ai de gros gros doutes. En 2023 ou a ajouté 510 GW de renouvelable, Microsoft consomme (en total) l’équivalent de 2M soit 0.004%. Dés qu’on parle en absolu, on se rend compte que les boites informatiques sont vraiment très très peu énergivores par rapport aux industries classiques. Je parie que c’est encore un journaliste qui confond MW et MWh.

        • nicocool84@sh.itjust.works
          link
          fedilink
          Français
          arrow-up
          0
          ·
          3 months ago

          On verrait que la moindre conférence scientifique génère plus de CO2 que l’entraînement d’un gros modèle open source (à faire une fois pour alimenter le monde entier en modèles).

          Je suis bien d’accord que ça sert pas à grand chose de se déplacer aussi souvent que (beaucoup de) scientifiques le font (et cadres sups en général), mais là tu fais du whataboutism de bas étage il me semble. “Une inférence consomme moins qu’un Paris/Berlin un SUV, donc c’est pas un problème”. OK…

          Le fait que tu “trouves ça faux” que les réseaux de neurones profonds sont gourmands en énergie décrédibilise complètement ton propos, on dirait bien que ton enthousiasme t’aveugle. C’est pas une question d’opinion il me semble.

          • keepthepace@slrpnk.net
            link
            fedilink
            Français
            arrow-up
            0
            ·
            3 months ago

            La raison pour laquelle je mets dans la balance les conférences scientifiques c’est que les progrès de la recherche sont le bénéfice mis au crédit de l’IA dans cet article. Les confs, il y en a des inutiles, mais beaucoup sont utiles.

            Une inférence consomme moins qu’un Paris/Berlin un SUV, donc c’est pas un problème

            C’est pour ça que je veux qu’on parle en absolu, parce que ton échelle est complètement, mais complètement fausse. Une inférence consomme moins qu’une pub sur netflix en fait. Générer une image ou un millier de tokens, sur mon GPU, ça prend 10s et juste une portion de ses 370W de conso max.

            Ce sont les entraînements qu’on compare à des vols internationaux (avec le raccourci mensonger AMHA que brûler des fossiles et utiliser de l’électricité, c’est la même chose)

            C’est pas une question d’opinion il me semble.

            Non en effet. C’est une question de nombres. L’article n’en propose pas.

            • nicocool84@sh.itjust.works
              link
              fedilink
              Français
              arrow-up
              0
              ·
              3 months ago

              J’ironisais sur ton whataboutism, je ne proposais pas d’échelle.

              Interpréter “des nombres” nécessite généralement une connaissance approfondie d’un domaine, et même dans ce cas on se plante souvent sur les conclusions qu’on tire des données disponibles (source: je suis chercheur, enfin plus ou moins, enfin je l’ai été en tout cas ^^). Tout ce qui concerne l’impact écologique est extrêmement difficile à quantifier, la tonne eq CO2 ça ne résume pas tous les enjeux écologiques de tout, et même cet indicateur simpliste est très dur à évaluer pour des phénomènes même pas si complexes a priori. Tout ça pour dire que ça me choque pas quand y a pas de chiffres dans un article de presse généraliste, et que j’ai même tendance à penser que quand on balance 3 chiffres chocs, y a de bonnes chances que ça soit de la manipulation et/ou du sensationnalisme.

              Après ces longues diatribes je vais quand même préciser que je suis en réalité d’accord avec un certains nombres de trucs que tu dis, sur le traitement de sujets pointus par le journalisme généraliste et les paniques écologiques. En dehors de mon envie de polémiquer, j’espère que cet échange ébranle un peu tes certitudes.

              • keepthepace@slrpnk.net
                link
                fedilink
                Français
                arrow-up
                0
                ·
                3 months ago

                Le titre c’est “les promesses de l’IA grevées par un lourd bilan carbone”

                On peut critiquer la t.eq.CO2, mais quand on accuse dans le titre d’un article un domaine d’avoir un lourd bilan carbone, le minimum c’est de donner au moins une échelle en la matière. Le Monde ferait pas un article sur le deficit public sans donner des chiffres en % du PIB ou en milliards. Alors que les interpréter c’est aussi un domaine très pointu. Mais donner les ordres de grandeur c’est la base et je pense que la raison pour laquelle ils ne le font pas c’est qu’ils savent que ces ordres sont très petits.

                j’ai même tendance à penser que quand on balance 3 chiffres chocs, y a de bonnes chances que ça soit de la manipulation et/ou du sensationnalisme.

                C’est exactement ce que je critique. Y a des chiffres dans cet articles, formulés de façon choc. Et utilisant des unités carrément plus problématiques et difficiles à interpréter que la t.eq.CO2.

        • Klaqos@sh.itjust.worksOP
          link
          fedilink
          Français
          arrow-up
          0
          ·
          3 months ago

          L’article est déjà trop long en essayant de soupeser l’opposition entre intérêt vertueux de l’IA et consommation énergétique pour essayer d’être neutre, faire de la vulga à ce sujet rallongerait encore le propos.

          Pour les chiffres, il y en a peut-être ici : https://legrandcontinent.eu/fr/2024/07/13/lia-fait-exploser-la-consommation-denergie/ si j’arrive à faire sauter le paywall je le poste ici (dans l’attente de tes réactions).

          Après désolé, je ne comprends pas l’anglais, ces sources ne sont pas intéressantes pour moi livrées brutes.

          • keepthepace@slrpnk.net
            link
            fedilink
            Français
            arrow-up
            0
            ·
            3 months ago

            Tu t’adresses pas au grand public sans faire soit de la vulgarisation, soit de l’analyse. Et donner des nombres bruts en MWh, c’est pas non plus s’adresser à un public de docteurs en physique nucléaire.

            Eh ben dis donc, faut aller les chercher loin les chiffres dans ta source! Et pour cause, ils montrent qu’il est mensonger de faire une équivalence entre conso de l’IA et conso des datacenters vu que la part de l’IA dedans est marginale aujourd’hui et est prévue de rester petite:

            page 35 de ce rapport de l"IAE

            • Klaqos@sh.itjust.worksOP
              link
              fedilink
              Français
              arrow-up
              0
              ·
              edit-2
              3 months ago

              J’ai trouvé d’autres articles d’Alexandre Piquard (https://www.lemonde.fr/economie/article/2024/06/14/derriere-l-ia-la-deferlante-des-data-centers_6239694_3234.html) sur le sujet avec la même tonalité, si tu penses que son erreur d’échelle modifie la donne sur les constats, n’hésite pas à lui en faire part. J’ai espoir que si c’est une erreur, c’est plus involontaire qu’à dessein !

              Et on aura des articles collant plus au réel, tout bénef.

              • keepthepace@slrpnk.net
                link
                fedilink
                Français
                arrow-up
                0
                ·
                3 months ago

                Paywall, j’ai accès qu’au début de l’article, qui là aussi fait croire que l’augmentation de la conso des datacenters est purement liée à l’IA, ce qui est faux, comme dit plus haut. Interdisez le mining de cryptomonnaie, vous verrez les consos des datacenters baisser, malgré la hausse de l’utilisation des IAs.

                Et là, j’accepte en serrant les dents l’hypothèse a priori raisonnable que la conso liée à l’entraînement des modèles va continuer de monter, mais il y a une très forte chance qu’on voit éclater la bulle OpenAI bientôt, dont l’approche de force brute bat de l’aile. Personne a envie de mettre des milliards sur la table pour avoir de nouveaux modèles, la recherche sur des méthodes plus efficaces (qu’on est à peu près surs est possible) bat son plein et n’arrête pas de produire des avancées.

                Si t’as accès à l’article complet et à son mail, je veux bien essayer, mais j’ai un peu abandonné tout espoir sur le ton des articles écolo et technique du Monde.

                • Klaqos@sh.itjust.worksOP
                  link
                  fedilink
                  Français
                  arrow-up
                  0
                  ·
                  3 months ago

                  Tu peux écrire directement à la rédaction ils devraient rediriger ton message au journaliste, tu peux aussi via un commentaire (j’ai déjà réussi à faire modifier un article en pointant certains éléments, ils peuvent être réactifs).

                  En revanche, comme l’a dit une autre personne dans le sujet et même toi en préalable en disant que tu as de l’affect sur ce sujet, si tu veux être entendu je te recommande de changer de posture / de ton, sinon il n’y aura pas de considérations pour tes remarques.

                  • keepthepace@slrpnk.net
                    link
                    fedilink
                    Français
                    arrow-up
                    0
                    ·
                    3 months ago

                    Franchement je devrais juste arrêter de dire que je suis biaisé juste parce que je connais le domaine je crois, chaque fois ça perturbe plus que ça devrait.

                    Et étant pas abonné et ayant pas accès à l’article complet, je me sens pas très légitime de faire leur SAV…

      • keepthepace@slrpnk.net
        link
        fedilink
        Français
        arrow-up
        0
        ·
        edit-2
        3 months ago

        Ils sont longs…

        Le 2e a l’air de juste parler du marketing de la silicon valley, ça m’intéresse pas. Je suis anticapitaliste, qu’ils mangent leurs morts. Les startups d’IAs sont des boites capitalistes comme les autres, je le sais, je m’en fous, y a aucun sujet spécifique à l’IA là. (hésite pas à me dire si je suis passé trop vite sur un argument important de l’article pas évoqué dans l’intro)

        Passons à l’autre.

        Le premier article commence avec les poncifs habituels: IA = silicon valley et datacenters = IA.

        Non, la révolution actuelle en IA elle a commencé dans des labos, financés par des fonds publics, avec des chercheurs qui ont tourné plus autour du Canada que de San Francisco. (On l’attribue à trois “parrains”: Bengio, Hinton et Le Cun auquel on ajoute parfois Ilya Sutskever)

        La révolution du deep learning, elle est profonde. Dans la rechercher, dans l’informatique. On a résolu le problème de repliement des protéines, la reconnaissance vocale, la reconnaissance visuelle et le contrôle robot. OpenAI peut couler demain, ces révolutions restent.

        En ce qui concerne les datacenters, leur source est assez mauvaise. Ils donnent la conso des datacenters d’une seule ville des US, la plus importante en la matière, mais loin de concentrer 100% de la puissance de calcul mondial. Voici plutôt des estimations de l’IEA que je recopie d’un autre post:

        page 35

        Petit rappel, la conso mondiale c’est plus de 22 000 TWh, les datacenters du monde sont à moins de 2% et la part “IA” là dedans est minuscule.

        Donc souvenez vous que quand on vous dit que la conso de l’IA c’est la conso des datacenters, on vous la fait à l’envers.

        Je trouve un peu cyniquement que cette citation pose l’ambiance:

        l’intelligence artificielle, cette entité divine que nos incantations invoquent depuis son nuage magique de données, est en réalité une gigantesque infrastructure physique et qu’elle se trouve pour partie autour de la ville d’Ashburn

        On part de la pensée magique, la barre est basse les copains. Donc oui, les IAs, c’est pas arrivé par intervention divine, ça s’entraîne sur des clusters de GPU, ça a besoin de beaucoup de VRAM à entraîner, beaucoup moins à faire tourner (une chose qu’on oublie souvent, mais vous pouvez faire tourner de la génération d’image, de son et de texte localement sur un PC). C’est pas magique et c’est même pas secret! L’architecture GPT est publique, n’a pas été inventée par OpenAI (en réalité c’est un labo de Google qui a publié ça) et les modèles de Meta, Mistral et plein d’autres sont ouverts et gratuits à réutiliser.

        Y a peu de technos dans l’histoire qui ont été développées de façon aussi ouverte. On le doit beaucoup aux chercheurs qui, s’ils et elles ont rejoint des grosses boites pour des salaires mirobolants, ont aussi insisté pour continuer à faire de la recherche, c’est à dire à publier de façon ouverte. La communauté open-source est à fond, décidée à pas lâcher la course et trouver tous les moyens d’empêcher une douve propriétaire d’apparaître.

        On aimerait un peu d’aide ou au moins un peu d’encouragement de la part des humanistes capables d’imaginer la société post-travail, mais voila, on en est là, à devoir démonter des idées fausses assemblées pour assouvir le besoin de pessimisme d’une population généralement technophobe, car confondant progrès technologique et silicon valley. Ce qui, soit dit en guise de conclusion, est une des plus grandes impostures intellectuelles de ce siècle.

        • nicocool84@sh.itjust.works
          link
          fedilink
          Français
          arrow-up
          0
          ·
          edit-2
          3 months ago

          On a résolu le problème de repliement des protéines

          Haha je voulais pas forcément remettre une pièce dans la machine mais en te répondant je lis les nouveaux messages du thread et je ne peux résister à voir encore là un signe de ton sur-enthousiasme sur le machine learning. Non, le problème n’est pas “résolu”. D’ailleurs GPT-4o aurait pu te le dire.

          Prompt: Est-ce que le problème de repliement des protéines a été résolu par l’IA?

          Le problème de repliement des protéines, qui consiste à prédire la structure tridimensionnelle d’une protéine à partir de sa séquence d’acides aminés, a fait des avancées significatives grâce à l’intelligence artificielle, notamment avec des outils comme AlphaFold développé par DeepMind. AlphaFold a démontré une capacité impressionnante à prédire les structures des protéines avec une précision comparable à celle des méthodes expérimentales.

          Cependant, bien que ces avancées soient prometteuses et aient résolu de nombreux cas complexes, le problème n’est pas entièrement “résolu” dans le sens où il reste encore des défis à relever, notamment pour certaines protéines difficiles à modéliser ou pour des complexes protéiques. La recherche continue dans ce domaine, et l’IA joue un rôle de plus en plus important dans la compréhension et la prédiction des structures protéiques.

          ;-)

          • keepthepace@slrpnk.net
            link
            fedilink
            Français
            arrow-up
            0
            ·
            3 months ago

            La flemme de retrouver la discussion d’annonce de ça, mais il y avait plusieurs spécialistes du domaine disant que oui, il restait bien sur des problèmes spécifiques et une limite à la taille de molécules simulables, mais que le gros du problème avait été résolu et que ce n’était pas abusé de le dire, que ça donnerait des applications immédiatement.

            Un article du MIT technology review, un journal qui est capable de faire de la vulgarisation sans tomber dans la désinformation. AlphaFold permet en quelques jours (ou moins si tu mets un bon calculateur sur le coup) de faire un travail expérimental qui demandait un an autrefois.

            GPT-4o est pas la meilleure source, tu peux aller voir ce que disent aussi les organisateurs de la compétition et voir qu’ils ont du changer la difficulté grandement quand AlphaFold est arrivé.

            • nicocool84@sh.itjust.works
              link
              fedilink
              Français
              arrow-up
              0
              ·
              edit-2
              3 months ago

              GPT-4o est pas la meilleure source

              Sans dec poirot. J’ai apparemment une petite difficulté ici à faire passer l’ironie et le sarcasme là où je le pense évident.

              Gagner une compétition != résoudre un problème.

              Mais je pense qu’on tourne en rond. Je te propose un résumé : je trouve que tu avales un peu facilement la hype des vendeurs d’huile de serpent d’IA, et tu penses que je suis un luddite négIAtionniste. ¯\_(ツ)_/¯

              • keepthepace@slrpnk.net
                link
                fedilink
                Français
                arrow-up
                0
                ·
                3 months ago

                Le but de cette compétition, c’est de résoudre par la simulation un problème qu’on résolvait auparavant à grand renfort d’investissements et de temps. C’est une compétition sur des cas concrets dans lesquels des centaines de milliers de dollars ont été investis, et que cet algo résout pour une fraction du coût et du temps.

                L’ironie c’est bien, des sources crédibles c’est mieux. Lis l’article du MIT technology review.

                According to Jumper, there were four proteins in the competition that independent judges had not finished working on in the lab and AlphaFold’s predictions pointed them towards the correct structures.

                In this year’s CASP, AlphaFold predicted the structure of dozens of proteins with a margin of error of just 1.6 angstroms—that’s 0.16 nanometers, or atom-sized. This far outstrips all other computational methods and for the first time matches the accuracy of techniques used in the lab, such as cryo-electron microscopy, nuclear magnetic resonance and x-ray crystallography. These techniques are expensive and slow: it can take hundreds of thousands of dollars and years of trial and error for each protein. AlphaFold can find a protein’s shape in a few days.

                Dame Janet Thornton at the European Bioinformatics Institute in Cambridge, UK, has been working on proteins for 50 years. “That’s really as long as this problem has been around,” she said in a press conference last week. “I was beginning to think it would not get solved in my lifetime.”

                Even a less accurate result would have been good news for people working on enzymes or bacteria, says AlQuraishi: “But we have something even better, with immediate relevance to pharmaceutical applications.”

                • nicocool84@sh.itjust.works
                  link
                  fedilink
                  Français
                  arrow-up
                  0
                  ·
                  3 months ago

                  Tu me réponds encore comme si j’avais nié tout intérêt au machine learning alors que j’essaye juste de tempérer les hyperboles ambiantes. (et au passage, comme si j’étais un énorme noob alors que ton champ de compétence va du NLP à la biologie moléculaire apparemment)

                  Mais peut-être as-tu des infos secrètes à propos de l’AGI sur le point d’advenir et tu préfères pas trop la froisser ? J’aurai l’air d’un con à mon procès pour mécréance face à mes jurés de race supérieure, quand mes posts lemmy serviront de preuves à charge contre moi.

                  Sarcasme à part, il y a je pense un juste milieu à trouver entre les annonces mirobolantes d’hyper-enthousiastes et nier tout intérêt à l’inférence statistique après apprentissage automatique (aka “IA”).

                  • keepthepace@slrpnk.net
                    link
                    fedilink
                    Français
                    arrow-up
                    0
                    ·
                    3 months ago

                    Je te réponds comme si tu pensais que cette compétition est complètement abstraite sans aucune application concrète alors qu’elle porte exactement et précisément sur des cas concrets.

                    Je pense en effet qu’on tourne en rond. T’aimes pas que je te montre que mes affirmations sont sourcées alors tu m’imagines une position complètement délirante. Bon débat avec tes strawmen.

        • Wi(vΛ)lem Ort(Λv)iz@jlai.lu
          link
          fedilink
          Français
          arrow-up
          0
          ·
          edit-2
          3 months ago

          J’avais pas l’intention de commenter, mais il faut quand même dire que ta lecture de la citation sur l’ “entité divine” est extrêmement biaisée, puisque tu n’es pas même plus capable de déceler une figure de style, ni d’avoir le recul critique sur le climat général au sujet de l’IA (qui en fait effectivement une forme d’incantation) :

          On part de la pensée magique, la barre est basse les copains. Donc oui, les IAs, c’est pas arrivé par intervention divine,

          Sur le reste, je trouve que certains de tes arguments sont intéressants sur le coût de l’entraînement mis en rapport avec le fonctionnement du code et la disponibilité des modèles, mais tout ça est noyé dans un techno-solutionnisme que tu refuses d’admettre, et ça décrédibilise le reste.

          • keepthepace@slrpnk.net
            link
            fedilink
            Français
            arrow-up
            0
            ·
            edit-2
            3 months ago

            Je comprends la figure de style, elle signifie qu’on part de la position “je sais pas comment ça marche”. Comme je le dis, la barre de départ est basse.

            Pour le reste, je vous laisse choisir mon étiquette, j’explique mes positions, je détaille mes calculs, si c’est devenu techo-solutioniste de penser qu’une tech puisse améliorer le monde comme des milliers l’ont fait avant elle et ce d’autant plus si elle est open-source, je prends cette étiquette avec joie. Je trouve juste dommage qu’entre technophone et technosolutionniste, il n’y ait aucun espace disponible.

            • Wi(vΛ)lem Ort(Λv)iz@jlai.lu
              link
              fedilink
              Français
              arrow-up
              0
              ·
              3 months ago

              “je sais pas comment ça marche”

              Oui, donc c’est ce que je dis, tu laisses complètement de côté le fait que le recours à l’IA dans tout et n’importe quoi est une forme d’incantation générale. Donc on ne comprend pas la figure de style de la même façon. Et tu fais exactement pareil d’ailleurs, en t’enfermant toi-même dans des promesses d’améliorer radicalement le monde, la démocratie ou encore de nous libérer du travail (on attend depuis un siècle que le progrès mécanique le fasse, mais bizarrement c’est pas arrivé exactement comme on le pensait…).

              Je trouve juste dommage qu’entre technophobe et technosolutionniste, il n’y ait aucun espace disponible.

              Et voila, maintenant ce sont les gens qui te critiquent qui sont des réducteurs binaires… Si tu ne veux pas être réduit à un de ces deux extrêmes, c’est simple, ne fait pas de promesses de sauver le monde avec l’IA (voir aussi tes anciens posts et AMA). Pour ma part je pense qu’il y a un entre deux, entre technophobe et technosolutionniste, mais je ne te classe pas dedans. Et ton refus du terme “gourmand en énergie” pour le processus de développement d’IA, juste sur la base que ça consomme beaucoup seulement au départ et moins que d’autres, est un bon exemple de ton biais un peu trop évident pour moi.
              Après chacun ses définitions, mais tu as quand même une sacré mauvaise foi par moment.

              • keepthepace@slrpnk.net
                link
                fedilink
                Français
                arrow-up
                0
                ·
                3 months ago

                tu laisses complètement de côté le fait que le recours à l’IA dans tout et n’importe quoi est une forme d’incantation générale

                J’ai pourtant l’impression de lutter directement contre ça en demandant qu’on ait une compréhension plus profonde et une vue plus nuancées des problèmes et des avantages de ces techs. C’est en refusant la complexité d’un sujet qu’on peut l’utiliser de façon incantatoire. Rentre dans les détails et la manipulation avec des formules simplistes devient plus difficile.

                Alors d’accord, cet article a le mérite de passer de “c’est pas magique, c’est des infrastructures”, ce qui est sûrement nécessaire pour certains, mais je trouve qu’on est aussi en droit de demander à ce que l’analyse ne s’arrête pas à cette étape qui reste quand même très simpliste, même si moins simpliste que ce qu’elle déconstruit.

                Et tu fais exactement pareil d’ailleurs, en t’enfermant toi-même dans des promesses d’améliorer radicalement le monde, la démocratie ou encore de nous libérer du travail

                Je ne demande qu’à détailler ces promesses, je le fais un peu là.

                Et note qu’il n’y a pas que des promesses en la matière. De nombreuses améliorations radicales ont été amenées par le deep learning ces 10 dernières années: on a résolu le problème de la traduction automatique. De la transcription automatique. Des non-programmeurs peuvent générer des programmes simples juste en le demandant. Ces technos boostent également la recherche de différentes façons. La capacité de générer des programmes simples accélère grandement l’analyse de données. La génération de texte (bien utilisée, relue par des humains) accélère la génération de publis et la recherche documentaire. On a résolu le problème de repliement des protéines, qui a lui seul est une énorme avancée qui aurait fait la une de plein de journaux scientifiques pendant des mois si ce n’était pas une des nombreuses avancées du machine learning. On décode le langage des baleines, on améliore les simulation de plasmas de fusion, on découvre des planète grâce à ces techniques. Je m’arrête là, mais les avancées sont réelles.

                Démocratie: Là ce n’est encore qu’une promesse, et en fait, même pas une promesse, un espoir qui demande à ce qu’on s’empare collectivement de ces techs au lieu de les laisser entre des mains capitalistes et autoritaires. Des agents basés sur LLM ont la capacité de digérer beaucoup de données légales, économiques, politiques et d’agir comme des représentants fidèles, incorruptibles, honnêtes et transparents des citoyens. Fais toi une discussioon d’une heure avec un tel agent, détaillant tes opinions sur les différents sujets politiques et laisse le ensuite te représenter, trouver les compromis acceptables, les positions de vote sur toutes les questions locales, nationales ou autres et je pense en effet que la démocratie changera de tête.

                Libérer du travail: C’est pas une hypothèse et c’est pas une question technique, c’est une critique faite à l’“IA” aujourd’hui et une constatation faite par de nombreux journalistes (j’avoue que je suis pas allé la vérifier personnellement, mais je la trouve crédible): l’IA détruit des emplois. Autrement dit, plein de boites se rendent compte qu’elles peuvent produire la même chose avec moins d’humains.

                Là pour le coup je trouve ça un peu rude de dire que j’ai une position technosolutioniste sur la question, tant je dis et répète que c’est une question politique et culturelle de passer de la vision “destruction d’emploi” à “transition vers une société post-travail”. La société post-travail, à mon avis, elle était faisable avec la techno des années 90. Elle est d’autant plus faisable aujourd’hui. Alors oui, je pense que les avancées technologiques rendent cette évolution plus évidente, plus inévitable, et la marche moins haute, mais comme on dit, on fait pas boire un âne qui n’a pas soif, la question est avant tout culturelle.

                (on attend depuis un siècle que le progrès mécanique le fasse, mais bizarrement c’est pas arrivé exactement comme on le pensait…).

                Le temps de vie passé à travailler baisse régulièrement depuis la révolution industrielle pourtant. Et le travail purement physique, purement mécanique, où seule la force physique est nécessaire à une tâche, a quasimment complètemetn disparu.

                Si tu avais écouté d’autres personnes que les “incantateurs”, des gens avec une analyse un peu plus détaillée de la baisse du travail par la mécanisation, tu aurais constaté qu’ils ne parlaient pas d’une sortie du travail mais d’une migration vers le tertiaire, cible de l’automatisation actuelle. Une fois les 3 secteurs automatisés par contre, plus de migration possible, on sort du travail. Si on le veut. Si on résiste á la tentation de créer des bullshit jobs par peur du changement.

                Si tu ne veux pas être réduit à un de ces deux extrêmes, c’est simple, ne fait pas de promesses de sauver le monde avec l’IA

                Je suis optimiste et utopiste, je pensais que ces étiquettes là suffisaient, mais si vous trouvez raisonnable de me dire techno-solutionniste parce que je trouve que certains problèmes ont des solutions techniques, c’est vous qui voyez, mais venez pas gueuler quand perso j’applique ma définition de la technophobie qui moi me semble raisonnable: le fait d’adopter une position critique de la tech avant de chercher à la comprendre.

                Y a plein de critiques légitimes des LLMs, de l’IA en général, dont beaucoup viennent des chercheurs dans le domaine. Celle là, elle me dérange pas et le débat est non seulemet légitime mais super important! J’aimerais que la population générale y participe plus, c’est dangereux qu’elle soit confinée au cercle des chercheurs et arbitrée par quelques CEOs. Mais les critiques faits sur des problèmes imaginaires je les mets pas dans la même catégorie en effet.

                Et ton refus du terme “gourmand en énergie” pour le processus de développement d’IA, juste sur la base que ça consomme beaucoup seulement au départ et moins que d’autres, est un bon exemple de ton biais un peu trop évident pour moi.

                Le refus de parler en Wh plutôt qu’en terme vagues de “gourmand”, “beaucoup”, “beaucoup plus”, “beaucoup trop” me parait être de plus mauvaise foi.

                Voici une affirmation claire, falsifiable que je vous invite à contredire: l’entrainement de modèles de langages tel que fait aujourd’hui, avec les datacenters actuels, aurait un impact nul sur le climat dans une société qui a fait sa transition énergétique.

                • Wi(vΛ)lem Ort(Λv)iz@jlai.lu
                  link
                  fedilink
                  Français
                  arrow-up
                  0
                  ·
                  3 months ago

                  Des agents basés sur LLM ont la capacité de digérer beaucoup de données légales, économiques, politiques et d’agir comme des représentants fidèles, incorruptibles, honnêtes et transparents des citoyens. Fais toi une discussioon d’une heure avec un tel agent, détaillant tes opinions sur les différents sujets politiques et laisse le ensuite te représenter, trouver les compromis acceptables, les positions de vote sur toutes les questions locales, nationales ou autres et je pense en effet que la démocratie changera de tête.

                  Voila exactement le genre de croyance qui définit ce que j’appelle du technosolutionnisme. Chacun se fera un avis sur cette promesse, moi je constate surtout que cette façon d’analyser la réalité te donne des résultats totalement en décalage avec ce que tu appelles les “ressentis” quand ça te fait dire, par exemple, que le mandat de Hollande a réduit les inégalités malgré sa loi travail qui a détruit le code du travail. Mais comme t’es ingé bien payé, ton “agent LLM” peut te raconter que la vie s’améliore sur la base d’un tableau INSEE, et ça te convient…

                  Le temps de vie passé à travailler baisse régulièrement depuis la révolution industrielle pourtant. Et le travail purement physique, purement mécanique, où seule la force physique est nécessaire à une tâche, a quasimment complètemetn disparu.

                  Ça se voit que c’est pas toi qui fait la mise en rayon à Lidl et le ménage dans les bureaux.

                  • keepthepace@slrpnk.net
                    link
                    fedilink
                    Français
                    arrow-up
                    0
                    ·
                    edit-2
                    3 months ago

                    Haha, oui, j’appelle “ressentis” les choses que les gens pensent être vrai instinctivement (comme la hausse de l’insécurité) et “faits” les choses mesurées objectivement. C’est la base de la science ça.

                    Ça se voit que c’est pas toi qui fait la mise en rayon à Lidl et le ménage dans les bureaux.

                    Ça se voit que c’est pas toi qui a eu à décharger à la main des camions remplis de sacs de 50 kg de ciment. C’est pas moi non plus hein. C’est mon grand père, qui se plaignait de la facilité du travail “ouvrier” quand il visitait un atelier où on utilise un transpalette dés qu’il faut décharger quelque chose.

                    Le travail reste physique, mais ce n’est plus un travail en force, qui a été remplacée par la force mécanique.

                    Mais on a déjà eu cette conversation, on va pas la refaire…

            • Camus [il/lui]@lemmy.ca
              link
              fedilink
              Français
              arrow-up
              0
              ·
              3 months ago

              J’interviens dans le fil maintenant, merci pour la qualité de tes interventions. Personnellement j’avais l’impression que tu avais bien compris la figure de style.

              Je trouve juste dommage qu’entre technophone et technosolutionniste, il n’y ait aucun espace disponible.

              J’espère qu’il en reste, mais bon, chacun utilise ses propres catégories

        • le_pouffre_bleu@slrpnk.net
          link
          fedilink
          Français
          arrow-up
          0
          ·
          3 months ago

          Merci beaucoup, je n’ai malheureusement pas le temps d’y réagir longtemps (en plus d’avoir appuyer malencontreusement sur annuler après avoir finit le premier message)

          Je réagirait juste propos de ça :

          Le 2e a l’air de juste parler du marketing de la silicon valley, ça m’intéresse pas. Je suis anticapitaliste, qu’ils mangent leurs morts. Les startups d’IAs sont des boites capitalistes comme les autres, je le sais, je m’en fous, y a aucun sujet spécifique à l’IA là.

          Camarade, ce ne sont pas nos imaginaires et récits qui donne l’orientation du déploiement à grande échelle de ces technologies, c’est bien le récit capitaliste et son marketing. Des personnes comme toi qui cherchent à faire émerger une autre voie sont indispensables mais il me semble assez candide de croire qu’une partie de de cette démarche et assimilé par les boites de la silicone vallée (Internet pour tous ausi à ses début on parait d’utopie) et que l’essor de l’usage de ces techno puisse être diviser en fonction des intentions des personnes qui ont bosser en premier leur dessus. Surtout que ces marketing narratifs est aussi partagé et défendu par nos dirigeants politiques, même si pas forcément partagé par une partie du personnel administratif, ce qui fait que ce contester de ce que veux (ex : le rêve mouillé de surveillance dystopique qui est en train de se réaliser) va de le sens d’un partenariat avec ces grandes boites et rien ne dis que si un stop leur mis les États ne se réappropriation pas les mêmes usages…

          . (hésite pas à me dire si je suis passé trop vite sur un argument important de l’article pas évoqué dans l’intro)

          Je dirai que tu te place une ouillière que te fais voir avec plus de difficulté les arguments développé justement.

          on en est là, à devoir démonter des idées fausses assemblées pour assouvir le besoin de pessimisme d’une population généralement technophobe, car confondant progrès technologique et silicon valley. Ce qui, soit dit en guise de conclusion, est une des plus grandes impostures intellectuelles de ce siècle.

          Je ne suis pas certain que parler de technophobe soit approprier, on peut critiquer ou être opposé à l’utilisation et au développement d’une techno sans pour autant être technophobe, un bon exemple c’est nucléairepunk vs solarpunk. Pour moi la plus grande imposture c’est plutôt la confusion entre progrès technologique et progrès humain et dissocier les implications sociaux-politiques et environnementales de la recherche en science appliqué.

          Oui les progrès de l’IA pour la médecine et la pharmacologie sont incroyables et merveilleux (presque magique en vrai dans ce que ça permet ;) )mais si les gains offert par ces progrès sont indissociables du développement et déploiement de technologie qu’Orwell ne pouvait même imaginer est-ce qu’on peut toujours parler de progrès technologiques enviable, e dis ça parce que souvent quand on parle bénéficie/risque des IAs dans les médias (je pense en particulier à une émission radiofrance) on a souvent droit à un association des deux sans chercher à distinguer les critiques pour chaque domaine.

          J’ai réécrit à la va vite, je suis un peu frustré le premier message était mieux formulé j’espère que celui-ci est quand même compréhensible

          • keepthepace@slrpnk.net
            link
            fedilink
            Français
            arrow-up
            0
            ·
            3 months ago

            Mais c’est justement parce que cet article va dans le sens du récit capitaliste que ça ne m’intéresse pas et que j’ai pas envie de le prendre comme point de départ à la discussion. Les technos de deep learning moteur de progrès qui vont changer vos vies, ça se passe pas à OpenAI. Certains labos de Google et de Meta peuvent éventuellement y participer (en mode recherche non capitaliste d’ailleurs, cf le clash Le Cun - Musk ou Zuckerberg expliquant pourquoi l’open source est logique pour eux) mais ça se passe surtout dans des labos où les journalistes vont peu: Stanford, Carnegie, des groupes open source peu connus du grand public Laion, Nous, EleutherAI… par des choses un peu différentes comme StableAI dont le CEO qui a été viré (pour chercher des applis utiles plutôt que rentables) cherchait un modèle vraiment intermédiaire.

            Les promesses de Sam Altman, les envies d’Apple, ça m’intéresse pas.

            Je ne suis pas certain que parler de technophobe soit approprié

            J’aimerais croire que c’est autre chose, mais il y a vraiment en France une habitude à systématiquement prendre une position critique vis à vis de la moindre avancée technologique avant de la comprendre. La démarche critique que tu décris est saine, mais quand la critique est portée par des gens qui semblent découvrir que “le cloud” c’est des serveurs quelque part et qui ne font pas la différente entre l’énergie consommée pour l’apprentissage et pour l’utilisation, mais qui se sentent assez qualifiés pour écrire un article critique dessus, si je pense qu’on peut dire que la critique précède la compréhension et que c’est bien ce qu’est la technophobie.

            Et bien souvent, presque systématiquement même, ce qui est critiqué à travers la techno, c’est le capitalisme. Je préférerais nettement que ces journalistes assument l’angle anti-capitaliste plutôt que de reporter sur la tech des choses à laquelle elle ne peut rien. Pour prendre un exemple d’il y a quelques années, c’est pas la haute technologie qui force des gamins à bosser dans des mines de cobalt. Le cobalt ne perd pas ses propriétés chimiques s’il est ramassé par des travailleurs majeurs, syndiqués, correctement payés et équipés. De la même façon, les datacenters consomment de l’électricité (surtout aux US). C’est pas la haute technologie qui décide de où installer les serveurs. C’est pas la haute technologie qui décide du mix électrique US et de ses émissions de CO2.

            mais si les gains offert par ces progrès sont indissociables du développement et déploiement de technologie qu’Orwell ne pouvait même imaginer est-ce qu’on peut toujours parler de progrès technologiques enviable

            Le principe et l’intérêt d’une techno, c’est qu’elle change les règles du jeu, généralement en étendant le champ des possibles. Pour tout le monde. Les lois sont les garde-fou qu’on met pour que les bénéfices soient plus importants que les problèmes. C’est une question politique qui demande à s’intéresser aux problèmes mais aussi aux bénéfices, dont je vois pas beaucoup d’articles parler.

            • Camus [il/lui]@lemmy.ca
              link
              fedilink
              Français
              arrow-up
              0
              ·
              3 months ago

              Et bien souvent, presque systématiquement même, ce qui est critiqué à travers la techno, c’est le capitalisme. Je préférerais nettement que ces journalistes assument l’angle anti-capitaliste plutôt que de reporter sur la tech des choses à laquelle elle ne peut rien. Pour prendre un exemple d’il y a quelques années, c’est pas la haute technologie qui force des gamins à bosser dans des mines de cobalt. Le cobalt ne perd pas ses propriétés chimiques s’il est ramassé par des travailleurs majeurs, syndiqués, correctement payés et équipés. De la même façon, les datacenters consomment de l’électricité (surtout aux US). C’est pas la haute technologie qui décide de où installer les serveurs. C’est pas la haute technologie qui décide du mix électrique US et de ses émissions de CO2.

              Effectivement