IA : Mistral apporte de la transparence sur l’impact environnemental d’un modèle
Un vent de transparence ?

Alors que les entreprises d’IA génératives donnent de moins en moins d’information sur l’impact environnemental de leurs modèles, Mistral a travaillé avec l’agence Carbone 4 et l’ADEME sur celui de son modèle Large 2. L’entreprise explique notamment que l’entrainement de ce modèle a émis l’équivalent de 20 400 tonnes de CO₂.
Il est difficile de connaître l’impact environnemental des modèles de langage puisque jusque-là, les entreprises qui les créent étaient peu bavardes sur le sujet. Les chercheuses de Hugging Face, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont bien tenté de le mesurer, mais elles déploraient, en septembre 2024, qu’ « il existe actuellement peu de transparence sur les demandes énergétiques des applications spécifiques de l’IA ».
Dans un article mis en ligne en juin dernier sur la plateforme de preprints arXiv, Sasha Luccioni, avec Boris Gamazaychikov de Salesforce, Theo Alves da Costa de Ekimetrics et Emma Strubel de l’Université Carnegie Mellon, déploraient encore une « désinformation par omission » sur le sujet.
Ils écrivaient que « la tendance actuelle à la réduction de la transparence concernant l’impact environnemental de l’IA contribue à la désinformation et entrave la prise de décisions éclairées à tous les niveaux, des chercheurs et développeurs individuels aux organisations et décideurs politiques ». Ils ajoutaient que « cette baisse de transparence est particulièrement préoccupante compte tenu de l’impact environnemental croissant de l’IA dans un contexte de préoccupations climatiques mondiales et de limites planétaires imminentes ».
Dans cet article, ils expliquaient que « les données de mai 2025 indiquent que parmi les 20 modèles les plus utilisés, un seul (Meta Llama 3.3 70B) a directement publié des données environnementales et trois (DeepSeek R1, DeepSeek V3, Mistral Nemo) les ont publiées indirectement (en partageant des données de calcul telles que le type de GPU et la durée de formation, ainsi qu’en publiant les poids de leurs modèles afin de permettre une analyse de l’efficacité) ».
Mistral ouvre le capot de Large 2
En cette mi-juillet, Mistral ouvre (un peu) le capot de son modèle Large 2 concernant son impact environnemental. Dans un billet de blog, l’entreprise explique avoir travaillé avec l’agence Carbone 4 et l’ADEME sur « l’analyse du cycle de vie d’un modèle d’IA ». Sans donner les chiffres bruts ni publier, à ce stade, l’étude qu’elle a faite, l’entreprise livre divers chiffres sur la consommation de son modèle et assure que son étude a été examinée par deux autres agences (Resilio et hubblo). Elle ajoute que cette étude suit le référentiel général pour l’IA frugale développé par l’AFNOR et est conforme aux normes internationales, notamment la norme Green House Gas (GHG) Protocol Product Standard et la norme ISO 14040/44.
Ainsi, elle confirme d’abord que l’entrainement et l’inférence (qu’elle mélange dans l’infographie ci-dessous) sont les parties qui émettent le plus d’émissions de gaz à effet de serre (85,5 %) pour le modèle Large 2 de Mistral.

Néanmoins, concernant ce point, l’entreprise rappelle que la fabrication et la gestion de la fin de vie du matériel utilisé ne sont pas à négliger puisqu’elles représentent 11 % des émissions du modèle.
L’entreprise rappelle que la localisation des datacenters est un facteur clé de son impact environnemental puisque de celle-ci va dépendre de la nature de l’énergie qu’ils vont dépenser. Ainsi, en entrainant son modèle en France, avec de l’énergie provenant notamment de centrales nucléaires et un climat encore relativement tempéré, Mistral émet moins de CO2 et consomme moins d’eau que dans beaucoup d’autres régions du monde.
20 400 tonnes de CO₂ et 281 000 m³ d’eau
L’entreprise donne des chiffres plus précis sur l’impact environnemental de l’entrainement de son modèle Large 2. Ainsi, elle explique qu’en janvier 2025, après 18 mois d’utilisation, Large 2 a émis l’équivalent de 20 400 tonnes de CO₂ (tCO₂e), consommé 281 000 m³ d’eau et l’équivalent de 660 kg d’antimoine en ressources matérielles (660 kg sb eq, une unité de mesure de la consommation de ressources matérielles qui se base sur la consommation de l’élément chimique antimoine, sb).
Mistral précise, concernant l’inférence, qu’une réponse de son assistant « Le Chat » utilisant ce modèle avec 400 tokens consomme l’équivalent de 1,14 g de CO₂, 45 mL d’eau et l’équivalent de 0,16 mg d’antimoine. Elle qualifie ces impacts de l’inférence de « marginaux ».
Mistral précise que « ces chiffres reflètent l’ampleur des calculs impliqués dans l’IA générique, qui nécessite de nombreux processeurs graphiques, souvent dans des régions où l’électricité est très polluante et où il y a parfois des problèmes d’approvisionnement en eau ». Elle ajoute qu’ « ils incluent également les « émissions en amont », c’est-à-dire les impacts liés à la fabrication des serveurs, par exemple, et pas seulement à la consommation d’énergie ».
Dans leur article de juin, Sasha Luccioni et ses collègues rappelaient que Google avait estimé en octobre 2024 [PDF] que l’entrainement de sa famille de modèles Gemma avait consommé l’équivalent de 1 247,61 tonnes CO2 et que, de son côté, Meta avait estimé la consommation de l’entrainement de sa famille Llama 3 à l’équivalent de 11 390 tonnes de CO2.
Plaidoyer pour une transparence accrue dans le milieu
« Notre étude montre également une forte corrélation entre la taille d’un modèle et son empreinte », explique Mistral. L’entreprise précise que « les benchmarks ont montré que les impacts sont à peu près proportionnels à la taille du modèle : un modèle 10 fois plus grand générera des impacts d’un ordre de grandeur supérieur à ceux d’un modèle plus petit pour la même quantité de jetons générés. Cela souligne l’importance de choisir le bon modèle pour le bon cas d’utilisation ».
Elle ajoute que cette étude est « une première approximation compte tenu de la difficulté à effectuer des calculs précis dans le cadre d’un tel exercice en l’absence de normes relatives à la responsabilité environnementale des environnements LLM et de facteurs d’impact accessibles au public ». Elle fait remarquer, par exemple, qu’ « aucun inventaire fiable du cycle de vie des GPU n’a encore été réalisé ». Ainsi leurs impacts intrinsèques « ont dû être estimés, mais ils représentent une part importante des impacts totaux ».
Mistral propose que les futurs audits sur le sujet dans le secteur prennent exemple sur son étude qui a « utilisé une approche basée sur la localisation des émissions liées à l’électricité et à inclure tous les impacts significatifs en amont, c’est-à-dire non seulement ceux liés à la consommation électrique des GPU, mais aussi toutes les autres consommations électriques (CPU, dispositifs de refroidissement, etc.) et la fabrication du matériel ».
L’entreprise s’engage à mettre à jour ses rapports sur l’impact environnemental et à participer aux discussions sur des normes industrielles internationales sur le sujet, plaidant pour une plus grande transparence « tout au long de la chaine de production de l’IA ». Elle ajoute qu’elle va partager les résultats sur la base de données « Base Empreinte » de l’ADEME « établissant une nouvelle norme de référence pour la transparence dans le secteur de l’IA ». On attend avec impatience la publication de ces données dans cette base pour que la transparence soit encore un peu plus complète.