Une première pour un éditeur de genAI, un grand intérêt malgré des lacunes
La start-up française de genAI publie une étude sur son impact environnemental, notamment sur les émissions de CO₂, de l’entraînement et l’usage de ses modèles. Et appelle ses concurrents à faire de même.
« Une première contribution en faveur d’une IA plus accessible et plus durable », avance Mistral AI dans un article de blog. Bravo ! La démarche est nécessaire. A mesure que l’IA se déploie au sein de notre économie, il est crucial pour les développeurs, les décideurs publics, les entreprises, les gouvernements et les citoyens de mieux comprendre son empreinte environnementale, assure Mistral AI. « Nous estimons même que l’ensemble des acteurs de notre industrie portent une part de responsabilité, dans l’anticipation et l’atténuation des impacts environnementaux de cette technologie transformatrice », ajoute l’éditeur français.
Moins de 18 mois après sa création, Mistral AI a lancé la première analyse complète du cycle de vie d’un modèle d’IA, en collaboration avec Carbone 4 et avec le soutien de l’ADEME, l’Agence française de la transition écologique ; sa démarche a également été revue par les cabinets Resilio et Hubblo, deux acteurs spécialisés dans les audits environnementaux du secteur numérique.
Il reste difficile d’effectuer des calculs précis
Selon l’étude de Mistral, après 18 mois d’utilisation, Large 2 aurait généré 20,4 kilotonnes d’équivalent CO2, soit l’équivalent de 94 millions de kilomètres en voiture thermique ou encore 237 624 smartphones selon l’ADEME. Côté consommation d’eau, Large 2 en aurait nécessité 281 000 mètres cubes pour se refroidir, soit la consommation moyenne annuelle de 5200 Français moyens. Si on zoome de plus près, Mistral explique qu’une réponse d’un peu moins de 400 mots (soit une petite page Word) consomme 0,05 l d’eau et émet 1,14 grammes d’équivalent CO2. Des impacts « marginaux » de l’aveu même de Mistral, mais qui sont à multiplier par le nombre de requêtes soumises chaque jour au robot…
Si les spécialistes constatent des lacunes dans les chiffres avancés, force est d’épingler le mérite d’être plus détaillés que les mesures assénées sans autre forme de démonstration par le CEO et fondateur d’OpenAI mi-juin. Sam Altman a en effet affirmé sur son blog qu’une requête « moyenne » faite à ChatGPT consomme 0,34 wattheure et 0,32 ml d’eau -sans plus.
« Cette étude constitue une première approximation puisqu’en l’absence de normes établies pour évaluer l’empreinte environnementale des LLM, il reste difficile d’effectuer des calculs précis, note Mistral AI. Par exemple, on ne dispose pas à l’heure actuelle d’une étude fiable sur le cycle de vie des GPU. L’impact de leur fabrication n’est donc qu’estimé à ce stade, alors même que cela représente une part significative de l’impact total… »
Des chiffres suivis de mises à jour
Pour se conformer au GHG Protocol Product Standard, les futurs audits réalisés dans l’industrie pourraient suivre les principes de cette étude en utilisant une approche basée sur la localisation des émissions liées à la consommation d’électricité et en incluant tous les impacts significatifs en amont -c’est-à-dire, non seulement ceux liés à l’utilisation d’électricité des GPU, mais aussi toutes les autres consommations d’électricité (CPU, dispositifs de refroidissement, etc.) ainsi que la fabrication du matériel.
« Les résultats de notre étude appellent d’autres actions, reconnait l’éditeur. C’est pourquoi, nous nous engageons à mettre à jour nos rapports sur les impacts environnementaux de nos solutions et à participer aux discussions sur le développement de normes industrielles internationales. Nous plaiderons pour une plus grande transparence dans toute la chaîne de valeur de l’IA et nous accompagnerons les utilisateurs dans leurs choix afin qu’ils puissent adopter les solutions les mieux adaptées à leurs besoins. »
Bref, bien qu’imparfaite, l’analyse menée par Mistral AI contribuera à répondre à certaines des interrogations des IT Managers et autres CIO sur les critères environnementaux, lors du choix de leur fournisseur de genAI.