Les pratiques numériques et l’IA, ainsi que l’utilisation de technologies modernes, entraînent une forte contribution à l’épuisement des ressources naturelles rares et à l’augmentation continue de la consommation électrique mondiale. Avec le développement exponentiel, l’IA devient de plus en plus une partie intégrante de nos vies. Néanmoins, l’utilisation de l’IA, intrinsèquement liée à d’autres technologies telles que les centres de données et le cloud computing, entraîne des coûts environnementaux importants.
ChatGPT est l’une des IA génératives les plus connues aujourd’hui. L’impact environnemental de ChatGPT, comme d’autres modèles d’IA, concerne principalement la consommation d’énergie nécessaire pour l’entraînement et l’exécution des modèles. L’entraînement de grands modèles de langage comme ChatGPT nécessite une puissance de calcul substantielle. Ce processus implique l’utilisation de nombreux GPU ou TPU pendant des semaines, voire des mois, entraînant une consommation d’électricité significative. Tous ces calculs sont opérés dans des centres de données, une source connue de consommation accrue d’électricité.
Après l’entraînement du modèle, son déploiement au public (c’est-à-dire générer des réponses aux requêtes des utilisateurs) consomme également de l’énergie. Chaque interaction avec le modèle nécessite des ressources informatiques, bien que ces exigences soient généralement inférieures à celles de l’entraînement.
Quant aux centres de données, l’énergie utilisée pour alimenter et refroidir le matériel contribue aux émissions de carbone, surtout si la source d’énergie est des combustibles fossiles. L’empreinte carbone d’un centre de données est influencée par des facteurs tels que l’efficacité énergétique, les techniques de refroidissement et la source de l’électricité. Dans ce domaine, OpenAI utilise Microsoft Azure pour ses centres de données et son infrastructure cloud. Ce partenariat exploite les capacités de calcul haute performance d’Azure, y compris des superordinateurs AI spécialement conçus pour les tâches de formation et d’inférence à grande échelle. L’infrastructure cloud de Microsoft Azure est conçue avec un fort accent sur la durabilité environnementale.
Un autre volet de l’impact potentiel négatif sur l’environnement est la production et l’élimination du matériel (comme les GPU et les serveurs) utilisés pour entraîner et déployer les modèles d’IA, qui ont également des impacts environnementaux.
Model name |
Number of parameters |
Datacenter PUE |
Carbon intensity of grid used |
Power consumption |
CO2eq emissions |
CO2eq emissions x PUE |
GPT-3 | 175B | 1,1 | 429 gCO2eq/kWh | 1,287 MWh | 502 tonnes | 552 tonnes |
Gopher | 280B | 1,08 | 330 gCO2eq/kWh | 1,066 MWh | 352 tonnes | 380 tonnes |
OPT | 175B | 1,09 | 231 gCO2eq/kWh | 324 MWh | 70 tonnes | 76.3 tonnes |
BLOOM | 176B | 1,2 | 57 gCO2eq/kWh | 433 MWh | 25 tonnes | 30 tonnes |
Alors, comment les entreprises luttent-elles contre ces aspects néfastes de l’IA ?
Certaines entreprises investissent dans les énergies renouvelables, la compensation carbone ou d’autres initiatives de durabilité pour atténuer l’impact environnemental de leurs opérations. Par exemple, OpenAI et d’autres entreprises technologiques se sont engagées à améliorer l’efficacité énergétique et à utiliser des énergies renouvelables pour leurs centres de données. En tout état de cause, l’éveil de l’IA, s’il est mal géré, peut devenir un problème futur qui va nier le progrès fait dans d’autres domaines.
Sources :
Intelligence artificielle et environnement : symbiose ou parasitage ?
The Environmental Impact of ChatGPT: A Call for Sustainable Practices In AI Development
2024 Environmental Sustainability Report
ESTIMATING THE CARBON FOOTPRINT OF BLOOM, A 176B PARAMETER LANGUAGE MODEL