Le Problème de l’Énergie
Si l’IA générative consomme autant d’énergie, c’est parce qu’elle repose sur une chaîne industrielle lourde et terriblement énergivore. Une vaste étude publiée en octobre par l’association The Shift Project tire la sonnette d’alarme : la vague IA entraîne un besoin colossal d’infrastructures et de GPU dont la fabrication, l’alimentation et le refroidissement creusent une empreinte carbone exponentielle.
Les Données d’Entraînement
En cause, notamment, les données d’entraînement, le carburant de ces modèles. Car plus elles sont nombreuses, plus le modèle est supposément intelligent, mais plus l’énergie nécessaire pour l’entraîner explose. Les chiffres sont exorbitants : « On travaille sur des données qui dépassent les 100 téraoctets, parfois plus de 1 000 », rappelle Ludovic Moulard, membre du Shift Project et directeur développement durable du cabinet fifty-five.
L’Impact sur l’Environnement
Le rapport du Shift Project estime que les centres de données pourraient représenter jusqu’à deux fois les émissions annuelles de la France d’ici à 2035. Et certains pays ont déjà atteint leurs limites, à l’image de l’Irlande en 2023. De même, aux États-Unis, la hausse des coûts de l’énergie est attribuable à l’explosion de l’IA.
La Nécessité de Renoncer à Certains Usages
Le constat du Shift Project est sans appel : il faudra très probablement renoncer à certains usages de l’IA. Car les prompts lancés mécaniquement et la production de contenus à la chaîne, parfois sans réels intérêts derrière, font exploser la consommation d’énergie pour un bénéfice minime.
La Voie à Suivre
Il est, malgré tout, bon de rappeler que l’IA peut aussi faire avancer les choses dans des domaines où les bénéfices sociétaux compensent la dépense énergétique, comme la santé, le climat ou la recherche en général. Mais les modèles doivent être calibrés, adaptés, et entraînés dans de bonnes conditions. Le Shift Projet suggère également de fixer des budgets électriques aux centres de données.