Revenir au blog

Follow and Subscribe

Pouvons-nous rendre l'IA écologique ? Les grandes questions sur la durabilité de l'IA, répondues par le cofondateur de Fastly

Alina Lehtinen-Vela

Content Marketing Manager

Pouvons-nous rendre l'IA écologique, ou la course à l'IA est-elle fondamentalement en contradiction avec la durabilité ? Dans cet article, nous discutons avec Simon Wistow, cofondateur de Fastly et vice-président des initiatives stratégiques, pour aborder cette question et d'autres questions difficiles sur la durabilité de l'IA.

Nous avons également analysé les chiffres de notre dernière enquête mondiale, The 2025 AI Energy Pulse Check, qui a recueilli des informations auprès de 497 professionnels gérant l'infrastructure et la durabilité de l'IA aux États-Unis, en Europe et dans la région APAC.

La mauvaise nouvelle ? Nous avons encore un long chemin à parcourir pour suivre la consommation d'énergie de l'IA et optimiser les charges de travail. Heureusement, nous avons déjà les outils pour rendre l'IA beaucoup plus durable ; il suffit de les utiliser.

Question 1 : L'IA générative est-elle vraiment si néfaste pour l'environnement ?

Il y a un vif débat en ligne sur la durabilité de l'IA, certains influenceurs technologiques affirmant que l'IA n'est pas aussi nuisible pour l'environnement que d'autres le prétendent. Simon dit que les extrêmes du débat ne sont pas utiles.

"Certaines personnes ont cette idée que, quel qu'en soit le coût, l'IA est l'avenir... D'autres pensent que c'est un désastre. La vérité se trouve quelque part entre les deux.

Pour résoudre le problème énergétique de l'IA, nous devons admettre qu'il a un réel coût environnemental. Gen AI n'est pas simplement un nuage magique produisant de la poésie et du code. Comme le dit Simon, ce sont des millions de GPU qui traitent des vecteurs et consomment énormément d'énergie, et la plupart des gens ne se rendent même pas compte de l'ampleur.

Il n'exagère pas. Les données de l'AI Energy Pulse Check 2025 indiquent que les entreprises ne suivent pas complètement leur consommation d'énergie liée à l'IA. En fait, moins d'une entreprise sur dix piste plus de 75 % de sa consommation d'énergie liée à l'IA. L'absence de suivi pose un problème, surtout à mesure que l'échelle de l'utilisation de l'IA continue de croître. Même les petites requêtes d'IA sont incroyablement énergivores. Comme le dit Simon, « L'un des chiffres avancés est qu'une requête sur une sorte de grand modèle de langage consomme environ dix fois plus d'énergie qu'une requête sur Google. » Et Google effectue un travail énorme par requête."

Heureusement, il existe des outils qui peuvent rendre les requêtes d'IA plus durables. L’un de ces outils est Fastly’s AI Accelerator, qui permet la mise en cache des requêtes d'IA. 

« Au fur et à mesure que nous sommes devenus plus sophistiqués... de plus en plus de gens se rendent compte qu’il y a des choses que vous pouvez faire. » Vous pouvez travailler plus intelligemment, pas plus durement. Simon dit. 

Question 2 : Comment l'industrie de l'IA peut-elle équilibrer l'innovation avec la durabilité ?

L'innovation et la durabilité ne s'excluent pas mutuellement, mais elles nécessitent un changement de mentalité, dit Simon. 

« Je pense que la manière dont nous pouvons équilibrer l'innovation et la durabilité est de vraiment réfléchir à la façon dont nous faisons les choses et d'être vraiment réfléchis à propos des choses », dit-il « L'entraînement des modèles demande beaucoup d'énergie s'il s'agit de méga-modèles... mais peut-être que tout n'a pas besoin d'un méga-modèle, comme les modèles géants qui sont entraînés sur l'ensemble d'Internet et qui nécessitent des centaines de millions de dollars pour être entraînés. »

Au lieu de se rabattre sur les modèles les plus grands et les plus coûteux, Simon prône une ingénierie plus astucieuse et une réutilisation améliorée.

« Nous pourrions peut-être équilibrer l’utilisation d’énergie. » « Nous pouvons réutiliser les modèles pour entraîner d'autres modèles également. »

Simon affirme qu'il existe un potentiel énorme dans l'optimisation quotidienne des infrastructures, notamment grâce à la mise en cache des requêtes d'IA et aux efforts partagés. Plus de la moitié des répondants à notre enquête estiment que 10 à 30 % des requêtes d'IA de leur entreprise sont redondantes. Plus d’un quart estiment qu’ils pourraient réduire leur consommation d’énergie jusqu’à 50 % grâce à l’optimisation seule. 

Si vous pouvez utiliser un cache sémantique de sorte que, même si vous formulez une question de manière légèrement différente, vous puissiez toujours la mettre en cache, alors vous ne faites pas de travail [inutile]. « Et ne pas faire le travail est la meilleure façon de ne pas brûler d’énergie. »

Il ajoute : "Beaucoup de personnes mettent en œuvre le même type de stratégie de mise en cache que celle que nous avons versionné l'année dernière. De plus en plus de gens se rendent compte qu'il y a des actions que vous pouvez entreprendre [pour rendre l'IA plus durable]."

Bien que la mise en cache des requêtes et l'optimisation de la charge de travail gagnent du terrain, elles ne sont pas encore très répandues. Actuellement, seulement 14,7 % des répondants européens, 27,3 % dans la région APAC et 33,5 % aux États-Unis déclarent utiliser largement la mise en cache, la périphérie ou l'optimisation de la charge de travail. Les personnes interrogées ont cité la complexité de la gestion de l'IA en périphérie comme le principal obstacle à la mise en œuvre de l'IA en périphérie dans les différentes régions.

Question 3 : Comment pouvons-nous rendre l'IA plus écologique ?

Simon affirme que l'efficacité peut être optimisée à plusieurs couches, de l'architecture du modèle à l'infrastructure sous-jacente.

« Nous pouvons travailler sur la recherche pour que les grands modèles de langage soient plus efficaces à exécuter. » Peut-être qu’ils sont basés sur des entiers plutôt que sur des nombres à virgule flottante, ce qui réduira l’utilisation d’énergie.

Il propose également l’idée de modèles partagés ou standardisés auxquels les entreprises ou les gouvernements pourraient contribuer, afin que nous ne réinventions pas tous la roue.

" Peut-être pourrions-nous réutiliser le travail entre les modèles… ou avoir un modèle commun standard financé par un consortium d'entreprises, de gouvernements ou d'institutions scientifiques. "

Question 4 : Où voyez-vous l'évolution de l'IA durable dans les 3 à 5 prochaines années ?

Simon propose une prédiction claire :

« Ce qui va se passer assez rapidement, c’est qu’à mesure que le coût de la formation des modèles atteint un point où c’est tout simplement ridicule, cela va nécessairement faire en sorte que les gens doivent être un peu plus intelligents dans la manière dont ils entraînent les choses. »

En d'autres termes, les forces économiques exigeront bientôt des infrastructures plus intelligentes et plus efficaces, même sans mandats réglementaires.

Les données d'enquête le confirment. Près de 45 % des personnes interrogées à l'échelle mondiale déclarent qu'elles donneraient la priorité aux modèles économes en énergie si le coût de l'utilisation de l'IA était lié à la consommation d'énergie. Certaines entreprises de l'APAC et des États-Unis commencent également à intégrer la consommation d'énergie dans leurs décisions d'infrastructure lorsqu'elles choisissent entre des déploiements en périphérie et en nuage.

Lisez le rapport "full" « 2025 AI Energy Pulse Check » pour explorer les données complètes.

Avertissement sur les données de l'enquête

Les informations partagées de l'enquête 2025 AI Energy Pulse Check visent à susciter la discussion, et non à servir de références définitives pour l'industrie. Bien que l'enquête ait été validée et ait couvert un éventail de professionnels aux États-Unis (315), en Europe (116) et dans la région APAC (66), les tailles des échantillons régionaux varient considérablement. Comme pour toute donnée autodéclarée, les réponses peuvent inclure un certain degré de biais ou d'exagération.