¿Podemos hacer que la IA sea ecológica? Grandes preguntas sobre la sostenibilidad de la IA, respondidas por el cofundador de Fastly

Content Marketing Manager

¿Podemos hacer que la IA sea ecológica, o está la carrera de la IA fundamentalmente en conflicto con la sostenibilidad? En este artículo, hablamos con Simon Wistow, cofundador y vicepresidente de Iniciativas Estratégicas de Fastly, para abordar esta y otras cuestiones difíciles sobre la sostenibilidad de la IA.
También analizamos las cifras de nuestra última encuesta global, The 2025 AI Energy Pulse Check, que recopiló información de 497 profesionales que gestionan la infraestructura de IA y la sostenibilidad en EE. UU., Europa y APAC.
¿La mala noticia? Todavía nos queda un largo camino por recorrer en lo que respecta al seguimiento del uso de energía de la IA y la optimización de las cargas de trabajo. Por suerte, ya tenemos las herramientas para hacer que la IA sea mucho más sostenible; solo necesitamos usarlas.
Pregunta 1: ¿Es la IA generativa realmente tan mala para el medio ambiente?
Hay un acalorado debate online sobre la sostenibilidad de la IA, con algunos influencers tecnológicos afirmando que la IA no es tan perjudicial para el medio ambiente como dicen otros. Simón dice que los extremos del debate no son útiles.
"Algunas personas tienen la idea de que, cueste lo que cueste, la IA es el futuro... Otros piensan que es un desastre. La verdad está en algún lugar intermedio."
Para abordar el problema energético de la IA, necesitamos admitir que sí tiene un coste ambiental real. La IA generativa no es simplemente una nube mágica que produce poesía y código. Como dice Simon, son millones de GPUs que procesan vectores y consumen mucha energía, y la mayoría de la gente ni siquiera se da cuenta de cuánto.
Él no está exagerando. Nuestros datos de AI Energy Pulse Check 2025 muestran que las empresas no están monitoreando completamente su uso de energía de IA. De hecho, menos de 1 de cada 10 empresas rastrean más del 75 % de tu uso de energía de IA. La falta de seguimiento es un problema, especialmente a medida que la escala del uso de la inteligencia artificial sigue creciendo. Incluso las pequeñas consultas de IA son increíblemente intensivas en energía. Como dice Simon, "Una de las cifras que se han mencionado es que una consulta a algún tipo de gran modelo de lenguaje consume unas diez veces más energía que una consulta a Google." Y Google realiza una enorme cantidad de trabajo por cada consulta."
Por suerte, hay herramientas que pueden hacer que las consultas de IA sean más sostenibles. Una de esas herramientas es AI Accelerator de Fastly, que permite la caché de consultas de IA.
A medida que nos hemos vuelto más sofisticados... más personas se dan cuenta de que hay cosas que puedes hacer. «Puedes trabajar de forma más inteligente, no más duro» Simón dice.
Pregunta 2: ¿Cómo puede la industria de la IA equilibrar la innovación con la sostenibilidad?
La innovación y la sostenibilidad no son mutuamente excluyentes, pero requieren un cambio de mentalidad, dice Simon.
«Creo que la manera en que podemos equilibrar la innovación con la sostenibilidad es realmente pensar en cómo hacemos las cosas y ser muy reflexivos sobre ello», dice «Los modelos requieren mucha energía para entrenarse si son estos mega modelos... pero quizás no todo necesita un mega modelo como los gigantes que se entrenan en todo internet y requieren cientos de millones de dólares para entrenarse»
En lugar de optar por los modelos más grandes y caros, Simon aboga por una ingeniería más inteligente y una mejor reutilización.
"Podríamos ser capaces de equilibrar el uso de la energía. También podemos reutilizar los modelos para entrenar otros modelos.
Hay un gran potencial en la optimización diaria de la infraestructura, especialmente mediante el almacenamiento en caché de consultas de IA y el esfuerzo compartido, dice Simon. Más de la mitad de los encuestados estiman que entre el 10 % y el 30 % de las consultas de IA de tu empresa son redundantes. Más de una cuarta parte cree que podría reducir el uso de energía hasta en un 50 % solo a través de la optimización.
Si puedes usar una caché semántica de modo que, incluso si formulas una pregunta de una manera ligeramente diferente, aún puedes almacenarla en caché, entonces no estás haciendo trabajo [innecesario]. «Y no hacer el trabajo es la mejor manera de no quemar energía»
Él añade: "Mucha gente está implementando el mismo tipo de estrategia de almacenamiento en caché que lanzamos el año pasado. Cada vez más personas se están dando cuenta de que hay cosas que puedes hacer [para que la IA sea más sostenible].
Aunque el almacenamiento en caché de consultas y las optimizaciones de carga de trabajo están ganando popularidad, todavía no son muy comunes. Actualmente, solo el 14,7 % de los encuestados europeos, el 27,3 % en APAC y el 33,5 % en EE. UU. afirman que utilizan ampliamente el almacenamiento en caché, el edge o la optimización de la carga de trabajo. Los encuestados mencionaron que la complejidad de gestionar la IA en el borde es el mayor obstáculo para implementar la IA en el borde en todas las regiones.
Pregunta 3: ¿Cómo podemos hacer que la IA sea más verde?
Simon dice que la eficiencia se puede diseñar en muchos niveles, desde la arquitectura del modelo hasta la infraestructura subyacente.
Podemos trabajar en la investigación para que los grandes modelos de lenguaje sean más eficientes de ejecutar. Tal vez se basen en números enteros en lugar de coma flotante, y eso reducirá el uso de energía.
También sugiere la idea de modelos compartidos o estandarizados en los que las empresas o los gobiernos puedan colaborar, para que no todos estemos reinventando la rueda.
"Quizá podamos reutilizar el trabajo entre modelos... o tener un modelo estándar común financiado por un consorcio de empresas, gobiernos o instituciones científicas."
Pregunta 4: ¿Dónde ves que se dirige la IA sostenible en los próximos 3–5 años?
Simon ofrece una predicción clara:
"Lo que va a suceder bastante rápido es que, a medida que el costo de entrenar modelos llegue al punto de ser ridículo, necesariamente hará que la gente tenga que ser un poco más inteligente en la forma en que entrenan las cosas."
En otras palabras, las fuerzas económicas pronto requerirán una infraestructura más inteligente y ágil, incluso sin mandatos regulatorios.
Los datos de la encuesta respaldan esto. Casi el 45 % de los encuestados a nivel mundial dicen que priorizarían los modelos energéticamente eficientes si el costo del uso de la IA estuviera vinculado al consumo de energía. Algunas empresas de APAC y EE. UU. también están empezando a considerar el uso de energía en las decisiones de infraestructura al optar entre despliegues en el borde y en la nube.
Lee el informe completo 2025 AI Energy Pulse Check para explorar los datos completos.
Descargo de responsabilidad sobre los datos de la encuesta
Los conocimientos compartidos en la encuesta AI Energy Pulse Check de 2025 están destinados a fomentar el debate, no a servir como puntos de referencia definitivos del sector. Aunque la encuesta fue validada y abarcó a una variedad de profesionales en EE. UU. (315), Europa (116) y APAC (66), los tamaños de las muestras regionales varían considerablemente. Como ocurre con cualquier dato autoinformado, las respuestas pueden incluir cierto grado de sesgo o exageración.