ACV
El impacto ambiental de la IA: energía, carbono y agua en la era de ChatGPT
Puntos clave
La IA está impulsando un crecimiento explosivo en la demanda de electricidad y agua de los centros de datos, con cargas de inferencia multiplicándose más rápido que el tráfico web.
Una sola consulta de IA ahora usa aproximadamente la misma electricidad que una búsqueda clásica en Google, pero el impacto ambiental depende en gran medida de la red eléctrica y del sistema de refrigeración.
Las sesiones de TikTok o Netflix aún tienen huellas de carbono más pesadas por minuto que la mayoría de las solicitudes de IA, pero la escala importa: miles de millones de consultas por día redefinen la base.
Los cuatro grandes hiperescaladores (Microsoft, AWS, Google, Meta) lideran en métricas de sostenibilidad, pero divergen en transparencia, uso de agua y prácticas de compensación de carbono.
Procesos de IA bien diseñados pueden reducir drásticamente el impacto ambiental en comparación con métodos tradicionales, como lo demuestra la huella de carbono 50 veces menor de Devera por ACV.
Las cargas de trabajo de IA hacen del agua la nueva frontera: varios proveedores ahora apuntan a ser positivos en agua para 2030, con la refrigeración sin agua emergiendo como un principio clave de diseño.
Los sistemas de IA están convirtiéndose rápidamente en uno de los mayores consumidores de energía y agua en la infraestructura digital. Mientras que el impacto del video en streaming y las redes sociales se ha estudiado durante más de una década, el reciente auge de los modelos de lenguaje grande (LLMs) y la IA generativa introduce una nueva clase de cargas de trabajo persistentes y de alta intensidad. En este artículo, descomponemos la huella mensurable de la IA desde el entrenamiento del modelo hasta la inferencia y la comparamos con otras actividades digitales cotidianas.
También examinaremos de cerca las estrategias de los centros de datos detrás de las plataformas de IA más grandes del mundo, analizando cómo Microsoft, AWS, Google y Meta abordan la creciente tensión entre rendimiento, sostenibilidad y transparencia.
¿Cuánta energía realmente utiliza la IA?
Se espera que el uso de electricidad en centros de datos globales alcance 945 TWh para 2030, frente a 415 TWh en 2024. Una gran parte de este crecimiento proviene de la creciente demanda de inferencia de IA, especialmente de modelos generativos. Las estimaciones sugieren que la IA por sí sola podría representar 652 TWh (69%) para 2030, casi un incremento de 80 veces desde los niveles de 2024.

Tabla 1: Uso estimado de electricidad por la IA (global)
Año | Uso estimado de electricidad por IA | Fuente |
2022 | 23 TWh | IDC |
2030 | 652 TWh (proyectado) | Pronóstico de utilidad |
Este crecimiento está siendo impulsado por el despliegue de GPUs intensivas en energía. Un solo Nvidia H100 consume hasta 700 vatios, y un nodo de ocho GPUs puede alcanzar 5.6 kW. Unos racks completos de computación de IA pueden superar 240 kW, forzando un rediseño de la infraestructura de refrigeración y el suministro de energía en salas de datos modernas.
¿Cuánta energía y huella de carbono usa una consulta de IA?
Esta tabla destaca la marcada variabilidad en la intensidad energética y de carbono entre los modelos de IA líderes en 2025, revelando cuánta optimización y divergencia existe detrás de cada API. El GPT-4o de OpenAI ahora opera con una eficiencia de 0.30 Wh por solicitud, lo que equivale a solo 0.13 gramos de CO₂ en una red promedio global, una mejora dramática sobre las estimaciones anteriores de GPT-4 de 2.90 Wh. Mientras tanto, Claude 3 Opus, el modelo premium de Anthropic, sigue consumiendo 4.05 Wh por consulta, convirtiéndolo en uno de los modelos públicos más pesados en uso activo. En el otro extremo, el Gemini 2.0 Flash de Google es notablemente eficiente con solo 0.022 Wh, casi un orden de magnitud menos que el GPT-4o. Incluso el Llama-3-70B de Meta muestra un perfil sólido de rango medio con 1.70 Wh. Estas diferencias no solo afectan los costos en la nube, también remodelan la ecuación ambiental, especialmente cuando se escala a través de miles de millones de solicitudes. El impacto de carbono por solicitud ya no es una constante fija, sino una opción de diseño ligada a la arquitectura del modelo, la eficiencia del chip y la infraestructura.
Ejecutando el modelo: energía y carbono por solicitud de usuario
Modelo (nivel de API pública, 2025) | Energía por solicitud* (Wh) | CO₂, red global † (g) |
GPT-4o (OpenAI) | 0.30 | 0.13 |
GPT-4 (estimación anterior) | 2.90 | 1.29 |
Claude 3 Opus (Anthropic) | 4.05 | 1.80 |
Claude 3 Haiku | 0.22 | 0.10 |
Gemini 2.0 Flash (Google) | 0.022 | 0.010 |
Llama-3-70B (Meta, código abierto) | 1.70 | 0.76 |
* Las cifras provienen de divulgaciones de laboratorios o proveedores y asumen un intercambio típico de 400 tokens.
† Intensidad de carbono promedio global de la red 445 g CO₂/kWh en 2024 iea.org.
¿Cómo se comparan las consultas de IA con otros hábitos digitales?
Para la inferencia, OpenAI reveló recientemente que una consulta típica de ChatGPT consume ~0.34 Wh. Esto alinea las solicitudes de IA más cerca de las búsquedas en Google (~0.3 Wh), pero muy por debajo del video corto o el streaming.
Huellas de electricidad y CO2 de acciones digitales comunes (10 unidades)
Actividad | Energía (Wh) | CO2 (g) [promedio global] |
ChatGPT x10 consultas | 3.4 Wh | 1.5 g |
TikTok x10 min | 66 Wh | 29.2 g |
Búsqueda en Google x10 consultas | 3 Wh | 1.3 g |
Netflix x10 min | 12.8 Wh | 5.7 g |
Si bien una sola consulta de IA puede consumir relativamente poca energía, la historia cambia a escala, miles de millones de solicitudes diarias rápidamente suman demandas de poder significativas. Por eso es crucial comparar las cargas de trabajo de IA con hábitos digitales familiares. Compararlas con actividades como búsquedas en Google, video streaming o uso de redes sociales ayuda a contextualizar su impacto ambiental y hace que la discusión sea más tangible para usuarios, legisladores y planificadores de infraestructura por igual.
¿Qué pasa con el entrenamiento? El gran golpe antes del despliegue
Entrenar modelos de base grandes como GPT-3 o GPT-4 sigue siendo la fase más intensiva en recursos.
Impacto del entrenamiento de LLM seleccionados
Modelo | Energía de entrenamiento | CO2 estimado | Agua de refrigeración |
GPT-3 | 1.287 GWh | ~552 t CO2e | 5.4 millones L |
GPT-4 | ~52–62 GWh (est.) | ~12–15 kt CO2e | Desconocido |
Si bien el entrenamiento ocurre con menos frecuencia, su uso de energía y agua por ejecución puede rivalizar o superar al uso semanal de algunos países pequeños.
Agua: el costo oculto de la IA generativa
Las cargas de inferencia también requieren agua significativa, principalmente para refrigeración. Las estimaciones muestran que cada consulta de ChatGPT usa 0.32 ml de agua, una gota individualmente, pero enorme a escala. El campus de Microsoft en West Des Moines, por ejemplo, consume ~43 millones L/mes en verano, representando el 6% del consumo total de la ciudad.
Los investigadores proyectan que los centros de datos impulsados por IA podrían retirar hasta 6.6 mil millones de m3 de agua dulce para 2027, más de cuatro veces el uso anual de Dinamarca.
Perspectiva global
La IA podría retirar 4.2 – 6.6 mil millones m³ de agua dulce en 2027, evaporando 0.38 – 0.60 mil millones m³. Eso es más que el retiro anual de agua dulce de cuatro a seis Dinamarcas.
Estudio de caso: Microsoft en West Des Moines
El campus de la compañía en Iowa alcanza un máximo de 11.5 millones de galones/mes (~43 millones L) durante el verano, alrededor del 6% del uso total de la ciudad.
Respuesta corporativa
Para abordar esto, Microsoft ahora implementa un sistema de enfriamiento de circuito cerrado que elimina las pérdidas por evaporación, ahorrando >125 millones L por datacenter por año.
Centros de datos: las guerras de la nube van en verde
Los cuatro principales hiperescaladores, Microsoft Azure, Amazon Web Services (AWS), Google Cloud y Meta, presentan las estrategias de sostenibilidad más completas y medibles en el mercado. Otros proveedores (Oracle Cloud, IBM Cloud, etc.) comparten objetivos similares pero actualmente publican menos métricas operativas o han establecido metas climáticas menos ambiciosas para mediados de 2025.
Comparemos los principales hiperescaladores por métrica de sostenibilidad.
Resumen de sostenibilidad de los principales proveedores de IA/nube (2025)
Proveedor | Meta de carbono | Energía renovable | Uso Efectivo de Energía (PUE) | Meta de agua | Uso Efectivo de Agua (WUE) |
Microsoft | Negativo en carbono 2030 | 90% (meta: 100% 2025) | 1.125 | Positivo en agua 2030 | ND (sin agua en nuevos diseños) |
AWS | Cero neto 2040 | 100% desde 2023 | 1.15 | Positivo en agua 2030 (53% progreso) | 0.15 L/kWh |
Cero neto 2030 | 100% anualmente, 64% CFE 24/7 | 1.10 | Reponer 120% del agua | ~1 L/kWh | |
Meta | Cero neto 2030 | 100% desde 2020 | 1.08 | Reponer 200% en áreas de alto estrés | 0.20 L/kWh |
Microsoft Azure
Hoja de ruta climática: Carbono negativo, agua positiva y cero residuos para 2030; 100% electricidad renovable para 2025.
Eficiencia operativa: PUE promedio de 1.125 en centros de datos de próxima generación, superando el promedio de la industria de 1.4–1.6.
Innovaciones:
– Sistemas de refrigeración sin agua e inmersión líquida que reducen las emisiones de GHG en 15–21% y reducen el uso de agua en 31–52%.
– Celdas de combustible de hidrógeno para energía de respaldo cero emisiones de 3 MW.
Desafíos: A pesar de los diseños de ahorro de agua, el aumento del consumo de agua en Texas ha provocado oposición local.
Amazon Web Services (AWS)
Energía: Alcanzó la coincidencia de electricidad 100% renovable en 2023; meta de cero neto para 2040.
Eficiencia: PUE global de 1.15 (mejor sitio en 1.04).
Agua: Iniciativa positiva en agua para 2030; WUE global de 0.15 L/kWh (disminución de 40% desde 2021).
Innovaciones:
– Uso de agua reciclada y proyectos de recarga de agua comunitaria; alcanzó el 53% de la meta de agua para 2030 en 2024.
– Inversión en reactores nucleares modulares para descarbonizar la electricidad en regiones de bajos recursos renovables.
Desafíos: Alta dependencia de los Certificados de Energía Renovable (RECs) y cargas de trabajo de IA en aumento complican las reducciones reales de emisiones.
Google Cloud
Estrategia de “Energía Libre de Carbono (CFE) 24/7”: Operar cada centro de datos con energía libre de carbono por hora para 2030; alcanzó el 64% a nivel global en 2024 (10 regiones con ≥90%).
Eficiencia: PUE promedio de 1.10; publica datos detallados a nivel de campus.
Agua: Compromiso de reponer el 120% del agua dulce consumida y mejorar las cuencas locales.
Innovaciones y desafíos:
– Aseguró contratos geotérmicos, de batería, y nucleares para apoyar las metas de CFE 24/7.
– El crecimiento impulsado por la IA elevó la huella de agua en 17% en 2023, lo que generó preocupación por la transparencia.
Meta (Facebook)
Energía: 100% renovable desde 2020; cero neto en toda la cadena de valor para 2030.
Eficiencia: PUE de 1.08 y WUE de 0.20 L/kWh; todas las instalaciones con certificación LEED Gold.
Agua: Devolver el 200% del agua en regiones de alto estrés, 100% en regiones de estrés medio.
Innovaciones: Acuerdo geotérmico de 150 MW en Nuevo México; explorando micro-nuclear para cargas de trabajo de IA.
Desafíos: La discrepancia entre las emisiones basadas en la ubicación y las basadas en el mercado plantea preguntas sobre el impacto real de los RECs.
Otros Proveedores
Proveedor | Aspectos destacados clave de sostenibilidad |
Oracle Cloud Infrastructure (OCI) | 100% renovables para 2025; cero neto para 2050; PUE de 1.30 en la región más eficiente. Usa captura de lluvia y xeriscaping para reducir necesidades de agua. |
IBM Cloud | 75% renovables para 2025 (90% para 2030), cero neto para 2030. Promueve energía solar en sitio y gestión del agua a través de su Acelerador de Sostenibilidad. |
Emerging Hyperscale/Colocation | El Pacto de Centros de Datos Climáticamente Neutrales de la UE apunta a PUE ≤ 1.3 y uso de agua < 2.5 L/kWh para 2025. Proveedores como Switch y CyrusOne ya implementan sistemas de refrigeración sin agua. |
Aspectos destacados clave de sostenibilidad de los Centros de Datos:
Microsoft y Google lideran con las hojas de ruta climáticas más agresivas (carbono negativo / CFE 24/7) e innovaciones en refrigeración sin agua y energía de respaldo sin carbono.
AWS destaca en un despliegue rápido de renovables y fue el primero en lanzar una meta de positivo en agua, aunque su meta de cero neto está establecida una década más tarde (2040).
Meta ofrece las mejores proporciones operativas de PUE–WUE y funciona completamente con renovables, pero su expansión explosiva en IA tensa su rendimiento en sostenibilidad.
Oracle, IBM y otros están progresando pero muestran menos transparencia y tienen metas a más largo plazo.
Impacto ambiental de ACV potenciado por IA con Devera
La huella de carbono calculada por Devera evita horas de consultoría manual, reuniones innecesarias y viajes con alto contenido de carbono. Pero también desencadena:
Un rango de 0.03M a 0.4M de tokens procesados para cada ACV.
Varios segundos de computación de alta intensidad.
Y un breve pero significativo pico en el uso de energía dentro de un centro de datos, típicamente alimentado por AWS o Microsoft Azure.
Para ser claros, la huella de Devera es pequeña en comparación con los grandes laboratorios de IA, pero la dirección importa. Si no tenemos cuidado, podríamos terminar resolviendo problemas ambientales contribuyendo silenciosamente a otro.
Primeras estimaciones para comparar el ACV tradicional con el proceso de ACV de Devera (para mejorar)*

Según nuestras suposiciones, el ACV de un consultor de ACV tradicional requiere más de 50 veces más energía que el ACV potenciado por IA con Devera.
Conclusión: La IA está remodelando la ecuación de sostenibilidad
La huella ambiental de la IA es compleja, dinámica y aún está evolucionando. Si bien los impactos por consulta están tendiendo a la baja gracias a chips más eficientes e infraestructura más inteligente, la pura escala de la demanda plantea serios riesgos a largo plazo. Líderes como Microsoft y Google están innovando con refrigeración sin agua y seguimiento de carbono por hora, pero el camino hacia una IA cero emisiones netas requerirá una transparencia más profunda, una regulación más estricta y un mejor diseño de carga de trabajo.
Si la IA va a ser la nueva electricidad, entonces también debe seguir las mismas reglas: medida, monitoreada y descarbonizada en origen.