Sector Data Centersdatacenters

PUE y eficiencia energética en data centers: guía práctica

Todo sobre el PUE (Power Usage Effectiveness) en data centers: cómo se calcula, qué valores son buenos, cómo optimizarlo y qué exige el EU Code of Conduct for Data Centres. Estrategias reales para reducir el consumo energético.

Publicado 24 de marzo de 202615 min de lecturaPUE data center, Power Usage Effectiveness

La industria global de data centers consume aproximadamente el 1-2% de la electricidad mundial, y esa cifra crece sin parar conforme se expanden los servicios en la nube, la inteligencia artificial y el streaming de vídeo. En España, los grandes operadores de data centers figuran entre los mayores consumidores industriales de electricidad del país. Esta realidad ha convertido la eficiencia energética de los CPDs en una prioridad simultáneamente económica, competitiva y regulatoria.

El PUE (Power Usage Effectiveness) es la métrica central para medir y gestionar esa eficiencia. Creada en 2007 por el Green Grid (consorcio tecnológico co-fundado por AMD, Dell, HP, IBM y Microsoft), el PUE se ha convertido en el KPI de eficiencia energética de referencia universal en la industria de los data centers. Entenderlo en profundidad —su cálculo, sus limitaciones y cómo mejorarlo— es esencial para cualquier responsable de infraestructura.

Qué es el PUE y cómo se calcula

La fórmula fundamental

El PUE es el ratio entre la potencia total consumida por un data center y la potencia consumida exclusivamente por los equipos IT:

PUE = Potencia Total del Data Center / Potencia de Carga IT

  • Potencia Total: todo lo que entra por los contadores de electricidad del data center (equipos IT + refrigeración + distribución eléctrica + iluminación + UPS losses + otros sistemas)
  • Potencia de Carga IT: la potencia consumida por los servidores, almacenamiento, switches, routers y demás equipos informáticos (medida en las PDUs de rack o en los cuadros de distribución IT)

Interpretación del PUE

  • PUE = 1,0: el límite teórico perfecto. Todo el consumo del data center se dedica a la carga IT. No es físicamente alcanzable (los sistemas de distribución eléctrica, refrigeración e iluminación siempre consumen algo).
  • PUE entre 1,0 y 1,5: excelente. Solo los data centers más modernos y optimizados lo alcanzan.
  • PUE entre 1,5 y 2,0: estándar para data centers modernos bien diseñados.
  • PUE entre 2,0 y 3,0: data centers legacy de los años 90-2000 o instalaciones mal diseñadas.
  • PUE > 3,0: muy ineficiente. Antiguas salas de servidores con climatización de confort en lugar de precisión.

Un ejemplo numérico

Un data center con 500 kW de carga IT y los siguientes consumos auxiliares:

  • Sistemas de refrigeración (chillers, CRAC, bombas): 180 kW
  • Pérdidas en SAIs y distribución eléctrica: 35 kW
  • Iluminación, sistemas de seguridad, BMS: 10 kW
  • Total potencia auxiliar: 225 kW
  • Potencia total: 725 kW

PUE = 725 / 500 = 1,45

Significado: por cada kWh de electricidad que consume un servidor, el data center consume 0,45 kWh adicionales en infraestructura de soporte. Si el precio de la electricidad es 0,12 €/kWh, el sobrecoste anual de la infraestructura (respecto al teórico PUE 1,0) es:

225 kW × 8.760 h × 0,12 €/kWh = 236.520 € al año

La importancia de medir correctamente el PUE

El PUE puede medirse con diferentes granularidades:

  • PUE instantáneo: en un momento puntual. Varía con la carga IT y las condiciones ambientales externas (temperatura exterior afecta al rendimiento de la refrigeración).
  • PUE diario/mensual: más representativo, suaviza variaciones.
  • PUE anual: el más relevante para comparaciones y benchmarking. El recomendado por el Green Grid y el EU Code of Conduct.

El punto de medida también importa: el denominador (carga IT) debe medirse idealmente en las PDUs de rack (la medición más precisa), no en la salida del SAI (que incluye las pérdidas de distribución).

Valores de PUE de referencia en la industria

Benchmarking por tipo de instalación

| Tipo de data center | PUE típico | |--------------------|-----------| | Hyperscaler (Google, Microsoft, AWS en nuevas instalaciones) | 1,10 - 1,20 | | Colocation de primer nivel (Equinix, Digital Realty, instalaciones nuevas) | 1,25 - 1,40 | | Data center corporativo moderno (diseñado después de 2015) | 1,35 - 1,60 | | Data center corporativo estándar (2005-2015) | 1,60 - 2,20 | | Data center legacy (anterior a 2005) | 2,00 - 3,50 | | Sala de servidores no diseñada como data center | 2,50 - 5,00 |

Los datos del Uptime Institute Global Data Center Survey de 2023 indican que el PUE promedio mundial de los data centers en producción es de 1,58, muy lejos del PUE de los hyperscalers pero mejorando gradualmente.

El PUE de los sistemas Vertiv

Los sistemas de infraestructura Vertiv contribuyen directamente al PUE del data center:

SAIs Vertiv Liebert EXL S1 y APM Los SAIs de alta eficiencia de Vertiv tienen eficiencias en modo VFI de hasta 96,5% (EXL S1) y 96% (APM). Las pérdidas del SAI contribuyen directamente al PUE:

  • SAI con eficiencia 94%: pérdidas = 6% de la carga IT
  • SAI con eficiencia 96,5%: pérdidas = 3,5% de la carga IT
  • Para un data center de 500 kW IT: diferencia de 12,5 kW de pérdidas → 13.140 kWh/año → ~1.577 €/año de ahorro solo por el SAI

En modo ECO (bypass activo), la eficiencia del EXL S1 alcanza el 99%, reduciendo prácticamente a cero las pérdidas de distribución eléctrica. El modo ECO puede contribuir significativamente a la mejora del PUE en data centers donde la tolerancia a transitorios breves es aceptable.

Refrigeración Liebert DSE y CRV Las unidades de refrigeración son el mayor contribuyente al PUE después de la carga IT (típicamente el 30-50% del PUE). Los sistemas Liebert utilizan:

  • Compresores de velocidad variable (EEV) que ajustan la capacidad frigorífica a la carga real
  • Economizador de aire libre (free cooling) en los Liebert DSE cuando la temperatura exterior lo permite
  • Free cooling hidrónico en instalaciones con chilled water, maximizando las horas de operación sin compresores

Los principales consumidores de PUE

1. Sistemas de refrigeración (30-50% del overhead)

La refrigeración es el mayor contribuyente al overhead del data center en la mayoría de las instalaciones. Los datos típicos:

  • CRAC/CRAH convencionales con compresor a velocidad fija: COP (Coefficient of Performance) de 2-3 → 33-50% de la carga IT en consumo de refrigeración
  • Unidades de precisión modernas con compresores variables y economizador: COP de 4-7 en modos óptimos
  • Sistemas de agua fría (chilled water) con chillers modernos: COP de 5-8 o más con free cooling

Estrategias de reducción:

  • Elevar la temperatura de suministro de aire frío de 18°C a 22-24°C (recomendado ASHRAE A1/A2: 18-27°C de temperatura de entrada al rack)
  • Implementar contención de pasillos para eliminar la mezcla de aire frío y caliente
  • Añadir economizador de aire libre o free cooling hidrónico
  • Usar in-row cooling (como el Liebert CRV) para acercar la refrigeración a la carga y reducir pérdidas de distribución de aire

2. Pérdidas en SAIs y distribución eléctrica (3-12% del overhead)

Las pérdidas en la cadena de distribución eléctrica incluyen:

  • Pérdidas en transformadores MT/BT: 1-3% de la potencia transformada
  • Pérdidas en el SAI (modo VFI): 3,5-6% según eficiencia del sistema
  • Pérdidas en cableado y cuadros de distribución: 0,5-1%
  • Pérdidas en PDUs de rack: 0,5-1%

Estrategias de reducción:

  • Seleccionar SAIs de alta eficiencia (Vertiv Liebert EXL S1: 96,5% VFI, 99% ECO)
  • Usar modo ECO del SAI cuando sea apropiado para la carga
  • Dimensionar los SAIs correctamente (no sobredimensionar: los SAIs son más eficientes al 60-80% de carga nominal)
  • Minimizar la longitud de los cables de distribución (diseño compacto del data center)
  • Usar conductores de sección adecuada (no infrainfradimensionar el cableado)

3. Iluminación (1-3% del overhead)

La iluminación es uno de los contribuyentes menores al PUE, pero fácil de optimizar:

  • Sustituir fluorescentes por LED (ahorro del 50-70% en iluminación)
  • Sensores de presencia en salas IT (normalmente sin personal continuamente)
  • Iluminación de emergencia LED con baterías

4. Sistemas de gestión del edificio y seguridad (1-2% del overhead)

Control BMS, sistemas CCTV, control de accesos, sistemas de detección de incendios y extinción: todos consumen electricidad pero representan un porcentaje pequeño del overhead total.

El EU Code of Conduct for Data Centres

Qué es y por qué importa

El EU Code of Conduct for Data Centres (CoDC) es una iniciativa voluntaria de la Comisión Europea, gestionada por el Joint Research Centre (JRC), que establece mejores prácticas de eficiencia energética para los operadores de data centers. Fundado en 2008, el CoDC tiene actualmente más de 500 signatarios en Europa.

Aunque es voluntario, el CoDC tiene importancia creciente porque:

  • Muchas licitaciones públicas y contrataciones de servicios cloud del sector público europeo exigen la adhesión al CoDC
  • La Directiva de Eficiencia Energética (EED) de la UE y el Reglamento de Divulgación de Sostenibilidad Financiera (SFDR) crean presión para que los data centers demuestren compromisos de eficiencia energética
  • El CoDC está evolucionando hacia requisitos más estrictos que podrían convertirse en regulación vinculante

Requisitos del CoDC en términos de PUE

Los signatarios del EU Code of Conduct se comprometen a:

PUE objetivo:

  • Para data centers nuevos (construidos después de la adhesión): PUE ≤ 1,5 (climas fríos, > 15°C media anual) o PUE ≤ 1,6 (climas cálidos, como gran parte de España)
  • Para data centers existentes: proceso de mejora continua documentado, con hoja de ruta hacia los objetivos anteriores

Monitorización y reporte:

  • Medición continua del PUE (al menos mensual)
  • Reporte anual al JRC con datos de PUE, consumo total, carga IT, temperatura de suministro de aire, etc.
  • Los datos se publican de forma agregada (sin identificar instalaciones individuales) en informes anuales del JRC

Prácticas de eficiencia:

  • Temperatura de suministro de aire mínima 22°C (salvo justificación técnica)
  • Sistemas de medición por PDU o equivalente para conocer la carga IT real
  • Gestión activa de la capacidad (evitar racks vacíos o muy poco cargados)
  • Plan de renovación de equipos obsoletos (servidores viejos consumen mucho más por unidad de computación)

El Climate Neutral Data Centre Pact

En 2021, la industria europea de data centers (operadores de colocation, cloud y redes) firmó el Climate Neutral Data Centre Pact, con compromisos más ambiciosos:

  • Energía 100% renovable en 2030
  • PUE promedio de 1,3 para nuevas instalaciones y 1,4 para las existentes en 2030
  • Cero agua neta consumida en 2030
  • Circularidad en hardware IT: tasas de reutilización y reciclaje del 75% en 2030

Los operadores de colocation que ofrecen servicios a empresas españolas están bajo creciente presión de sus clientes corporativos para demostrar cumplimiento con estos compromisos.

Estrategias prácticas para mejorar el PUE

Estrategia 1: Optimizar la temperatura del CPD

El cambio más barato y de mayor impacto

La mayoría de los data centers operan a temperatura de suministro de aire de 17-18°C por inercia histórica. Las recomendaciones ASHRAE A1/A2 permiten temperaturas de entrada al rack de 18-27°C. Elevar la temperatura de suministro de 18°C a 22°C:

  • Reduce el consumo de los compresores de refrigeración en un 10-15%
  • Permite aumentar el tiempo de operación en modo free cooling (economizador) en varios cientos de horas al año
  • No afecta a los equipos IT certificados ASHRAE A2 (que incluye la práctica totalidad de servidores y switches modernos)

Impacto típico en PUE: reducción de 0,05 a 0,15 puntos.

Estrategia 2: Implementar contención de pasillos

La inversión con mejor ROI en refrigeración

La contención de pasillos (hot aisle o cold aisle containment) elimina la mezcla de aire frío y caliente en la sala del data center. Sin contención, el aire frío del sistema de refrigeración se mezcla con el aire caliente de los servidores antes de ser recirculado, obligando al sistema a trabajar más para mantener la temperatura. Con contención:

  • El aire frío llega a los servidores sin calentarse previamente (temperatura de suministro = temperatura de entrada al rack)
  • El aire caliente de los servidores se evacua directamente al sistema de refrigeración sin reenfriarse en la sala
  • El sistema de refrigeración puede operar a mayor temperatura (mayor COP) porque el aire caliente que recibe está a mayor temperatura diferencial con el exterior

Impacto típico en PUE: reducción de 0,10 a 0,25 puntos.

Para un análisis detallado, consulta el artículo sobre contención de pasillo caliente y frío.

Estrategia 3: Activar el free cooling / economizador

Aprovechar el clima exterior cuando sea posible

Los sistemas de refrigeración con economizador de aire libre (como el Liebert DSE) pueden operar sin compresores cuando la temperatura exterior es suficientemente baja. En Madrid, con una temperatura media anual de 14-15°C, un sistema de free cooling bien diseñado puede operar sin compresores durante el 30-40% de las horas del año. En el norte de España o en Escandinavia, ese porcentaje puede superar el 60-70%.

El free cooling hidrónico (water-side economizer) con torres de refrigeración o aeroenfriadores es incluso más eficiente en climas mediterráneos porque puede operar cuando la temperatura húmeda del bulbo mojado es inferior a la temperatura de retorno del agua fría (habitualmente 5-8°C por debajo de la temperatura seca exterior).

Impacto típico en PUE: reducción de 0,10 a 0,30 puntos (dependiendo del clima y las horas de free cooling disponibles).

Estrategia 4: Modernizar los SAIs

El ahorro constante cada segundo del año

Un SAI de 500 kVA con eficiencia del 94% consume 30 kW en pérdidas. El mismo SAI con tecnología Vertiv Liebert EXL S1 (96,5%) consume 17,5 kW. La diferencia son 12,5 kW × 8.760 h = 109.500 kWh/año → 13.140 € de electricidad al año (a 0,12 €/kWh).

Además, si los SAIs están sobredimensionados (operando al 20-30% de carga), los SAIs modulares como el Liebert APM o el EXL S1 pueden hibernar los módulos innecesarios, concentrando la carga en los módulos activos para maximizar su eficiencia operativa.

Impacto típico en PUE: reducción de 0,02 a 0,08 puntos.

Estrategia 5: Instrumentación y DCIM

No puedes optimizar lo que no mides

La monitorización granular del consumo energético es el prerequisito para cualquier programa de mejora de PUE. El Vertiv Trellis Enterprise y el Vertiv Power Insight proporcionan:

  • Medición del PUE en tiempo real (no solo periódica)
  • Desglose del consumo por sistema (refrigeración, distribución eléctrica, IT)
  • Identificación de hot spots y puntos de ineficiencia (racks sin carga, circuitos sobredimensionados)
  • Trending histórico para detectar degradación (un SAI que empieza a perder eficiencia, un circuito de refrigeración con fuga)
  • Modelización de escenarios para evaluar el impacto de posibles mejoras antes de ejecutarlas

Métricas complementarias al PUE

WUE (Water Usage Effectiveness)

Con la creciente preocupación por el consumo de agua, el Green Grid introdujo el WUE:

WUE = Litros de agua consumidos / kWh de carga IT

Los data centers que usan torres de refrigeración evaporativas consumen grandes cantidades de agua. Los sistemas de refrigeración por aire seco (como los CRAC/CRAH) o por refrigeración líquida directa son mucho más eficientes en agua. El Climate Neutral Data Centre Pact exige estrategias de "net zero water" para 2030.

CUE (Carbon Usage Effectiveness)

CUE = Toneladas de CO₂ equivalente emitidas / kWh de carga IT

El CUE combina la eficiencia energética (PUE) con el mix de generación eléctrica. Un data center con PUE 1,3 alimentado con energía renovable tiene un CUE cercano a cero. Un data center con PUE 1,8 alimentado con electricidad de carbón puede tener un CUE superior al de un data center con PUE 2,5 alimentado con energía renovable.

DCIE (Data Center Infrastructure Efficiency)

El DCIE es el inverso del PUE: DCIE = 1 / PUE × 100%. Un PUE de 1,45 equivale a un DCIE del 69%: el 69% de la energía consumida por el data center llega a los equipos IT. Algunos ingenieros prefieren el DCIE porque es más intuitivo: valores más altos son mejores.

Preguntas frecuentes

¿Cuál es el PUE medio de los data centers en España?

No existen datos públicos específicos de España, pero los datos del Uptime Institute Survey 2023 indican que Europa tiene un PUE promedio de 1,52, ligeramente mejor que la media mundial de 1,58. Los operadores de colocation de primer nivel en España (Equinix, Interxion/Digital Realty) reportan PUEs entre 1,3 y 1,5 en sus instalaciones maduras. Los data centers corporativos medianos suelen estar en el rango 1,5-2,5 dependiendo de su antigüedad y nivel de optimización.

¿Puede el PUE ser menor que 1?

No, el PUE nunca puede ser menor que 1,0 (sería imposible físicamente: significaría que la carga IT consume más que el total del data center). Sin embargo, en instalaciones que exportan calor residual a redes de calefacción urbana o a procesos industriales adyacentes, la contabilidad energética es más compleja. Algunos operadores hablan de "PUE efectivo" que considera la recuperación de calor, pero esto no es la definición estándar del Green Grid.

¿El PUE empeora en verano?

Generalmente sí. La temperatura exterior más alta en verano reduce la eficiencia de los sistemas de refrigeración (el COP del compresor disminuye cuando el diferencial de temperatura entre interior y exterior es menor), aumenta el consumo de los CRAC/CRAH y puede reducir o eliminar las horas de free cooling disponibles. Es habitual que el PUE de un data center sea 0,1-0,3 puntos peor en verano (julio-agosto en España) que en invierno. El PUE anual (medido en base a los 12 meses) es el indicador más representativo.

¿El SAI contribuye mucho al PUE?

Las pérdidas del SAI representan típicamente entre el 3% y el 8% de la carga IT (dependiendo de la eficiencia del sistema y del punto de carga operativo). En términos de PUE, esto equivale a 0,03-0,08 puntos de PUE. Es un contribuyente importante (especialmente si los SAIs son sistemas antiguos con eficiencias del 92-94%), pero menor que la refrigeración. La mayor importancia del SAI para el PUE no está tanto en la eficiencia del modo de conversión como en la correcta dimensionamiento: un SAI operando al 20% de su capacidad nominal tiene una eficiencia mucho menor (82-88%) que uno operando al 70-80% (94-97%). La modularidad del Vertiv Liebert EXL S1 y el Liebert APM permite ajustar la potencia instalada a la carga real, maximizando el punto de operación eficiente.

¿Buscas equipamiento Vertiv para tu proyecto?

Somos distribuidores Vertiv en España. Te asesoramos sin compromiso.

Productos relacionados

SAI/UPS Trifásicos

SAI Vertiv Liebert EXL S1 200kVA

SAI/UPS trifásico modular de 200kVA para grandes data centers.

Precio bajo pedidoSolicitar presupuesto

SAI/UPS Trifásicos

SAI Vertiv Liebert EXL S1 300kVA

SAI/UPS trifásico de 300kVA para infraestructuras críticas.

Precio bajo pedidoSolicitar presupuesto

SAI/UPS Trifásicos

SAI Vertiv Liebert APM 60kVA

SAI/UPS trifásico modular de 60kVA con alta disponibilidad.

Precio bajo pedidoSolicitar presupuesto

Climatización

Liebert DSE 24kW

Aire de precisión perimetral de 24kW para salas técnicas.

Precio bajo pedidoSolicitar presupuesto

Climatización

Liebert DSE 35kW

Aire de precisión perimetral de 35kW de alta eficiencia.

Precio bajo pedidoSolicitar presupuesto

Climatización

Liebert CRV 25kW

Aire de precisión en fila de 25kW para racks de alta densidad.

Precio bajo pedidoSolicitar presupuesto

Climatización

Liebert CRV 35kW

Aire de precisión para fila de racks con capacidad de 35kW.

Precio bajo pedidoSolicitar presupuesto

Accesorios

Vertiv Trellis Enterprise

Software DCIM de gestión de infraestructura de data center.

Precio bajo pedidoSolicitar presupuesto

Accesorios

Vertiv Power Insight

Software de gestión de UPS gratuito para Windows/Linux.

Precio bajo pedidoSolicitar presupuesto

¿Necesitas un presupuesto?

Nuestros especialistas Vertiv te responden en menos de 24 horas.

Cargando formulario...