La universidad moderna es una institución tecnológicamente exigente. Gestiona simultáneamente decenas de laboratorios de investigación con equipamiento científico de alto valor, clústeres de computación de alto rendimiento (HPC) que procesan simulaciones durante semanas o meses ininterrumpidos, centros de datos que alojan los sistemas administrativos y académicos, y redes de campus que conectan miles de usuarios concurrentes. Un fallo eléctrico en el laboratorio equivocado puede destruir meses de trabajo experimental, interrumpir una simulación que llevaba semanas ejecutándose o comprometer muestras biológicas irreemplazables. Proteger correctamente esta infraestructura es una responsabilidad técnica, económica y científica de primer orden.
El ecosistema TI universitario: diversidad y complejidad
Los cuatro ámbitos de infraestructura crítica universitaria
Las universidades presentan una diversidad de entornos que no se da en ningún otro tipo de organización:
1. El Centro de Datos Universitario (CDU) El CPD central de la universidad aloja los sistemas de gestión académica (matrícula, expedientes, calificaciones), los sistemas de gestión económica, los servidores de e-learning (Moodle, Blackboard), el correo electrónico institucional, los sistemas de bibliotecas (préstamo, bases de datos) y, en muchos casos, servicios compartidos para los distintos departamentos y centros. Es la infraestructura más parecida a un CPD corporativo convencional.
2. Los laboratorios de investigación Cada grupo de investigación tiene sus propios equipos: estaciones de trabajo de alto rendimiento, servidores NAS o SAN para almacenamiento de datos experimentales, equipos de instrumentación científica controlados por ordenador (espectrómetros, microscopios, cromatógrafos, equipos de síntesis), sistemas de adquisición de datos en tiempo real. La diversidad de potencias y criticidades es enorme.
3. Los clústeres HPC Las universidades con actividad investigadora intensa —politécnicas, con facultades de ciencias, ingeniería o medicina— suelen operar uno o varios clústeres de computación de alto rendimiento. Estos sistemas consumen desde decenas hasta centenares de kilovatios y generan densidades de calor que requieren soluciones de refrigeración especializadas. Una interrupción de un clúster HPC en medio de una simulación de dinámica molecular o una predicción meteorológica puede suponer la pérdida de semanas de tiempo de computación.
4. La red de campus La red de campus universitaria es la columna vertebral de todas las comunicaciones: WiFi para miles de dispositivos de estudiantes y personal, sistemas de videoconferencia para docencia, acceso a recursos bibliográficos, sistemas de control de acceso, redes de investigación con conexiones a redes como RedIRIS. Los nodos core de la red de campus son infraestructura crítica que requiere protección eléctrica.
Las consecuencias específicas de un fallo en entornos universitarios
Las consecuencias de un fallo eléctrico en una universidad son cualitativamente distintas a las de un entorno corporativo:
Pérdida de datos experimentales irreversible: un corte de suministro durante un experimento de cultivo celular, una síntesis química que requiere control de temperatura preciso, o una adquisición de datos de un experimento de física de partículas puede significar la pérdida de datos que no pueden reproducirse (muestras únicas, experimentos que llevan semanas preparando, tiempos de acceso a grandes instalaciones como el CERN o el ALBA Synchrotron).
Interrupción de simulaciones HPC de larga duración: las simulaciones de dinámica molecular, diseño de fármacos, climatología o mecánica de fluidos pueden llevar días o semanas. Sin checkpointing frecuente (que muchas aplicaciones no implementan bien), un corte puede significar reiniciar desde cero.
Daño a equipamiento científico de alto valor: muchos equipos de laboratorio (microscopios electrónicos, espectrómetros de resonancia magnética nuclear, cromatógrafos de masas) pueden resultar dañados por una interrupción eléctrica brusca durante su operación. El coste de reparación o sustitución puede superar los 500.000 euros en equipos de gama alta.
Impacto en exámenes y procesos académicos: una interrupción de los sistemas académicos en periodo de exámenes, matrícula o cierre del acta tiene consecuencias en miles de estudiantes y genera un impacto reputacional significativo.
Protección de laboratorios de investigación
Clasificación de laboratorios por criticidad eléctrica
No todos los laboratorios tienen las mismas necesidades de protección eléctrica. Una clasificación práctica basada en la naturaleza de los equipos:
Criticidad extrema: laboratorios con equipos que no pueden interrumpirse bajo ninguna circunstancia: cámaras de cultivo celular con muestras vivas, sistemas criogénicos (nitrógeno líquido, helio líquido para RMN), equipos de mantenimiento de organismos modelo (ratones transgénicos, peces cebra), experimentos con reactivos inestables bajo control de temperatura. Estos laboratorios requieren SAI de doble conversión online con autonomía de al menos 30 minutos y, en algunos casos, grupo electrógeno dedicado.
Criticidad alta: laboratorios con equipos que realizan experimentos de larga duración que no pueden interrumpirse: síntesis química automatizada (síntesis de péptidos, cristalización lenta), experimentos de electrodeposición, crecimiento de cristales, fermentadores microbiológicos. Un SAI de doble conversión online con autonomía de 15-30 minutos es necesario.
Criticidad media: laboratorios con equipos informáticos que controlan instrumentación (espectrómetros, cromatógrafos, microscopios de fuerza atómica) donde una interrupción no daña el equipo pero puede invalidar la medición en curso. Un SAI de doble conversión para los sistemas de control y un SAI de menor criticidad para el resto.
Criticidad baja: laboratorios de docencia, laboratorios de análisis donde los datos pueden reproducirse fácilmente. Un SAI básico para los sistemas informáticos de control o, incluso, sin SAI para equipos de alta tolerancia a interrupciones.
SAIs para laboratorios: selección técnica
La gama Vertiv Liebert GXT5 (1-10 kVA) cubre las necesidades de la mayoría de los puestos de trabajo y pequeños laboratorios con cargas de hasta 8 kW efectivos. Su topología VFI garantiza cero tiempo de transferencia y filtrado completo de perturbaciones de red, lo que es especialmente importante en laboratorios donde la instrumentación científica es sensible a transitorios y distorsiones armónicas.
Para laboratorios con equipamiento más pesado o múltiples puestos de trabajo, la gama Vertiv Liebert EXS (15-30 kVA) proporciona protección centralizada para un laboratorio completo, con un único SAI trifásico que alimenta una regleta de distribución o un cuadro eléctrico dedicado.
Consideraciones específicas para laboratorios universitarios:
- Factor de cresta elevado: algunos equipos de laboratorio (láser, fuentes de alimentación de instrumentación, equipos de RF) generan corrientes con factor de cresta muy alto que pueden saturar SAIs de gama baja. Los SAIs Vertiv soportan factores de cresta de hasta 3:1 sin derating.
- Cargas no lineales: la mayoría del equipamiento de laboratorio moderno (fuentes conmutadas, variadores de frecuencia, sistemas de control digital) genera armónicos. Los SAIs Vertiv de doble conversión aíslan completamente la carga de la red, eliminando el problema en la dirección red→carga.
- Temperatura de operación: algunos laboratorios operan a temperaturas ambiente elevadas (salas de síntesis, laboratorios de bioquímica con estufas). Los SAIs Vertiv están especificados para operar hasta 40°C ambiente con derating controlado.
Protección de sistemas de almacenamiento criogénico
Los sistemas de almacenamiento a baja temperatura (ultracongeladores -80°C, contenedores de nitrógeno líquido con compresor, refrigeradores de muestras biológicas) son una categoría especial que requiere atención específica:
Los ultracongeladores (-80°C) son resistentes a interrupciones cortas (30-60 minutos) gracias a su inercia térmica, pero un corte prolongado puede comprometer muestras irreemplazables (líneas celulares únicas, muestras de cohortes de investigación clínica, colecciones de microorganismos). El SAI para estos equipos debe dimensionarse con autonomía suficiente para el tiempo máximo esperado de intervención técnica.
Los sistemas de nitrógeno líquido con compresor (para criopreservación a -196°C) son más sensibles: el compresor no debe arrancar y parar bruscamente. La topología VFI del SAI garantiza que el arranque del compresor tras un corte sea limpio, sin los transitorios de tensión que podría generar una fuente de alimentación de red directa.
Clústeres HPC universitarios: la infraestructura de computación intensiva
Características específicas de los HPC universitarios
Los clústeres HPC universitarios presentan características únicas desde el punto de vista de la infraestructura de alimentación y refrigeración:
Alta densidad de potencia: un rack de servidores HPC moderno puede consumir entre 20 y 40 kW, frente a los 5-8 kW/rack de un CPD corporativo convencional. Las soluciones de refrigeración convencionales (unidades de precisión de sala) no pueden gestionar estas densidades eficientemente; se requieren soluciones de refrigeración por filas (in-row cooling) o refrigeración directa al rack.
Los sistemas Vertiv Liebert CRV (25 y 35 kW) son unidades in-row específicamente diseñadas para alta densidad: se instalan entre filas de racks y recirculan el aire caliente hacia el frente, donde es capturado y enfriado antes de reintroducirse en los equipos. Esta solución permite gestionar densidades de hasta 20-25 kW/rack sin necesidad de grandes obras civiles.
Cargas variables pero predecibles: los clústeres HPC no funcionan siempre al 100% de carga. Cuando el sistema de colas de trabajos (PBS, SLURM) tiene trabajos pendientes, la carga puede llegar al 90-100%; en periodos de menor demanda (verano, cuando hay menos estudiantes de doctorado trabajando), puede bajar al 30-50%. Esta variabilidad debe considerarse al dimensionar el SAI: el SAI debe estar dimensionado para la carga máxima, pero su rendimiento en carga parcial también importa (los SAIs Vertiv mantienen rendimientos >93% incluso al 25% de carga).
Checkpointing y recuperación ante fallos: las aplicaciones HPC modernas suelen implementar mecanismos de checkpointing que guardan el estado de la simulación periódicamente (cada 1-4 horas, dependiendo del tipo de cálculo). El SAI debe proporcionar autonomía suficiente para completar el último checkpoint y apagar ordenadamente los nodos de cómputo si el suministro no se restaura. Para la mayoría de los clústeres universitarios, una autonomía de 10-20 minutos es suficiente.
Arquitectura de alimentación para HPC
La arquitectura de alimentación de un clúster HPC debe diseñarse con cuidado:
PDUs inteligentes por rack: cada rack de cómputo debe tener al menos una PDU inteligente que permita monitorizar el consumo en tiempo real y generar alertas ante sobrecargas. Las PDUs Vertiv Geist (16A y 32A) proporcionan monitorización a nivel de toma, con interfaz web y SNMP integrados.
Dos líneas de alimentación por rack: los servidores HPC modernos tienen fuentes de alimentación redundantes. Alimentar cada fuente desde una PDU diferente (conectada a diferentes ramas del SAI o del cuadro eléctrico) proporciona resiliencia ante fallos de una PDU o de un circuito de distribución.
SAI centralizado vs. distribuido: para clústeres de tamaño medio (50-200 kW), un SAI centralizado de gran potencia (Vertiv Liebert APM 60 kVA o EXL S1 100-200 kVA) es más eficiente que múltiples SAIs pequeños. Para clústeres mayores, la arquitectura modular en paralelo proporciona escalabilidad y redundancia.
El Centro de Datos Universitario: el CPD académico
Singularidades del CPD universitario
El CPD universitario no es exactamente un CPD corporativo ni un CPD gubernamental: es una combinación de ambos, con características propias:
Heterogeneidad de cargas: a diferencia de un CPD corporativo donde todos los equipos están bajo el control de un departamento de TI unificado, en el CPD universitario conviven equipos de administración, servidores de departamentos académicos, nodos de computación compartidos, servicios de almacenamiento para investigación y sistemas de e-learning, cada uno con sus propias necesidades y sus propios propietarios.
Ciclos de uso académico: el tráfico en los sistemas universitarios tiene picos predecibles: inicio de curso (matrícula), periodos de exámenes, cierre de actas. La infraestructura debe estar dimensionada para los picos, que pueden duplicar o triplicar la carga media.
Presupuesto ciclico: las universidades presupuestan anualmente, con restricciones importantes. La renovación de infraestructura debe planificarse en horizontes plurianuales, con priorización de las inversiones más críticas. Los SAIs modulares que permiten ampliaciones progresivas se adaptan mejor a este ciclo presupuestario.
Personal TI limitado: el departamento de TI de una universidad de 15.000-30.000 estudiantes suele tener entre 15 y 40 técnicos para gestionar toda la infraestructura. La monitorización centralizada y la automatización son necesidades reales, no opcionales.
Dimensionamiento del CPD universitario
Como referencia, un CPD universitario de tamaño medio para una universidad española de 15.000-30.000 estudiantes:
| Sistema | Potencia IT estimada | SAI recomendado | |---------|---------------------|-----------------| | Servidores de gestión académica | 20-40 kW | APM 30-60 kVA | | Almacenamiento (NAS/SAN) | 10-20 kW | EXS 15-20 kVA | | Sistemas de comunicaciones (core switching, firewalls) | 5-15 kW | EXS 15 kVA o GXT5 10 kVA (por sala técnica) | | Plataformas e-learning | 15-30 kW | APM 30 kVA | | Servicios de correo e identidad | 10-20 kW | EXS 20 kVA | | HPC compartido de tamaño mediano | 50-150 kW | EXL S1 100 kVA (módulos en paralelo) |
Para el CPD universitario convencional (excluyendo HPC), los rangos típicos están entre 50 y 200 kW de potencia IT total, con un SAI principal de 60-200 kVA complementado con SAIs más pequeños en las salas técnicas distribuidas por el campus.
La red de campus como infraestructura crítica
La red de campus universitaria es, frecuentemente, tan crítica como el CPD central. Los nodos de distribución de red —los armarios de telecomunicaciones en cada edificio— albergan switches de distribución y de acceso que conectan a todos los usuarios del edificio. Un fallo eléctrico en uno de estos armarios aísla completamente el edificio de la red.
La solución para los armarios de telecomunicaciones del campus es la combinación de:
- SAI monofásico compacto (Vertiv Liebert GXT5 1-3 kVA) para los switches activos y los APs WiFi principales
- Panel eléctrico con protección diferencial individual por circuito
- Sensores de temperatura que alerten de sobrecalentamiento en el armario
Para los nodos de agregación de mayor tamaño (edificios con más de 100 usuarios concurrentes), un SAI de 5-10 kVA proporciona suficiente cobertura para todos los equipos activos del armario.
Cumplimiento normativo y financiación universitaria
El ENS en las universidades españolas
Las universidades públicas españolas son administraciones públicas a efectos del ENS (Real Decreto 311/2022). Sus sistemas de información que gestionan datos académicos, expedientes de estudiantes, procesos de selección de personal o gestión económica están sujetos al ENS. El Centro Nacional de Referencia de Seguridad (CNSE) del INCIBE y el CCN-CERT han emitido guías específicas para la aplicación del ENS en el ámbito universitario.
En la práctica, la mayoría de las universidades españolas han iniciado o completado sus procesos de adecuación al ENS, con niveles de implementación variables. Los sistemas de categoría Media y Alta —los de gestión académica, matrícula, gestión económica y sistemas de acceso— requieren las medidas de protección física que incluyen SAI adecuado y climatización con redundancia.
Financiación de infraestructura universitaria
Las universidades públicas acceden a financiación para infraestructura TI a través de varios canales:
Programas de la ANECA y el MICINN: los proyectos de investigación financiados por la Agencia Estatal de Investigación (AEI) incluyen con frecuencia partidas para equipamiento e infraestructura de computación. Los proyectos de infraestructura científica (convocatorias de instalaciones y equipamientos) pueden financiar directamente sistemas HPC, almacenamiento de investigación y la infraestructura de protección asociada.
Fondos FEDER: el Programa Plurirregional de España y los programas operativos regionales cofinanciados por FEDER incluyen medidas de apoyo a la investigación e infraestructura universitaria. El eje de I+D+i es el más habitual para financiar equipamiento HPC y laboratorios.
Redes de computación: RedIRIS y CESGA: RedIRIS conecta a las universidades y centros de investigación españoles entre sí y con redes académicas europeas (GÉANT). El acceso a recursos HPC a través del CESGA (Centro de Supercomputación de Galicia) o del BSC (Barcelona Supercomputing Center) puede reducir la necesidad de inversión local en HPC, pero no elimina la necesidad de proteger los sistemas de acceso y almacenamiento locales.
Plan de Digitalización Universitaria: el Ministerio de Universidades ha desarrollado convocatorias específicas de modernización digital en el marco del PRTR que incluyen infraestructura TI, ciberseguridad y equipamiento de laboratorios.
Preguntas frecuentes
¿Qué pasa con un clúster HPC si el SAI falla durante una simulación de larga duración?
El impacto depende de si la aplicación implementa checkpointing. Si la aplicación guarda el estado de la simulación periódicamente (lo más habitual en códigos HPC modernos), se pierde como máximo el tiempo desde el último checkpoint. Si no hay checkpointing, toda la simulación debe reiniciarse desde el inicio. Un SAI adecuado con autonomía de 15-20 minutos permite completar el último checkpoint y realizar un apagado ordenado del clúster antes de que se agote la batería. Los SAIs Vertiv con módulo de comunicaciones envían señales SNMP que los sistemas de gestión de colas HPC pueden interpretar para iniciar el proceso de checkpoint y apagado ordenado.
¿Cuánta autonomía necesita el SAI en un laboratorio de investigación con cultivos celulares?
Depende del tiempo de respuesta del personal técnico disponible y del tiempo máximo tolerable de interrupción. Como orientación: los cultivos celulares en incubadora toleran interrupciones de temperatura de 30-60 minutos con riesgo limitado; más allá de ese tiempo, el estrés térmico puede comprometer los cultivos. Para experimentos de transfección activos o células especialmente sensibles, incluso 15 minutos puede ser crítico. La recomendación es dimensionar el SAI con autonomía equivalente al tiempo de respuesta garantizado de los servicios técnicos más un margen de seguridad del 50%. Si el técnico de guardia puede llegar en 20 minutos, el SAI debería proporcionar 30-40 minutos de autonomía.
¿Es posible instalar SAIs en laboratorios existentes sin grandes obras?
Sí. Los SAIs monofásicos de la gama Vertiv Liebert GXT5 (1-10 kVA) son equipos de suelo o de rack que no requieren obras civiles. Solo necesitan una toma de corriente apropiada para su entrada (normalmente una toma Schuko de 16A o 32A según el modelo) y sus propias tomas de salida para los equipos protegidos. La instalación de un SAI en un laboratorio existente es habitualmente una tarea de una o dos horas para un técnico electricista. Para potencias superiores (EXS 15-30 kVA), puede requerirse una acometida trifásica dedicada, lo que sí puede implicar obra menor en el cuadro eléctrico del laboratorio.
¿Cómo se gestiona la monitorización de SAIs distribuidos por todo el campus universitario?
Para universidades con docenas de SAIs distribuidos por laboratorios, salas técnicas y armarios de telecomunicaciones, la gestión individual de cada SAI es inviable. La solución es una plataforma de monitorización centralizada que agregue el estado de todos los equipos. El módulo Vertiv Intellislot RDU101 proporciona conectividad de red a los SAIs Vertiv, permitiendo su integración con plataformas SNMP, la plataforma Vertiv Trellis Enterprise o soluciones de monitorización ya existentes en el departamento de TI de la universidad (Nagios, PRTG, Zabbix). Así, desde una única consola, el equipo técnico puede ver el estado de todos los SAIs del campus, con alertas automáticas ante anomalías.
¿Qué normativa aplica a la protección contra incendios en laboratorios universitarios con equipamiento eléctrico crítico?
Los laboratorios universitarios con equipamiento eléctrico de alto valor están sujetos al Reglamento de Instalaciones de Protección Contra Incendios (RIPCI, Real Decreto 513/2017) y al CTE DB-SI. Para las salas de servidores y CPDs universitarios se aplican adicionalmente las normas UNE-EN 15004 (sistemas fijos de extinción por gas) y UNE 23007 (detección de incendios). Los espacios con equipamiento científico de alto valor deben tener sistemas de detección de incendio (VESDA u otros sistemas de detección temprana por análisis de aire) y sistemas de extinción por gas que no dañen los equipos electrónicos ni las muestras biológicas. La instalación y el mantenimiento de estos sistemas está regulada y requiere empresas instaladoras autorizadas.