La innovación y el crecimiento que presenta la inteligencia artificial (AI) y aplicaciones informáticas de alto rendimiento (HPC) son asombrosos. Los vehículos autónomos, la detección de fraudes, la inteligencia empresarial, el marketing por afinidad, la medicina personalizada, Alexa, Siri, las ciudades inteligentes y el Internet de las cosas (IoT) son solo algunas de las aplicaciones comerciales y orientadas al consumidor cuyo uso crece enormemente a escala global. Y lo que subyace bajo estos ecosistemas son plataformas informáticas densas e infraestructuras de TI que requieren entornos de centros de datos altamente especializados que permitan funcionar de forma fiable y escalarse de forma eficiente.
Los centros de datos de Colocation o ya existentes localmente, implementados hace años para soportar servidores informáticos de uso general, se están volviendo obsoletos en determinados mercados debido a los elevados requisitos de alimentación y refrigeración de los servidores para AI y HPC. Estos servidores se basan en componentes de procesamiento intensivo como las tarjetas de procesamiento de gráficos (GPU) y arquitecturas de unidades centrales de procesamiento central (CPU) duales. Suelen necesitar entre 500 vatios y un kilovatio (kW) de potencia por unidad de rack de servidor instalado. Esto significa que un armario de servidores para AI o HPC con 45 unidades de rack disponibles, puede necesitar fácilmente de 25 a 30 kW o más de potencia crítica cuando se ejecutan varias cargas de trabajo al mismo tiempo, generando un calor extremo.
Houston, ¡tenemos un problema!
Los entornos de centros de datos antiguos se diseñaron con sistemas de refrigeración por aire de 100 a 150 vatios de potencia por pie cuadrado, lo que equivale a 3-5 kW de consumo crítico por armario. Estos requisitos de suministro de energía y refrigeración se muestran insuficientes para soportar una implementación de servidores para AI y HPC y puede representar potencialmente un enorme cuello de botella en la innovación de AI.
Las capacidades de energía y refrigeración que necesitan los centros de datos son esenciales para cumplir con toda la promesa que representa la AI. Sin un entorno de centro de datos moderno, el hardware de AI se vuelve caro de implementar, difícil de escalar e implica importantes riesgos de degradación del rendimiento y la fiabilidad operativa. Las huellas de HPC y AI no pueden optimizarse a menos que los armarios se puedan empaquetar completamente de arriba a abajo con todas las unidades de rack de servidor utilizadas, y hay suficiente potencia y refrigeración disponibles para acomodar y dar respuesta a estas cargas de trabajo densas.
Colovore y Vertiv han formado equipo durante seis años para abordar estos desafíos. Al trabajar conjuntamente, nuestras empresas abren la puerta al crecimiento de la AI y las aplicaciones HPC al ofrecer un entorno de centro de datos optimizado para despliegues de infraestructura de TI de alta densidad.
Con sede en Silicon Valley, la instalación de Colocation de nueve megavatios (MW) de Colovore se ha implementado a partir de la oferta de infraestructura eléctrica y mecánica de Vertiv, utilizando líquido como medio de refrigeración principal a través de intercambiadores de calor de puerta trasera (RDHX). Cada armario, de pared a pared, cuenta con 35 kW de capacidad de potencia y refrigeración, lo que permite operaciones sólidas, eficientes y escalables. Esto permite que las huellas de la AI presenten menos espacio ocupado y mayor compacidad, lo que genera un ahorro significativo en los gastos operativos y de capital y mejora enormemente la escalabilidad. Un escalado en el interior de un armario del centro de datos es muy superior, por muchos motivos, a una alterativa de ampliación, lo que requiere más y más armarios, espacio de suelo e infraestructura asociada.
Fundada en 2014, Colovore suministra servicios de Colocation de alta densidad desde sus inicios. Por lo tanto, hemos diseñado nuestras instalaciones en torno a la refrigeración líquida. Después de evaluar varias soluciones, estandarizamos la puerta pasiva de rack Vertiv Liebertâ DCD y los resultados han sido impresionantes: seis años de servicio, un 100 % de tiempo de actividad hasta la fecha y un 1,1 de eficiencia de uso de energía (PUE).
Nuestros clientes van desde empresas de Silicon Valley a empresas de la lista Fortune 500, con tamaños de despliegue de 10 kW a varios MW de capacidad. Los armarios y las capacidades de Thermal Management de las puertas traseras de Vertiv están garantizando de forma fiable el despliegue de miles de servidores para AI y HPC que generan un gran consumo y un calor extremo en cada armario.
Aunque todos nos maravillamos de la rápida aceptación de aplicaciones profesionales y de consumo que aprovechan las capacidades de procesamiento y análisis de HPC y la AI en tiempo real, es importante comprender que los caballos de batalla de estas aplicaciones, a saber, las plataformas informáticas densas y potentes, requieren de entornos especializados. Los equipos de Colovore y Vertiv han combinado su respectiva experiencia para ofrecer este tipo de entornos al sector de la AI, y estamos entusiasmados por seguir cumpliendo con esos requisitos en el futuro.
Leer el caso de éxito