L’innovazione e il tasso di crescita nelle applicazioni di intelligenza artificiale (AI) e nell’HPC (High-Performance Computing) sono sbalorditivi. Auto a guida autonoma, rilevamento delle frodi, business intelligence, marketing per affinità, cure mediche personalizzate, Alexa, Siri, smart city e Internet of Things (IoT) sono solo alcune delle applicazioni il cui uso si sta diffondendo su scala globale. Alla base di queste offerte vi sono piattaforme di computing ad alta densità di elaborazione e infrastrutture IT che richiedono ambienti di data center altamente specializzati per poter fornire prestazioni affidabili e scalabili in modo efficiente.
Creati anni fa per supportare server per computing generico, i data center legacy in sede o in colocation stanno diventando obsoleti in alcuni mercati a causa degli elevati requisiti di alimentazione e raffreddamento dei server di HPC e AI. Questi server sono realizzati con componenti ad alta intensità di elaborazione, come schede GPU (Graphics Processing Unit) e architetture con CPU (Central Processing Unit) duali. In genere vengono assorbiti da 500 a 1000 watt (1 chilowatt, kW) di potenza per ogni unità rack server distribuita. Ciò significa che, quando si eseguono carichi di lavoro multipli, un armadio server HPC o AI pienamente funzionante con 45 unità rack disponibili è in grado di assorbire facilmente 25-30 kW o più di potenza critica generando moltissimo calore.
“Houston, abbiamo un problema!”
Gli ambienti dei data center legacy sono stati progettati con sistemi ad aria in grado di raffreddare 100-150 watt di potenza per piede quadrato, equivalenti a 3-5 kW di assorbimento critico per armadio. Questa capacità di alimentazione e raffreddamento è insufficiente a supportare l’introduzione dei server AI e HPC e costituisce un enorme collo di bottiglia potenziale contro l’innovazione rappresentata dall’AI.
Le robuste funzionalità di alimentazione e raffreddamento dei data center sono essenziali per garantire la continuità dell’AI. Senza un ambiente moderno per i data center, l’hardware AI diventa costoso da implementare, difficile da scalare e rischia di subire un significativo degrado a livello di prestazioni e affidabilità operativa. L’ingombro di HPC e AI può essere ottimizzato solo a condizione che gli armadi siano completamente occupati dall’alto al basso con l’utilizzo di tutte le unità rack server e che vi siano alimentazione e raffreddamento sufficienti per accogliere e soddisfare questi densi carichi di lavoro.
Colovore e Vertiv collaborano da sei anni per affrontare e vincere queste sfide. Insieme, le nostre aziende consentono lo sviluppo di applicazioni AI e HPC rendendo disponibile un ambiente di data center ottimizzato per le implementazioni di infrastrutture IT ad alta densità.
Con sede nella Silicon Valley, la struttura di colocation da nove megawatt (MW) di Colovore si basa sull’infrastruttura elettrica e meccanica di Vertiv e utilizza un sistema di raffreddamento primario a liquido con scambiatori di calore posti sulle porte posteriori (RDHX). Ogni armadio, da una parete all’altra, dispone di 35 kW di capacità di alimentazione e raffreddamento che consentono operazioni robuste ma scalabili. Ciò consente di eseguire il provisioning della struttura AI nel modo più ridotto e compatto e ciò assicura notevoli risparmi operativi e di capitale e migliora sensibilmente la scalabilità. La scalabilità all’interno di un armadio del data center è, per molti motivi, molto superiore a quella che si ottiene con l’impiego di un numero sempre maggiore di armadi, spazi e relative infrastrutture.
Fondata nel 2014, Colovore si è concentrata fin dall’inizio nella fornitura di servizi di colocation ad alta densità. Pertanto abbiamo progettato la nostra struttura basandola sul raffreddamento a liquido. Dopo aver valutato una serie di soluzioni, ci siamo standardizzati sul Liebertâ DCD con risultati impressionanti: sei anni di servizio, 100% di tempo di funzionamento fino a oggi e 1,1 di indice di efficienza energetica (PUE).
I nostri clienti vanno dalle startup della Silicon Valley alle aziende Fortune 500, con dimensioni di implementazione che vanno da 10 kW a più MW di capacità. I cabinet di Vertiv e le funzionalità di thermal management della porta posteriore hanno garantito la capacità di supportare in modo affidabile l’implementazione di migliaia di server HPC e AI che assorbono molta potenza in ogni armadio con la conseguente generazione di un’enorme quantità di calore.
Mentre ci meravigliamo per la rapida diffusione di applicazioni che sfruttano le funzionalità di elaborazione e analisi in tempo reale di AI e HPC, è importante ricordare che i motori di queste applicazioni, vale a dire le dense e potenti piattaforme informatiche stesse, necessitano di ambienti specializzati. I team di Colovore e Vertiv hanno combinato le proprie esperienze per fornire questi ambienti al settore AI e siamo felici di poter continuare a soddisfare questi esclusivi requisiti in futuro.
Leggi il case study