L’innovation et le taux de croissance dans les applications d’intelligence artificielle (IA) et d’informatique haute performance (high-performance computing, HPC) sont stupéfiants. Les voitures autonomes, la détection de fraude, l’intelligence commerciale, le marketing d’affinité, les médicaments personnalisés, Alexa, Siri, les villes intelligentes et l’Internet des Objets (IoT) ne sont que quelques-unes des applications commerciales et axées sur les consommateurs qui sont exploitées à l’échelle mondiale. Ces offres reposent sur des plates-formes informatiques denses et des infrastructures informatiques qui nécessitent des environnements de datacenters hautement spécialisés pour fonctionner de manière fiable et évolutive.
Les datacenters existants sur site ou en colocation, construits il y a des années pour prendre en charge des serveurs informatiques à usage général, deviennent obsolètes sur certains marchés, en raison des exigences intenses en matière d’alimentation et de refroidissement des serveurs HPC et IA. Ces serveurs sont construits sur des composants gourmands en traitement, tels que les cartes de processeur graphique (GPU) et les architectures de processeur central doubles (CPU). Ils consomment régulièrement entre 500 watts et un kilowatt (kW) de puissance par unité de rack serveur déployé. Cela signifie qu’une baie serveur HPC ou IA entièrement équipée, avec 45 unités de rack disponibles, peut facilement consommer 25-30 kW ou plus d’alimentation critique lors de l’exécution de plusieurs charges de travail, générant ainsi une chaleur extrême.
Houston, nous avons un problème !
Les environnements de datacenters traditionnels ont été conçus avec des systèmes à air pour refroidir 100-150 watts par mètre carré, ce qui équivaut à 3-5 Kw de consommation critique par baie. Cette quantité d’alimentation et de refroidissement est insuffisante pour prendre en charge le déploiement des serveurs IA et HPC, et elle représente un goulot d’étranglement potentiel massif au niveau de l’innovation IA.
Des fonctionnalités robustes d’alimentation et de refroidissement dans le datacenter sont essentielles à la réalisation de toutes les promesses de l’IA. Sans un environnement de datacenter moderne, le matériel IA devient coûteux à déployer, difficile à faire évoluer, et il risque de dégrader considérablement les performances et la fiabilité opérationnelle. Les empreintes HPC et IA ne peuvent pas être optimisées, sauf si les baies peuvent être entièrement remplies de haut en bas avec toutes les unités de rack serveur utilisées, et qu’il y ait suffisamment d’alimentation et de refroidissement disponibles pour accueillir et satisfaire ces charges de travail denses.
Colovore et Vertiv se sont associés depuis maintenant six ans dans le but de relever ces défis. Ensemble, nos deux sociétés permettent la croissance des applications d’IA et d’HPC en offrant un environnement de datacenter optimisé pour les implémentations d’infrastructure informatique à haute densité.
Basée dans la Silicon Valley, le site de colocation de Colovore de neuf mégawatts (MW) est construit sur l’infrastructure électrique et mécanique de Vertiv, utilisant le liquide comme fluide de refroidissement principal à travers les échangeurs de chaleur de porte arrière (RDHX). Chaque baie, de mur à mur, possède 35 kW de capacités d’alimentation et de refroidissement, ce qui permet des opérations robustes, mais efficaces et évolutives. Cela permet de provisionner les empreintes IA de la manière la plus petite et la plus compacte possible, permettant ainsi de réaliser des économies significatives en termes de fonctionnement et de capital, et d’améliorer l’évolutivité de manière considérable. L’évolutivité au sein d’une baie de datacenter est bien supérieure, pour de nombreuses raisons, à celle qui exige de plus en plus de baies, d’espace au sol et d’infrastructures associées.
Fondée en 2014, Colovore était déterminée à fournir des services de colocation à haute densité dès son démarrage. Nous avons donc conçu toute notre installation autour du refroidissement par liquide. Après avoir évalué un certain nombre de solutions, nous avons normalisé la porte de rack passif DCD de Vertiv Liebertâ et les résultats ont été impressionnants : six ans de service, une disponibilité de 100% à ce jour et un PUE de 1,1.
Nos clients vont des start-ups de la Silicon Valley aux entreprises du Fortune 500, avec des tailles d’implémentation allant de 10 kW à plusieurs MW de capacité. Les baies et les fonctionnalités de refroidissement de la porte arrière de Vertiv nous ont permis de prendre en charge de manière fiable l’implémentation de milliers de serveurs HPC et IA, qui consomment beaucoup d’énergie dans chaque baie, et qui génèrent donc une chaleur extrême.
Bien que nous nous émerveillions tous de l’adoption rapide des applications grand public et professionnelles qui tirent parti des fonctionnalités en temps réel de traitement et d’analyse IA et HPC, il est important de comprendre que les machines performantes de ces applications — les plates-formes informatiques denses et puissantes — nécessitent des environnements spécialisés. Les équipes Colovore et Vertiv ont combiné notre expertise pour fournir ces environnements à l’industrie IA, et nous sommes ravis de continuer de répondre à ces besoins uniques à l’avenir.
Lire l’étude de cas