Travailler avec un représentant du fabricant Vertiv permet de configurer des conceptions complexes en fonction de vos besoins spécifiques  Si votre entreprise recherche des conseils techniques pour un projet de grande envergure, Vertiv peut vous apporter l’assistance dont vous avez besoin.

En savoir plus

De nombreux clients travaillent avec un revendeur partenaire Vertiv pour acheter des produits Vertiv pour leurs applications IT. Nos partenaires disposent d’une formation et d’une expérience approfondies, et sont particulièrement bien placés pour spécifier, vendre et prendre en charge l’ensemble des solutions informatiques et d’infrastructure avec les produits Vertiv.

Trouver un revendeur

Vous savez déjà ce dont vous avez besoin ? Vous souhaitez profiter de la facilité d’achat et d’expédition en ligne ? Certaines catégories de produits Vertiv peuvent être achetées auprès d’un revendeur en ligne.


Trouver un revendeur en ligne

Besoin d’aide pour choisir un produit ? Parlez à un spécialiste Vertiv hautement qualifié qui vous guidera vers la solution qui vous convient.



Contactez un spécialiste Vertiv

The page you're viewing is for French (EMEA) region.

L’intelligence artificielle (IA) est là, et elle est là pour durer. « Chaque secteur deviendra un secteur technologique », a déclaré Jensen Huang, fondateur et PDG de NVIDIA. Les cas d’usage de l’IA sont pratiquement illimités, des avancées médicales à la prévention de la fraude de haute précision. L’IA transforme déjà nos vies tout comme elle transforme chaque secteur. Elle commence également à transformer fondamentalement l’infrastructure du data center.

Les charges de travail d’IA entraînent des changements importants dans la façon dont nous alimentons et refroidissons les données traitées dans le cadre de l’informatique haute performance (HPC). Un rack informatique classique était utilisé pour exécuter des charges de travail de 5 à 10 kilowatts (kW) et les racks exécutant des charges supérieures à 20 kW étaient considérés comme haute densité, un phénomène rare en dehors des applications très spécifiques à courte portée. L’IT est accélérée par des GPU pour répondre aux besoins informatiques des modèles d’IA et ces puces d’IA peuvent nécessiter environ cinq fois plus de puissance et cinq fois plus de capacité de refroidissement1 dans le même espace qu un serveur classique. Mark Zuckerberg a annoncé que d’ici fin 2024, Meta dépensera des milliards pour déployer 350 000 GPU H100 de NVIDIA. Les densités de rack de 40 kW par rack sont désormais dans la tranche inférieure de ce qui est requis pour faciliter les déploiements d’IA, avec des densités de rack dépassant les 100 kW par rack devenant courante et à grande échelle dans un avenir proche.

Cela nécessitera des augmentations de capacité importantes sur l’ensemble du réseau d’alimentation, du réseau électrique aux puces dans chaque rack. L’introduction de technologies de refroidissement liquide dans la salle blanche du data center et, éventuellement, dans les salles serveurs d’entreprise, sera une exigence pour la plupart des déploiements, car les méthodes de refroidissement traditionnelles ne seront pas en mesure de gérer la chaleur générée par les GPU exécutant des calculs d’IA. Les investissements pour mettre à niveau l’infrastructure nécessaire pour alimenter et refroidir le matériel d’IA sont substantiels et relever ces nouveaux défis de conception est essentiel.

La transition vers la haute densité

La transition vers le calcul accéléré ne se fera pas du jour au lendemain. Les concepteurs de data centers et de salles serveurs doivent rechercher des moyens de préparer l’infrastructure d’alimentation et de refroidissement à l’avenir, en tenant compte de la croissance future de leurs charges de travail. Obtenir suffisamment de puissance pour chaque rack requiert des mises à niveau du réseau électrique vers le rack. Dans la salle blanche en particulier, cela implique probablement l’utilisation de busways à haut ampérage et des PDU en rack haute densité. Pour dissiper la quantité massive de chaleur générée par le matériel exécutant des charges de travail d’IA, deux technologies de refroidissement liquide émergent comme principales options :

  1. Refroidissement liquide direct-to-chip : Les plaques froides se situent au-dessus des composants générateurs de chaleur (généralement des puces telles que les CPU et les GPU) afin de dissiper la chaleur. Le fluide mono-phase ou bi-phase pompé évacue la chaleur de la plaque froide pour la renvoyer hors du data center, échangeant de la chaleur mais pas des fluides avec la puce. Cela peut éliminer environ 70 à 75 % de la chaleur générée par l’équipement dans le rack, laissant 25 à 30 % que les systèmes de refroidissement par air doivent éliminer.
  2. Portes arrières froides : Les portes arrières froides passives ou actives remplacent la porte arrière du rack informatique par des serpentins d’échange thermique à travers lesquelles le fluide absorbe la chaleur produite dans le rack. Ces systèmes sont souvent combinés à d’autres systèmes de refroidissement soit comme stratégie pour maintenir la neutralité de la pièce ou comme conception de transition en commençant le parcours vers le refroidissement liquide.

Bien que le refroidissement liquide direct-to-chip offre une puissance frigorifique à bien plus haute densité que l’air, il est important de noter qu’il y a toujours un excès de chaleur que les plaques froides ne peuvent pas capturer. Cette chaleur sera rejetée dans la salle de données à moins qu’elle ne soit contenue et éliminée par d’autres moyens tels que les portes arrières froides ou le refroidissement par air de la salle. Pour plus de détails sur les solutions de refroidissement liquide pour les data centers, consultez notre livre blanc.

Conceptions de haute densité pour les modernisations et les nouvelles constructions

Afin de simplifier la conception et le déploiement d’infrastructures de haute densité, Vertiv™ a lancé Vertiv 360AI, qui comprend un portefeuille de bout-en-bout de solutions d’alimentation, de refroidissement et de services qui résolvent les défis complexes émanant de la révolution de l’IA. La plateforme inclut une large gamme de conceptions complètes prenant en charge jusqu’à 132 kW par rack pour divers cas d’utilisation, allant des tests pilotes et de l’inférence Edge jusqu’à une usine d’IA.

Conception pour les nouvelles constructions

Densité de rack Nombre de racks Nombre de GPU ID de conception Technologie de refroidissement
NA EMEA ASIE
20 kW 18 248 RD002 RD002E RD002A Air
40 kW 10 248 RD003 RD003E RD003A Air
40 kW 10 248 RD004 RD004E RD004A Air
73 kW 88 2 304 RD006 RD006E RD006A Liquide + Air
73 kW 110 2 880 RD007 RD007E RD007A Liquide + Air
132 kW 36 1 152 RD014 RD014E RD014A Liquide + Air
132 kW 54 1 728 RD015 RD015E RD015A Liquide + Air
132 kW 72 2 304 RD016 RD016E RD016A Liquide + Air
300 kW - - RD300 RD300E RD300A Liquide
500 kW - - RD500 RD500E RD500A Liquide

Conception optimisée pour les modernisations

Densité de rack Nombre de racks Nombre de GPU ID de conception Technologie de refroidissement
NA EMEA ASIE
40 kW 4 128 4X160R 4X160RE 4X160RA Air
70 kW 1 64 1L70R 1L70RE 1L70RA Liquide + Air
100 kW 1 88 1L100R 1L100R 1L100RA Liquide + Air
100 kW 4 368 4L400R 4L400RE 4L400RA Liquide + Air
100 kW 4 368 4XL400 4XL400 4XL400A Liquide + Air
100 kW 5 460 5L500 5L500 5L500A Liquide + Air
100 kW 12 1 104 12XL1200 12XL1200 12XL1200A Liquide + Air
100 kW 14 1 288 14L1400 14L1400 14L1400A Liquide + Air

Ces conceptions offrent plusieurs voies aux intégrateurs systèmes, aux fournisseurs de colocation, aux fournisseurs de services cloud ou aux utilisateurs d’entreprise pour réaliser le data center du futur, dès maintenant. Chaque installation spécifique peut présenter des nuances en termes de nombre de racks et de densité de rack, qui dépendent du choix de l’équipement informatiques. Ainsi, cette collection de conceptions offre un moyen intuitif de restreindre définitivement le choix à une conception de base, puis de l’adapter exactement aux besoins de déploiement.

Lors de la modernisation ou de la réaffectation d’environnements existants pour l’IA, nos conceptions optimisées aident à minimiser les perturbations sur les charges de travail existantes en exploitant, dans la mesure du possible, l’infrastructure de refroidissement et les systèmes de rejet de chaleur disponibles. Par exemple, nous pouvons intégrer le refroidissement liquide direct-to-chip avec une porte arrière froide pour maintenir une solution de refroidissement neutre pour la salle. Dans ce cas, la porte arrière froide empêche le rejet de chaleur excédentaire dans la salle. Pour une installation refroidie par air cherchant à ajouter des équipements de refroidissement liquide sans aucune modification du site lui-même, nous avons des options de conception liquide-air disponibles. Cette même stratégie peut être déployée dans un rack unique, en rangée ou à grande échelle dans le cadre d’un déploiement HPC de grande envergure. Pour les conceptions multi-baies, nous avons également inclus des jeux de barres haute intensité et des PDU en rack haute densité pour la distribution électrique à chaque rack.

Ces options sont compatibles avec une plage de diverses solutions de rejet de chaleur qui peuvent être couplées au refroidissement liquide. Cela établit un chemin de transition propre et rentable vers le refroidissement liquide de haute densité sans perturber les autres charges de travail dans la salle de données. Découvrez nos solutions d’IA pour les salles de données pour en savoir plus.

Bien que de nombreuses installations ne soient pas conçues pour des systèmes de haute densité, Vertiv dispose d’une vaste expérience dans l’accompagnement des clients pour développer des plans de déploiement permettant une transition en douceur vers la haute densité pour l’IA et le HPC.

1 Estimations de la direction : Comparaison de la consommation électrique et de la dissipation calorifique au niveau du rack pour 5 serveurs NVIDIA DGX H100 et 21 serveurs Dell PowerStore 500T et 9200T dans un rack 42U standard, basée sur les fiches techniques du fabricant

Partner Login

Langue & Localisation