GIGABYTE s’impose comme un leader des serveurs dédiés au calcul d’IA et de machine learning

Les infrastructures de serveurs GIGABYTE sont mises à niveau pour s’adapter aux nouvelles exigences des entreprises, aussi bien en matière d’IA que de calcul hautes performances.

serveur gigabyte ia

GIGABYTE est réputé auprès d’un public gamer pour ses produits performants, mais l’activité du fabricant ne se limite pas au grand public, tant s’en faut. Le constructeur est aussi un important fournisseur de solutions de serveurs pour les entreprises et les grands noms du numérique et du cloud. GIGABYTE s’est adapté à la demande croissante en équipements optimisés pour les calculs d’IA et de machine learning avec une nouvelle gamme de matériel, dont des plateformes intégrant les processeurs IA de nouvelle génération de NVIDIA.

L’avenir est au machine learning

Les besoins en unités de calcul pour le machine learning sont croissants pour les entreprises, qui comptent de plus en plus sur l’IA pour améliorer leurs produits et services, alimenter de nouvelles fonctionnalités ou encore développer des outils internes pour leurs équipes. Photographie computationnelle, IA générative (de texte, voix, image, code…), mise à l’échelle de l’image, conduite autonome… Tous ces secteurs qui sont en train de venir indispensables dans l’industrie technologique ont besoin du machine learning pour progresser.

Mais pour donner les meilleurs résultats, le machine learning nécessite des centres de données de supercalculateurs, extrêmement gourmands en ressources. Un enjeu majeur pour les entreprises est de choisir les équipements les plus efficients. Elles vont donc chercher un certain niveau de performances, un refroidissement maitrisé et une efficacité énergétique élevée pour allier puissance et limitation des coûts d’infrastructure et de fonctionnement.

GIGA POD : une solution tout-en-un pour une immense puissance de calcul

GIGABYTE a mis au point ce que la marque appelle des GIGA POD, des solutions de supercalcul tout-en-un et livrées clés en main, prêtes à l’emploi. Les GIGA POD ont déjà été déployés chez les principaux fournisseurs de services cloud pour alimenter leurs infrastructures.

Les spécifications techniques de ce type d’équipement sont remarquables. Un GIGA POD compte huit racks avec 32 nœuds GIGABYTE G593, soit un total de 256 GPU NVIDIA H100 Tensor Core. Un tel dispositif permet de développer pas moins d’un exaflop de puissance de calcul, de quoi prendre en charge un quintillion d’opérations en virgule flottante par seconde) de performance FP8 AI.

Image 1 : GIGABYTE s’impose comme un leader des serveurs dédiés au calcul d’IA et de machine learning

Des serveurs modulaires, entre HPC et IA

GIGABYTE propose au sein de son catalogue des solutions de serveurs hybrides et modulaires, qui peuvent être personnalisés pour répondre précisément aux besoins de la société, qui peut alors créer l’équilibre dont elle a besoin entre calcul haute performance (HPC) et IA.

Par exemple, le serveur 2U H263-V11 comporte deux nœuds pour la super-puce CPU NVIDIA Grace. Le modèle H223-V10 est, quant à lui, conçu pour accueillir la super-puce NVIDIA Grace Hopper. Les deux plateformes reposent sur des nœuds à haute densité basés sur des processeurs Arm et prennent en charge des disques NVMe et des DPU NVIDIA BlueField-3.

Des centres de données évolutifs pour s’adapter facilement

Vos besoins évoluent ? Certains serveurs de GIGABYTE sont spécialement pensés pour être modifiés simplement. C’est notamment le cas du G493-SB0, une infrastructure certifiée par NVIDIA pour l’installation de ses GPU L4 Tensor Core et L40. Ce type de serveur est capable d’héberger huit GPU PCIe Gen5 et offre des emplacements d’extension

pour ajouter les technologies réseau NVIDIA BlueField et ConnectX en cas de nécessité.

Notons que GIGABYTE fait partie des rares partenaires privilégiés de NVIDIA pour son projet de systèmes NVIDIA OVX, qui consiste en des infrastructures de centres de données évolutives pour une puissance de calcul IA et graphique hautes performances. NVIDIA OVX a pour objectif d’accélérer la prochaine génération de charges de travail basées sur l’IA.

Toujours en association avec NVIDIA, GIGABYTE a aussi mis au point sa solution de serveur XH23-VG0, combinant design avant-gardiste et conception modulaire selon la plateforme NVIDIA MGX. Cet équipement accueille la super-puce Grace Hopper, embarquant un processeur accéléré pour les applications IA et HPC à grande échelle, ainsi que des emplacements d’extension FHFL.

Image 2 : GIGABYTE s’impose comme un leader des serveurs dédiés au calcul d’IA et de machine learning

À chaque usage son serveur optimisé

GIGABYTE sait répondre à une grande variété de charges de travail et de marchés spécifiques en multipliant les conceptions optimisées pour des tâches bien définies.

  • Le S183-SH0 est un serveur d’entreprise au format 1U mince, avec deux processeurs Intel Xeon supportant une interface matérielle 32x E1.S et des SSD pour une configuration de stockage rapide et dense.
  • Le H253-Z10 est une alternative serveur multi-nœuds avec accès frontal prenant en charge le format E1.S.
  • Le G293-Z43 est un serveur GPU spécialisé dans l’inférence, mécanisme primordial dans le fonctionnement du machine learning. Il est compatible avec jusqu’à seize cartes accélératrices Alveo V70 d’AMD et compte sur un système de refroidissement particulièrement performant.
  • Le G293-Z23 est un modèle de la même famille que le G293-Z43. Moins cher, il prend en charge des CPU à TDP plus élevé et des GPU PCIe Gen4 et Gen5 tels que le GPU NVIDIA L40S.

Des serveurs sous GPU NVIDIA H200 Tensor Core à venir

GIGABYTE est en train de développer de nouveaux modèles de serveurs, compatibles avec le fameux GPU H200 Tensor Core de NVIDIA. Celui-ci offre des performances de mémoire

améliorées, permettant d’obtenir une puissance encore plus prodigieuse en matière d’IA générative, de modèles de langage à grande échelle et de calcul hautes performances.

Le supercalculateur NVIDIA HGX H200, principalement dédié au deep learning, mais aussi au HPC, est d’ailleurs équipé du GPU H200. Pour vous faire une idée du niveau de performances atteint, sachez que la version à huit voies de la plateforme HGX H200 est en mesure de fournir plus de 32 pétaflops de puissance de calcul pour l’apprentissage profond FP8 et 1,1 To de mémoire agrégée à large bande passante. Un tel système va permettre aux entreprises d’assouvir leurs ambitions en termes d’intelligence artificielle.

Cet article est une publication sponsorisée proposée par GIGABYTE.

👉 Vous utilisez Google News ? Ajoutez Tom's Hardware sur Google News pour ne rater aucune actualité importante de notre site.

Votre Newsletter Tom's Hardware

📣 Souscrivez à notre newsletter pour recevoir par email nos dernières actualités !