AMD officialise son GPU Instinct MI100 : le plus puissant accélérateur HPC au monde

Le premier accélérateur GPU à bénéficier de l’architecture CDNA de l’entreprise.

Vous en souvenez certainement, en mars dernier, AMD promouvait son architecture GPU CDNA, remplaçante de l’architecture Vega, destinée au secteur de calcul haute performance (HPC) pour l’IA. Quelques semaines plus tard, apparaissait l’accélérateur Radeon Instinct MI100. Le voici désormais officialisé par AMD. Il s’arme de 32 Go de mémoire HBM2 cadencée à 1,2 GHz pour une bande passante mémoire de 1,23 To/s.

Selon AMD, ce Radeon Instinct MI100 est le “GPU HPC le plus rapide au monde mais aussi du premier GPU serveur x86 à dépasser la barrière des 10 TFLOPS de performance (FP64) […]. L’accélérateur MI100 offre jusqu’à 11,5 TFLOPS de performance FP64 en pointe et jusqu’à 46,1 TFLOPS de performance en pointe FP32 Matrix pour les scénarii d’IA et d’apprentissage machine. Avec la nouvelle technologie AMD Matrix Core, le MI100 offre également, face à la précédente génération d’accélérateurs AMD3, un boost de 7x les performances de pointe en virgule flottante FP16 pour les tâches d’entrainement de l’IA”.

ROCm 4.0 et Infinity Fabric de seconde génération

Outre leur architecture AMD CDNA, le MI100 profite d’une prise en charge du PCIe Gen 4.0 et de la technologie AMD Infinity Fabric de deuxième génération. Il permet ainsi “jusqu’à 340 Go/s de bande passante agrégée par carte avec trois liens AMD Infinity Fabric. Dans un serveur, les GPUs MI100 peuvent être configurés avec jusqu’à deux ruches complètement connectées de quatre GPU, chacune proposant jusqu’à 552 Go/s de bande passante”.

AMD met aussi en avant sa plateforme de développement AMD ROCm 4.0, un ensemble d’outils ouverts composé de compilateurs, d’API de programmation et de bibliothèques. Toujours selon AMD, “ROCm 4.0 profite d’un compilateur mis à jour pour être open source et unifié avec une prise en charge simultanée de OpenMP 5.0 et HIP”.

Tableaux comparatifs

Afin de faciliter la comparaison avec l’ancienne Instinct MI50 et les solutions concurrentes NVIDIA A100 (récemment enrichies d’une variante avec 80 Go de mémoire HMB2), nos confrères de Tom’s Hardware US proposent les tableaux suivants :

GPUFréquence de pointeProcesseurs de fluxTDPMémoire (HBM2)Bande passante mémoireInterface PCIe
7nm Instinct MI1001502 MHz7680 (120 CU)300W32 Go1,23 To/s4.0
7nm Instinct MI501725 MHz3840 (60 CU)300W32 Go1,024 To/s4.0
7nm Nvidia A100 (PCIe)1410 MHz6912250W40 Go1,555 To/s4.0
7nm Nvidia A1000 (HGX)1410 MHz6912400W40 Go1,555 To/s4.0
GPUFP64FP32Matrix FP32Matrix FP16INT4/INT8bFloat16
7nm Instinct MI10011,5 TFLOPs23,1 TFLOPS46,1 TFLOPS184,6 TFLOPS184,692,3
7nm Instinct MI506,6 TFLOPS13,3 TFLOPS13,3 TFLOPS26,5 TFLOPS
7nm Nvidia A100 (PCIe)9,7 TFLOPS19,5 TFLOPS156 TFLOPS (Tensor)312 TFLOPS624 / 1 248 (Cœurs Tensor)624 / 1 248 (Cœurs Tensor)
7nm Nvidia A1000 (HGX)9,7 TFLOPS19,5 TFLOPS156 TFLOPS (Tensor)312 TFLOPS1 248 (Cœurs Tensor)1 248 (Cœurs Tensor)
Image 7 : AMD officialise son GPU Instinct MI100 : le plus puissant accélérateur HPC au monde

Enfin, AMD précise que ses accélérateurs AMD Instinct MI100 débarqueront d’ici la fin d’année dans des systèmes proposés par les partenaires OEM et ODM ; cela comprend Dell, Gigabyte, Hewlett Packard Enterprise et SuperMicro.

Image 8 : AMD officialise son GPU Instinct MI100 : le plus puissant accélérateur HPC au monde

👉 Vous utilisez Google News ? Ajoutez Tom's Hardware sur Google News pour ne rater aucune actualité importante de notre site.

Votre Newsletter Tom's Hardware

📣 Souscrivez à notre newsletter pour recevoir par email nos dernières actualités !