Accueil » Actualité » Course à l’exaflops : NVIDIA optimise CUDA pour la plateforme ARM

Course à l’exaflops : NVIDIA optimise CUDA pour la plateforme ARM

Un milliard de milliards de FLOPS pour l’intelligence artificielle.

Image 1 : Course à l'exaflops : NVIDIA optimise CUDA pour la plateforme ARM

Jusqu’à présent, les bibliothèques optimisées CUDA de NVIDIA, en particulier celles dédiées au HPC (High Performance Computing) et à l’intelligence artificielle (CUDA-X AI), ne sont disponibles que pour les plateformes POWER d’IBM et x86 d’Intel. Le constructeur va enfin les offrir à la plateforme ARM d’ici la fin de l’année.

ARM va profiter du HPC et de l’IA version NVIDIA

Les futurs supercalculateurs qui atteindront et dépasseront la barre de l’exaflops feront forcément appel à des accélérateurs de type GPGPU, et NVIDIA est déjà bien placé sur ce marché. Mais différentes plateformes CPU (x86, POWER, ARM, voire RISC) sont encore en course pour y arriver.

L’efficacité énergétique est un point particulièrement important pour atteindre cette barre de l’exaflops, et l’architecture ARM est très prometteuse en la matière. Il est donc tout à fait logique de voir le constructeur porter ses bibliothèques CUDA optimisées HPC/AI et les compilateurs PGI (avec support d’OpenACC) sur cette plateforme. Les deux entreprises n’en sont toutefois pas à leur coup d’essai en matière de collaboration : CUDA est compatible avec la plateforme ARM depuis sa version 5.5, disponible depuis 2013.