Accueil » Actualité » OpenAAC optimise le parallèlisme des supercalculateurs

OpenAAC optimise le parallèlisme des supercalculateurs

Image 1 : OpenAAC optimise le parallèlisme des supercalculateursNVIDIA, PGI, CAPS et Cray ont annoncé un nouveau standard destiné à la programmation parallèle, l’OpenACC. Le but est de faciliter l’exploitation des cores GPU et CPU d’un système par les programmeurs.

Automatiser l’optimisation du code

Selon le communiqué, les développeurs ont seulement besoin de placer des directives qui permettent au compilateur d’identifier les parties du code à paralléliser. C’est donc lui qui va se charger de répartir les tâches et optimiser le code. Pour l’instant, l’OpenACC est uniquement destiné aux applications scientifiques professionnelles. Cray, CAPS et PGI fourniront les premiers compilateurs compatibles au premier trimestre de l’année prochaine. NVIDIA a apporté quant à lui la compatibilité du standard avec son architecture CUDA.

Selon les quatre sociétés partenaires de cette annonce, les développeurs ayant pu tester l’OpenACC affirment que leurs applications sont deux fois à dix fois plus rapides. Comme toujours avec ce genre d’initiative, les promesses sur le papier sont très alléchantes, mais tout va dépendre de l’adoption de cette technologie et de sa popularité auprès des développeurs. Une chose est certaine. Elle est pour l’instant réservée à un marché de niche et ne changera pas le manque de parallélisme qui paralyse toujours le marché grand public.

NVIDIA et Cray n’ont pas besoin d’introduction et sont les sujets fréquents de nos papiers. PGI Portland Group est une entreprise américaine spécialisée dans les compilateurs FORTRAN2003, C99 et C++ et offre aussi des outils dédiés au parallélisme. CAPS est un fournisseur de solutions pour supercalculateurs.