Video : l’apprentissage profond par renforcement, accéléré par GPU

Simulateur pour apprentissage par renforcement, accéléré par GPU

Jusqu’à maintenant, l’apprentissage profond par renforcement nécessitait de considérables performances informatiques pour entrainer un grand nombre d’agents autonomes. Des chercheurs de chez NVIDIA ont développé un simulateur pour l’apprentissage profond accéléré par GPU. Avec un seul GPU TESLA V100 et en utilisant un seul cœur CPU (un Core i9-7960X à 2.80GHz), ils ont pu entrainer, en même temps, l’IA de plusieurs robots virtuels à accomplir des tâches humaines comme courir ou éviter des obstacles.

Gain de ressources et de temps

La simulation que les chercheurs ont développée se base sur le moteur NVIDIA FleX et peut supporter, simultanément, jusqu’à plusieurs centaines de milliers de robots virtuels, sur un seul GPU. De plus, comparé aux méthodes précédemment utilisées, ce simulateur permet également d’apprendre à l’IA des tâches en un temps record. Il a par exemple fallu 48 cœurs (CPU) et 21 minutes avec une ancienne méthode (Augmented Random Search), pour atteindre le même résultat que le nouveau simulateur de NVIDIA, ce dernier n'ayant en outre eu besoin que de 16 minutes (avec un 1 coeur CPU et 1 GPU).

Posez une question dans la catégorie Les news : vos réactions du forum
Soyez le premier à commenter
Commenter depuis le forum
    Votre commentaire