Se connecter avec
S'enregistrer | Connectez-vous

Quelle quantité de mémoire vidéo ?

Cartes graphiques : déboulonnons les mythes !
Par

La quantité de mémoire est souvent utilisée comme outil marketing par les marques, parce qu’elles savent le grand public conditionné à penser qu’il en faut autant que possible. On voit ainsi régulièrement des cartes entrée de gamme embarquer plus de mémoire qu’elles ne peuvent exploiter, mais l’immense majorité d’entre nous sait bien que, comme pour tous les autres composants d’un PC, la notion d’équilibre est primordiale.

Pour simplifier, les GPU bénéficient d’une mémoire dédiée pour ne pas répercuter la charge de travail sur la mémoire système. Plusieurs normes de mémoire sont utilisées pour les cartes graphiques, les plus courantes étant la DDR3 et la GDDR5.

Mythe : les cartes comportant 2 Go de mémoire sont plus rapides que celles ne proposant qu’un seul Go

Sans surprise, les marques équipent leurs cartes entrée de gamme avec une quantité de mémoire excessive (ce qui leur permet par ailleurs d’augmenter leurs marges) parce que monsieur tout le monde peut croire qu’une carte embarquant plus de mémoire sera plus rapide. Soyons clairs : la capacité mémoire d’une carte graphique n’influe pas sur ses performances tant que les réglages d’un jeu ne la sature pas intégralement.

A quoi cela peut-il donc servir d’avoir plus de mémoire vidéo ? Pour répondre à cela, il faut déjà savoir à quoi sert cette mémoire. En simplifiant, on arrive aux quatre usages suivants :

  • Charger les textures
  • Accueillir le tampon graphique
  • Accueillir le tampon de profondeur (« Z Buffer »)
  • Accueillir les autres éléments nécessaires au rendu de l’image (shadow maps par exemple)

Naturellement, la taille des textures chargées en mémoire dépend non seulement du jeu mais aussi des réglages graphiques. Pour prendre un exemple, le pack de textures haute résolution pour Skyrim inclut 3 Go de textures. La plupart des programmes font un usage dynamique des textures, c’est-à-dire qu’elles sont chargées/déchargées pour ne pas rester en mémoire graphique. En revanche, les textures nécessaires au rendu d’une scène particulière doivent rester en mémoire.

Le tampon graphique est utilisé pour stocker l’image lorsqu’elle est rendue, avant ou au cours de son envoi au périphérique d’affichage. De ce fait, son empreinte mémoire dépend de la définition de l’écran (une image en 1920x1080x32 bpp pèse environ 8,3 Mo contre 33,2 Mo pour une autre en 3840x2160x32 bpp) ainsi que du nombre de tampons (au moins deux, rarement trois ou plus).

Etant donné que certains modes d’anti-aliasing (FSAA, MSAA, CSAA, CFAA mais pas le FXAA ou le MLAA) ont pour effet d’augmenter le nombre de pixels à rendre, ils augmentent proportionnellement la quantité de mémoire vidéo nécessaire. L’anti-aliasing basé sur le rendu est particulièrement gourmand de ce point de vue, sachant que les besoins s’amplifient de pair avec l’échantillonnage (x2, x4, x8 etc.). Les tampons additionnels occupent également la mémoire vidéo.

Une quantité de mémoire vidéo importante permet donc de :

  1. Jouer dans des définitions plus élevées (à condition que le GPU puisse suivre)
  2. Jouer avec des textures de meilleure qualité
  3. Jouer avec un fort anti-aliasing basé sur le rendu

Mythe : il faut 1, 2, 3, 4 ou 6 Go de mémoire vidéo pour jouer à telle définition, peu importent les jeux/réglages

La quantité de mémoire vidéo nécessaire est déterminée avant tout par la définition à laquelle on joue : naturellement, plus elle est élevée et plus les besoins sont conséquents. Le second facteur est l’utilisation d’un des types d’anti-aliasing mentionnés plus haut. Si l’on part du principe que l’on joue avec des réglages équivalents d’un jeu à l’autre, les autres facteurs sont moins importants.

Avant de passer aux mesures à proprement parler, un rappel s’impose : les cartes haut de gamme bi-GPU (Radeon 6990 et 7990, GeForce GTX 590 et 690) proposent une quantité de mémoire vidéo impressionnante mais du fait de leur conception, les données sont dupliquées en mémoire. Il ne faut donc pas additionner la mémoire dédiée à chaque GPU : une GTX 690 avec 4 Go se comporte ainsi comme une paire de cartes avec 2 Go chacune. Par ailleurs, le fait d’ajouter une deuxième carte graphique pour jouer en SLI/CrossFire ne double pas la quantité de mémoire vidéo : chaque carte accède exclusivement à sa mémoire dédiée.

Les tests ont été conduits sous Windows 7 64 bits sans Aero. Au cas où l’on utilise Aero, il convient d’ajouter ~200 Mo à chacune des mesures et ~300 Mo dans le cas de Windows 8/8.1 comme on peut le voir ci-dessus.

D’après lesstatistiques disponibles sur Steam, la majorité relative des utilisateurs dispose d’un Go de mémoire vidéo, un peu moins de 20 % ont 2 Go et moins de 3 % ont 3 Go ou plus.

Nous avons utilisé Skyrim avec le pack de textures haute résolution officiel. Comme on peut le voir, 1 Go de mémoire vidéo suffit pour jouer en 1080p avec FXAA/MLAA ou sans anti-aliasing, mais on n’est vraiment pas loin de la saturation avec le MSAA 4x. Avec 2 Go, il est possible de pousser le MSAA encore plus loin en 1080p ou encore de jouer en 2160p sans forcer sur l’anti-aliasing. Pour jouer avec le profil Ultra en 2160p, avec MSAA 8x, il faut nécessairement plus de 2 Go.

Le Creation Engine de Bethesda se distingue des autres moteurs représentés dans ce test : il n’est pas souvent limité par les performances graphiques, mais peut souffrir de limitations du côté CPU. Cependant, ces tests montrent que Skyrim peut pâtir d’un manque de mémoire vidéo avec le niveau de détails le plus élevé.

Précisons également que le FXAA ne consomme pas du tout de mémoire vidéo : il s’agit donc d’une possibilité à considérer non seulement quand les performances sont trop faibles pour utiliser le MSAA, mais également quand la mémoire vidéo est insuffisante.

Interroger un expert

Votre question aux experts de la catégorie Les news : vos réactions du forum

Exemple : Android, ordinateur portable, usb, disque dur

Afficher les 9 commentaires.
Cette page n'accepte plus de commentaires
  • grosloulou , 24 février 2014 09:01
    Article des plus intéressants mais ne donnant finalement qu'une appréciation parcellaire de l'intérêt d'une carte graphique haut de gamme sous WINDOWS. Avec l'évolution actuelle des équipements et des marchés est-il encore véritablement intéressant de se cantonner à cette formule alors que tout tend à laisser penser qu'à terme les développeurs seront de plus en plus enclins à passer à OpenGL plutôt que DirectX et que des nouveautés comme Mantle risquent elles mêmes de ringardiser les chipsets refroidis artificiellement.?
  • Dejy , 24 février 2014 10:41
    Au delà des chiffres et des millisecondes, la seule chose qui compte est la perception ressentie, vitesse et qualité d'image. Le gamer pro est une exception.Moi, 25fps (comme la télé ou le cinéma) me suffisent. Mon "vieux" I7 860 et une GTX660 me permettent même de la 3D sur un écran 24".
  • Johan_et_Pirlouit , 24 février 2014 14:15
    Citation :
    [...] et que des nouveautés comme Mantle risquent elles mêmes de ringardiser les chipsets refroidis artificiellement.?

    Pour Mantle :
    1. C'est AMD et ce n'est pas une bonne nouvelle ces temps-ci.
    2. Ça n'est pas encore sorti et même déjà repoussé. On risque donc d'attendre encore un peu. Si AMD ne change pas encore de concept entre temps...
    3. Ça fonctionnera, peut-être un jour, si et seulement si AMD fait un environnement correct ET fonctionnel. On en est loin et ce n'est pas forcément dans les habitudes d'AMD de faire vite ET bien côté logiciel.
    Sinon, je plussoie : le concept semble prometteur...
  • c_planet , 24 février 2014 17:04
    pourquoi parler de mythe avec les cg 2go > 1go et démontrer qu'il y a bien une réelle différence ?? où est le mythe, où est le déboulonnage ?
  • fitfat , 24 février 2014 17:22
    c_planet>Le mythe est de croire qu'une GTX770 2Go est moins performante qu'une GTX760 4Go pasqu'elle a 2Go de moins.
  • CR77 , 24 février 2014 21:03
    "le nombre d’ips affichées à l’écran ne cesse de varier sur la base de multiples entiers de la fréquence de l’écran (60, 30, 20, 15 ips et ainsi de suite), provoquant ainsi des saccades (stutter)."Outre d'être illogique, cette explication du V-Sync me semble exactement contredire le graphique qui illustre ce qu'est le 'stutter'. Quand le V-Sync est activé il n'y a à ma connaissance pas d'alignement sur un multiple de quoique ce soit (sauf si nous considérons les multiples entiers de 1).Quand l'image est prête dans le buffer et qu'un scan d'écran débute alors le buffer est envoyé à l'affichage. Puis l'image suivante commence à être préparée dans un 2ème buffer et ainsi de suite en alternant d'un buffer à l'autre (ou en copiant rapidement).Par conséquent une même image peut être affichée sur plusieurs scans si la vitesse de rendu est inférieure à la fréquence de l'écran. Ce qui ne signifie aucunement que c'est divisé par un ratio fixe.
  • fitfat , 25 février 2014 09:48
    CR77>Si tu envois 1 images à 2 scans, ramené à 60 scans par seconde, tu as 30 images sur 60 scans par seconde. Donc 30 images par seconde.Si tu envois 1 images à 3 scans, ramené à 60 scans par seconde, tu as 20 images sur 60 scan par seconde. Donc 20 images par seconde.
  • ender91 , 26 février 2014 00:21
    "la valeur 50 dB est donc deux fois plus bruyante que 40 dB"

    Normalement on double le volume tous les 3 dB, 10 dB équivalent à une multiplication par 10 du niveau sonore.
  • fitfat , 26 février 2014 09:51
    C'est pas la même chose. La pression acoustique double tous les 3 dB. En revanche on perçoit un son comme 2 fois plus bruyant qu'un autre quand ils ont une différence de pression d'environ 10dB.