Accueil » Dossier » Cartes graphiques : déboulonnons les mythes ! » Page 6

Cartes graphiques : déboulonnons les mythes !

1 : Introduction 2 : Configuration du test 3 : Avec ou sans V-Sync ? 4 : Faut-il s’inquiéter de l’input lag ? 5 : Quelle quantité de mémoire vidéo ? 7 : La gestion thermique des cartes graphiques récentes 8 : Tests avec une limite constante de 40 dB(A) 9 : L’overclocking peut-il nuire aux performances à 40 dB(A) ?

Quelle quantité de mémoire vidéo ? (suite)

Image 1 : Cartes graphiques : déboulonnons les mythes !

Hitman: Absolution s’appuie sur le moteur Glacier 2 d’IO Interactive, lequel est assez gourmand en mémoire : dans notre suite de tests, seul le moteur Warscape de Creative Assembly (Total War : Rome II) se montre encore plus vorace avec les détails graphiques les plus élevés.

Une carte n’ayant qu’un seul Go de mémoire ne permet pas de jouer à Hitman : Absolution en 1080p avec détails Ultra. Avec 2 Go, il est possible de jouer avec MSAA 4x en 1080p ou encore sans MSAA en 2160p.

Il faut une carte 3 Go pour activer le MSAA 8x en 1080p et rien de moins qu’une Titan 6 Go afin de passer en 2160p avec le même anti-aliasing.

Rappelons que le FXAA n’engendre aucune pénalité en termes de ressources mémoire.

Image 2 : Cartes graphiques : déboulonnons les mythes !

Nb : le dernier benchmark en date d’Unigine, Valley 1.0, ne prend pas directement en charge MLAA/FXAA. Les résultats que l’on voit ci-dessus avec ces filtrages sont obtenus en forçant leur activation via les pilotes.

Pour ce qui est de la gestion mémoire, Valley tourne donc bien sur une carte 2 Go en 1080p. Il est même possible d’utiliser une carte 1 Go pour le voir à cette définition avec MSAA 4x, ce qui constitue une exception par rapport aux jeux. La situation se complique en 2160p : une carte 2 Go s’en sort avec un anti-aliasing post processing FXAA/MLAA mais il n’est pas question d’activer le MSAA. L’ultra HD avec MSAA 8x nécessite plus de 3 Go de mémoire, réservant ainsi le benchmark dans cette configuration aux GTX Titan et AMD R9 290/290X.

Image 3 : Cartes graphiques : déboulonnons les mythes !

Total War : Rome II s’appuie sur une évolution du moteur Warscape qui ne gère pas le SLI pour le moment (aucun problème pour le CrossFire en revanche), ni le MSSA et ses dérivés. Le seul anti-aliasing qui soit fonctionnel est le MLAA, technique propriétaire d’AMD, qui équivaut au SMAA et FXAA (développé par NVIDIA).

Une fonctionnalité particulière de ce moteur est sa capacité à spontanément baisser la qualité d’image en fonction de la mémoire vidéo disponible : le jeu reste donc aussi fluide que possible sans demander l’intervention de l’utilisateur. L’absence de prise en charge du SLI rend par contre ce RTS injouable sur les GeForce en 3840×2160. Dans l’immédiat, il faut avoir une/des Radeon si l’on compte jouer à Rome II en 4K.

Sans MLAA, le titre de Creative Assemby consomme 1848 Mo de mémoire vidéo sur son benchmark intégré « forêt » en 3840×2160, profil « Extreme ». Les 2 Go par GPU de la GTX 690 sont saturés dès lors que l’on ajoute le MLAA.

La surprise vient ici du fait qu’une technologie AMD sensée être propriétaire (MLAA) fonctionne sur une carte NVIDIA. Cependant, FXAA et MLAA sont tous deux des filtres post-processing, il n’y a donc aucune contrainte technique qui empêche leur interchangeabilité. Soit Creative Assembly bascule en douce vers le FXAA si une GeForce est détectée (le fichier de configuration ne précise pas cette possibilité), soit le département marketing d’AMD n’a pas relevé cette situation ou décidé de laisser courir.

Il faut donc au moins 2 Go de mémoire vidéo pour jouer à Rome II en 1080p profil « Extreme », ainsi qu’un CrossFire de cartes ayant chacune un minimum de 3 Go pour une expérience de jeu fluide en 2160p. On peut espérer arriver à jouer en 1080p avec une carte 1 Go, mais il faudra nécessairement faire des compromis sur la qualité visuelle.

Que se passe-t-il lorsque la mémoire vidéo est saturée ? Pour faire simple, les données graphiques sont alors temporairement envoyées à la mémoire système via le bus PCI Express. Il en résulte une énorme baisse des performances, a fortiori lors du chargement de textures : un jeu devient tout simplement insupportable dans ces conditions.

Que choisir ?

Quand bien même on possède une carte 1 Go et un écran 1080p, il n’y a probablement pas lieu de changer de carte graphique dans l’immédiat. Cependant, nous encourageons à opter pour un modèle 2 Go lors du prochain achat afin de pouvoir activer un anti-aliasing plus exigeant que le FXAA/MLAA sur la plupart des jeux.

En 1440p, 1600p, 2160p ainsi que sur les configurations multi-écrans, nous recommandons de viser au-delà de 2 Go pour éviter d’avoir à faire une croix sur le MSAA. 3 Go par GPU semble être un bon choix.

Comme nous l’avons évoqué plus tôt, la notion d’équilibre est primordiale : les cartes équipées de DDR3 doivent être évitées, de même que le passage de 2 à 4 Go sur une Radeon R9 270X n’a pas vraiment d’intérêt. Le fait de tester les cartes graphiques au travers de plusieurs jeux, avec des niveaux de détail et des définitions différentes permet justement de vérifier cet équilibre : on ne peut pas formuler de conseils d’achat sans avoir constaté les limites des cartes au préalable.

Sommaire :

  1. Introduction
  2. Configuration du test
  3. Avec ou sans V-Sync ?
  4. Faut-il s’inquiéter de l’input lag ?
  5. Quelle quantité de mémoire vidéo ?
  6. Quelle quantité de mémoire vidéo ? (suite)
  7. La gestion thermique des cartes graphiques récentes
  8. Tests avec une limite constante de 40 dB(A)
  9. L’overclocking peut-il nuire aux performances à 40 dB(A) ?