Accueil » Dossier » Cartes graphiques : déboulonnons les mythes !

Cartes graphiques : déboulonnons les mythes !

2 : Configuration du test 3 : Avec ou sans V-Sync ? 4 : Faut-il s’inquiéter de l’input lag ? 5 : Quelle quantité de mémoire vidéo ? 6 : Quelle quantité de mémoire vidéo ? (suite) 7 : La gestion thermique des cartes graphiques récentes 8 : Tests avec une limite constante de 40 dB(A) 9 : L’overclocking peut-il nuire aux performances à 40 dB(A) ?

Introduction

Pour peu que l’on soit intéressé par les voitures de course, on a forcément débattu des performances de deux modèles avec quelqu’un d’autre. L’un peut avoir plus de chevaux-vapeur, une vitesse maximale plus élevée, une meilleure tenue de route ou encore un poids mieux contenu. Ce genre de discussion débouche généralement sur la comparaison des chronos sur un circuit, jusqu’au moment où l’on finit par se rappeler que ces voitures sont de toute manière inaccessibles.

L’appréciation des cartes graphiques haut de gamme est assez similaire sur de nombreux points : on a par exemple le débit d’ips en moyenne, la variance interimages, le bruit émis par le système de refroidissement ainsi que des niveaux de prix qui peuvent aller jusqu’au double d’une PS4 ou Xbox One. Certaines des dernières cartes graphiques vont même jusqu’à profiter de carénages en aluminium ou magnésium, exactement comme les voitures de course. Ceci étant dit, certaines différences subsistent : on se voit mal parader dans les rues avec la meilleure carte graphique du moment entre les mains.

Quel est donc l’équivalent du temps au tour pour une carte graphique ? Quelle est LA mesure qui permet de départager les produits à coût égal ? Il est bien évident que l’on ne peut pas se contenter des performances moyennes en ips vu la part belle que nous avons faite à la variance interimages, au tearing et micro-saccades ainsi qu’aux dissipateurs qui font un bruit de réacteur. On en vient alors aux caractéristiques techniques avancées : fill rate, performances en calcul, bande passante mémoire. Quel est le poids de ces indicateurs ? A l’image d’un mécanicien dans un paddock de Formule 1, faut-il se résigner à mettre un casque pour tolérer le bruit d’une nouvelle carte graphique ? Enfin, comment tenir compte du potentiel d’overclocking de chaque modèle lorsque nous les évaluons ?

Avant de s’attaquer aux mythes qui entourent les cartes graphiques actuelles, commençons par définir la notion de performance.

La performance ne se limite pas à un seul indicateur : elle est globale

Les discussions portant sur la performance d’un GPU sont souvent limitées à des généralisations sur les FPS ou encore le nombre d’ips en moyenne, alors que la performance est une notion qui va au-delà de la vitesse à laquelle une carte est capable de rendre les images. Mieux vaut donc raisonner en termes d’enveloppe selon quatre principaux critères : vitesse (images par seconde, latence interimages et input lag), qualité (définition et qualité d’image), nuisances sonores (performances acoustiques, essentiellement dépendantes de la consommation et du dissipateur) et bien entendu le prix.

L’attractivité d’une carte graphique dépend également d’autres facteurs comme par exemple un bundle de jeux ou encore les technologies propres aux constructeurs. Nous les aborderons rapidement sans pour autant essayer de mesurer leur intérêt : CUDA, Mantle ou encore ShadowPlay sont des fonctionnalités très intéressantes pour certains, tandis que d’autres les perçoivent comme gadget.

Image 1 : Cartes graphiques : déboulonnons les mythes !

Le graphique ci-dessus illustre le positionnement de la GTX 690 au sein de l’enveloppe variable que nous venons de décrire. A fréquences d’origine, elle atteint 71,5 ips sur Unigine Valley 1.0 en profil Extreme HD (la configuration de test est décrite sur la page suivante). La carte génère alors un bruit audible sans pour autant être dérangeant : 42,5 dB(A). A condition d’accepter un niveau sonore que l’on qualifierait presque de bruyant, il est possible d’overclocker facilement la GTX 690 pour atteindre 81,5 ips stables sur le même test. Bien entendu, la baisse de la définition ou du niveau d’anti-aliasing (et donc la qualité visuelle) permettait d’obtenir des performances encore plus élevées, de même que le prix avoisinant les 1000 euros est une constante.

Dans le but de faire des tests avec un contrôle plus important que ce que l’on a l’habitude de voir, commençons par définir une performance de référence.

Image 2 : Cartes graphiques : déboulonnons les mythes !

Pour cet article, nous précisons les performances suivant le nombre d’ips qu’une carte est capable de débiter dans un cadre déterminé (jeu, définition) selon l’enveloppe définie et les conditions suivantes :

  1. Réglages maximum pour chaque programme/jeu (typiquement Ultra ou Extreme)
  2. Définition réglée à un niveau constant (1920×1080, 2560×1440, 3840×2160 ou encore 5760×1080 sur trois moniteurs en fonction du programme/jeu)
  3. Pilotes réglés par défaut (qu’il s’agisse de paramètres globaux ou par application)
  4. Tests effectués dans un boitier fermé, avec un niveau de bruit de 40 dB(A) à environ un mètre de la configuration (idéalement, sur une machine profitant d’une évolution matérielle annuelle)
  5. Température ambiante de 20°C et pression atmosphérique constante (critères importants vu qu’ils ont une influence directe sur l’abaissement automatique des fréquences en cas de surchauffe)
  6. Fréquences GPU et mémoire parvenant à un équilibre après mise en sécurité (le but étant de les stabiliser autant que possible suivant une cible de 40 dB(A), avec des ventilateurs fonctionnant à la vitesse qui en découle)
  7. Maintenir la variance interimages au 95ème centile en dessous de 8 ms, c’est-à-dire une demi-image pour un moniteur 60 Hz
  8. Utiliser les GPU à 100 % ou presque (important pour montrer l’absence de goulet d’étranglement sur le reste de la configuration, faute de quoi les résultats des benchmarks ne sont pas vraiment significatifs)
  9. Moyenne d’ips et variance interimages calculées au moins trois fois pour chaque mesure donnée, à raison d’une minute minimum par boucle de test sachant qu’une carte ne doit pas afficher d’écarts supérieurs à 5 % par rapport à la moyenne (nous souhaitons idéalement tester plusieurs modèles d’une même série, a fortiori lorsque nous sommes convaincus qu’il existe des écarts d’une marque à l’autre)
  10. Relever les mesures avec Fraps pour une carte seule (ou tout autre compteur d’ips intégré) ; FCAT est une nécessité pour les configurations en SLI/CrossFire

Naturellement, la performance de référence dépend non seulement du jeu mais aussi de la définition. Ceci étant dit, nous la caractérisons de manière à pouvoir répéter et vérifier chaque test individuellement : de cette manière, l’approche est vraiment scientifique. Qu’il s’agisse de particuliers comme de professionnels, nous encourageons d’ailleurs tout le monde à reproduire nos tests pour porter d’éventuelles failles à notre attention. Il n’y a pas de meilleure garantie pour ce qui est de l’intégrité de notre travail.

La définition de la performance de référence ne tient pas compte de l’overclocking, ni de la variété de comportements qu’un GPU est susceptible de montrer d’une carte à l’autre. Fort heureusement, nous verrons que ce point n’est que rarement problématique. Les dispositifs de régulation modernes sont conçus pour que les cartes débitent un maximum d’ips dans un très large éventail de situations : plus que jamais, les cartes graphiques fonctionnent au plus près de leurs limites. Ces dernières sont souvent atteintes avant que l’overclocking ne puisse avoir un intérêt en situation de jeu réel.

Image 3 : Cartes graphiques : déboulonnons les mythes !

Nous avons eu largement recours à Unigine Valley 1.0 pour cet article, du fait qu’il contienne de nombreuses fonctionnalités permises par DirectX 11 et produise des résultats particulièrement constants. D’autre part, il ne s’appuie pas autant sur les calculs physiques (et donc au processeur) que 3D Mark (tout du moins dans les tests globaux et combinés de ce dernier).

Quel est le but de la démarche ?

Nous prévoyons d’aborder chaque composante de l’enveloppe de performances des cartes graphiques au cours de cet article en deux parties, afin de pouvoir répondre à quelques questions courantes. Input lag, display ghosting et tearing seront également évoqués parce qu’à défaut d’être spécifiquement liés au nombre d’ips, ces trois points sont conditionnent également l’expérience de jeu. Nous souhaitons d’ailleurs utiliser ces indicateurs pour comparer les cartes. Comme on peut l’imaginer, cette approche est extrêmement chronophage, mais il nous semble qu’elle apporte un nouvel éclairage qui en vaut bien la peine. Ceci ne veut pas dire que nos tests de cartes graphiques vont changer du jour au lendemain : il s’agit d’une expérimentation que nous souhaitons partager.

Après avoir défini la notion de performance, il nous reste encore à aborder le protocole de test, la synchronisation verticale, le bruit, le niveau de bruit ajusté des cartes graphiques et enfin la quantité de mémoire vidéo nécessaire. Ces sujets sont abordés dans cette première partie, tandis que les différentes méthodes d’anti-aliasing, les conséquences qui découlent du choix de moniteur, les diverses configurations PCI Express et enfin la notion de rapport performances/prix seront abordés au cours de la deuxième partie.

Passons maintenant à la configuration du test, plus importante qu’à l’accoutumée dans la mesure où elle contient d’importantes informations relatives aux tests effectués.

Sommaire :

  1. Introduction
  2. Configuration du test
  3. Avec ou sans V-Sync ?
  4. Faut-il s’inquiéter de l’input lag ?
  5. Quelle quantité de mémoire vidéo ?
  6. Quelle quantité de mémoire vidéo ? (suite)
  7. La gestion thermique des cartes graphiques récentes
  8. Tests avec une limite constante de 40 dB(A)
  9. L’overclocking peut-il nuire aux performances à 40 dB(A) ?