Se connecter avec
S'enregistrer | Connectez-vous

Cartes graphiques : déboulonnons les mythes !

Cartes graphiques : déboulonnons les mythes !
Par

Pour peu que l’on soit intéressé par les voitures de course, on a forcément débattu des performances de deux modèles avec quelqu’un d’autre. L’un peut avoir plus de chevaux-vapeur, une vitesse maximale plus élevée, une meilleure tenue de route ou encore un poids mieux contenu. Ce genre de discussion débouche généralement sur la comparaison des chronos sur un circuit, jusqu’au moment où l’on finit par se rappeler que ces voitures sont de toute manière inaccessibles.

L’appréciation des cartes graphiques haut de gamme est assez similaire sur de nombreux points : on a par exemple le débit d’ips en moyenne, la variance interimages, le bruit émis par le système de refroidissement ainsi que des niveaux de prix qui peuvent aller jusqu’au double d’une PS4 ou Xbox One. Certaines des dernières cartes graphiques vont même jusqu’à profiter de carénages en aluminium ou magnésium, exactement comme les voitures de course. Ceci étant dit, certaines différences subsistent : on se voit mal parader dans les rues avec la meilleure carte graphique du moment entre les mains.

Quel est donc l’équivalent du temps au tour pour une carte graphique ? Quelle est LA mesure qui permet de départager les produits à coût égal ? Il est bien évident que l’on ne peut pas se contenter des performances moyennes en ips vu la part belle que nous avons faite à la variance interimages, au tearing et micro-saccades ainsi qu’aux dissipateurs qui font un bruit de réacteur. On en vient alors aux caractéristiques techniques avancées : fill rate, performances en calcul, bande passante mémoire. Quel est le poids de ces indicateurs ? A l’image d’un mécanicien dans un paddock de Formule 1, faut-il se résigner à mettre un casque pour tolérer le bruit d’une nouvelle carte graphique ? Enfin, comment tenir compte du potentiel d’overclocking de chaque modèle lorsque nous les évaluons ?

Avant de s’attaquer aux mythes qui entourent les cartes graphiques actuelles, commençons par définir la notion de performance.

La performance ne se limite pas à un seul indicateur : elle est globale

Les discussions portant sur la performance d’un GPU sont souvent limitées à des généralisations sur les FPS ou encore le nombre d’ips en moyenne, alors que la performance est une notion qui va au-delà de la vitesse à laquelle une carte est capable de rendre les images. Mieux vaut donc raisonner en termes d’enveloppe selon quatre principaux critères : vitesse (images par seconde, latence interimages et input lag), qualité (définition et qualité d’image), nuisances sonores (performances acoustiques, essentiellement dépendantes de la consommation et du dissipateur) et bien entendu le prix.

L’attractivité d’une carte graphique dépend également d’autres facteurs comme par exemple un bundle de jeux ou encore les technologies propres aux constructeurs. Nous les aborderons rapidement sans pour autant essayer de mesurer leur intérêt : CUDA, Mantle ou encore ShadowPlay sont des fonctionnalités très intéressantes pour certains, tandis que d’autres les perçoivent comme gadget.

Le graphique ci-dessus illustre le positionnement de la GTX 690 au sein de l’enveloppe variable que nous venons de décrire. A fréquences d’origine, elle atteint 71,5 ips sur Unigine Valley 1.0 en profil Extreme HD (la configuration de test est décrite sur la page suivante). La carte génère alors un bruit audible sans pour autant être dérangeant : 42,5 dB(A). A condition d’accepter un niveau sonore que l’on qualifierait presque de bruyant, il est possible d’overclocker facilement la GTX 690 pour atteindre 81,5 ips stables sur le même test. Bien entendu, la baisse de la définition ou du niveau d’anti-aliasing (et donc la qualité visuelle) permettait d’obtenir des performances encore plus élevées, de même que le prix avoisinant les 1000 euros est une constante.

Dans le but de faire des tests avec un contrôle plus important que ce que l’on a l’habitude de voir, commençons par définir une performance de référence.

Pour cet article, nous précisons les performances suivant le nombre d’ips qu’une carte est capable de débiter dans un cadre déterminé (jeu, définition) selon l’enveloppe définie et les conditions suivantes :

  1. Réglages maximum pour chaque programme/jeu (typiquement Ultra ou Extreme)
  2. Définition réglée à un niveau constant (1920x1080, 2560x1440, 3840x2160 ou encore 5760x1080 sur trois moniteurs en fonction du programme/jeu)
  3. Pilotes réglés par défaut (qu’il s’agisse de paramètres globaux ou par application)
  4. Tests effectués dans un boitier fermé, avec un niveau de bruit de 40 dB(A) à environ un mètre de la configuration (idéalement, sur une machine profitant d’une évolution matérielle annuelle)
  5. Température ambiante de 20°C et pression atmosphérique constante (critères importants vu qu’ils ont une influence directe sur l’abaissement automatique des fréquences en cas de surchauffe)
  6. Fréquences GPU et mémoire parvenant à un équilibre après mise en sécurité (le but étant de les stabiliser autant que possible suivant une cible de 40 dB(A), avec des ventilateurs fonctionnant à la vitesse qui en découle)
  7. Maintenir la variance interimages au 95ème centile en dessous de 8 ms, c’est-à-dire une demi-image pour un moniteur 60 Hz
  8. Utiliser les GPU à 100 % ou presque (important pour montrer l’absence de goulet d’étranglement sur le reste de la configuration, faute de quoi les résultats des benchmarks ne sont pas vraiment significatifs)
  9. Moyenne d’ips et variance interimages calculées au moins trois fois pour chaque mesure donnée, à raison d’une minute minimum par boucle de test sachant qu’une carte ne doit pas afficher d’écarts supérieurs à 5 % par rapport à la moyenne (nous souhaitons idéalement tester plusieurs modèles d’une même série, a fortiori lorsque nous sommes convaincus qu’il existe des écarts d’une marque à l’autre)
  10. Relever les mesures avec Fraps pour une carte seule (ou tout autre compteur d’ips intégré) ; FCAT est une nécessité pour les configurations en SLI/CrossFire

Naturellement, la performance de référence dépend non seulement du jeu mais aussi de la définition. Ceci étant dit, nous la caractérisons de manière à pouvoir répéter et vérifier chaque test individuellement : de cette manière, l’approche est vraiment scientifique. Qu’il s’agisse de particuliers comme de professionnels, nous encourageons d’ailleurs tout le monde à reproduire nos tests pour porter d’éventuelles failles à notre attention. Il n’y a pas de meilleure garantie pour ce qui est de l’intégrité de notre travail.

La définition de la performance de référence ne tient pas compte de l’overclocking, ni de la variété de comportements qu’un GPU est susceptible de montrer d’une carte à l’autre. Fort heureusement, nous verrons que ce point n’est que rarement problématique. Les dispositifs de régulation modernes sont conçus pour que les cartes débitent un maximum d’ips dans un très large éventail de situations : plus que jamais, les cartes graphiques fonctionnent au plus près de leurs limites. Ces dernières sont souvent atteintes avant que l’overclocking ne puisse avoir un intérêt en situation de jeu réel.

Nous avons eu largement recours à Unigine Valley 1.0 pour cet article, du fait qu’il contienne de nombreuses fonctionnalités permises par DirectX 11 et produise des résultats particulièrement constants. D’autre part, il ne s’appuie pas autant sur les calculs physiques (et donc au processeur) que 3D Mark (tout du moins dans les tests globaux et combinés de ce dernier).

Quel est le but de la démarche ?

Nous prévoyons d’aborder chaque composante de l’enveloppe de performances des cartes graphiques au cours de cet article en deux parties, afin de pouvoir répondre à quelques questions courantes. Input lag, display ghosting et tearing seront également évoqués parce qu’à défaut d’être spécifiquement liés au nombre d’ips, ces trois points sont conditionnent également l’expérience de jeu. Nous souhaitons d’ailleurs utiliser ces indicateurs pour comparer les cartes. Comme on peut l’imaginer, cette approche est extrêmement chronophage, mais il nous semble qu’elle apporte un nouvel éclairage qui en vaut bien la peine. Ceci ne veut pas dire que nos tests de cartes graphiques vont changer du jour au lendemain : il s’agit d’une expérimentation que nous souhaitons partager.

Après avoir défini la notion de performance, il nous reste encore à aborder le protocole de test, la synchronisation verticale, le bruit, le niveau de bruit ajusté des cartes graphiques et enfin la quantité de mémoire vidéo nécessaire. Ces sujets sont abordés dans cette première partie, tandis que les différentes méthodes d’anti-aliasing, les conséquences qui découlent du choix de moniteur, les diverses configurations PCI Express et enfin la notion de rapport performances/prix seront abordés au cours de la deuxième partie.

Passons maintenant à la configuration du test, plus importante qu’à l’accoutumée dans la mesure où elle contient d’importantes informations relatives aux tests effectués.

Interroger un expert

Votre question aux experts de la catégorie Les news : vos réactions du forum

Exemple : Android, ordinateur portable, usb, disque dur

Afficher les 9 commentaires.
Cette page n'accepte plus de commentaires
  • grosloulou , 24 février 2014 09:01
    Article des plus intéressants mais ne donnant finalement qu'une appréciation parcellaire de l'intérêt d'une carte graphique haut de gamme sous WINDOWS. Avec l'évolution actuelle des équipements et des marchés est-il encore véritablement intéressant de se cantonner à cette formule alors que tout tend à laisser penser qu'à terme les développeurs seront de plus en plus enclins à passer à OpenGL plutôt que DirectX et que des nouveautés comme Mantle risquent elles mêmes de ringardiser les chipsets refroidis artificiellement.?
  • Dejy , 24 février 2014 10:41
    Au delà des chiffres et des millisecondes, la seule chose qui compte est la perception ressentie, vitesse et qualité d'image. Le gamer pro est une exception.Moi, 25fps (comme la télé ou le cinéma) me suffisent. Mon "vieux" I7 860 et une GTX660 me permettent même de la 3D sur un écran 24".
  • Johan_et_Pirlouit , 24 février 2014 14:15
    Citation :
    [...] et que des nouveautés comme Mantle risquent elles mêmes de ringardiser les chipsets refroidis artificiellement.?

    Pour Mantle :
    1. C'est AMD et ce n'est pas une bonne nouvelle ces temps-ci.
    2. Ça n'est pas encore sorti et même déjà repoussé. On risque donc d'attendre encore un peu. Si AMD ne change pas encore de concept entre temps...
    3. Ça fonctionnera, peut-être un jour, si et seulement si AMD fait un environnement correct ET fonctionnel. On en est loin et ce n'est pas forcément dans les habitudes d'AMD de faire vite ET bien côté logiciel.
    Sinon, je plussoie : le concept semble prometteur...
  • c_planet , 24 février 2014 17:04
    pourquoi parler de mythe avec les cg 2go > 1go et démontrer qu'il y a bien une réelle différence ?? où est le mythe, où est le déboulonnage ?
  • fitfat , 24 février 2014 17:22
    c_planet>Le mythe est de croire qu'une GTX770 2Go est moins performante qu'une GTX760 4Go pasqu'elle a 2Go de moins.
  • CR77 , 24 février 2014 21:03
    "le nombre d’ips affichées à l’écran ne cesse de varier sur la base de multiples entiers de la fréquence de l’écran (60, 30, 20, 15 ips et ainsi de suite), provoquant ainsi des saccades (stutter)."Outre d'être illogique, cette explication du V-Sync me semble exactement contredire le graphique qui illustre ce qu'est le 'stutter'. Quand le V-Sync est activé il n'y a à ma connaissance pas d'alignement sur un multiple de quoique ce soit (sauf si nous considérons les multiples entiers de 1).Quand l'image est prête dans le buffer et qu'un scan d'écran débute alors le buffer est envoyé à l'affichage. Puis l'image suivante commence à être préparée dans un 2ème buffer et ainsi de suite en alternant d'un buffer à l'autre (ou en copiant rapidement).Par conséquent une même image peut être affichée sur plusieurs scans si la vitesse de rendu est inférieure à la fréquence de l'écran. Ce qui ne signifie aucunement que c'est divisé par un ratio fixe.
  • fitfat , 25 février 2014 09:48
    CR77>Si tu envois 1 images à 2 scans, ramené à 60 scans par seconde, tu as 30 images sur 60 scans par seconde. Donc 30 images par seconde.Si tu envois 1 images à 3 scans, ramené à 60 scans par seconde, tu as 20 images sur 60 scan par seconde. Donc 20 images par seconde.
  • ender91 , 26 février 2014 00:21
    "la valeur 50 dB est donc deux fois plus bruyante que 40 dB"

    Normalement on double le volume tous les 3 dB, 10 dB équivalent à une multiplication par 10 du niveau sonore.
  • fitfat , 26 février 2014 09:51
    C'est pas la même chose. La pression acoustique double tous les 3 dB. En revanche on perçoit un son comme 2 fois plus bruyant qu'un autre quand ils ont une différence de pression d'environ 10dB.