Se connecter avec
S'enregistrer | Connectez-vous

Avec ou sans V-Sync ?

Cartes graphiques : déboulonnons les mythes !
Par

Le nombre d’ips est le premier indicateur qui vient à l’esprit lorsqu’il s’agit d’évaluer une carte graphique. Dans quelle mesure le dernier GPU haut de gamme fait-il mieux que n’importe quel autre précédent modèle ? Internet est riche en benchmarks de sources multiples qui tentent de répondre à cette question.

Commençons donc par voir quelles sont les variables qu’il faut prendre en compte pour vraiment apprécier les capacités d’une carte graphique.

Mythe : le débit d’ips est un indicateur qui suffit à caractériser les performances d’une carte graphique

Il est communément admis qu’un titre est jouable à partir du moment où l’on obtient 30 ips et plus. Certains peuvent s’accommoder d’un peu moins, tandis que d’autres trouvent le seuil de 30 ips trop faible.

Ce débat occulte parfois le fait que le nombre d’ips ne traduit qu’un simple débit, alors qu’il faut également prendre d’autres éléments en compte. Si le débit d’un film est constant, le rendu des jeux est variable par essence et se voit donc exprimé en moyenne. La variation est un sous-produit de la puissance de calcul nécessaire au rendu d’une scène donnée : dès lors que le contenu à l’écran évolue, le débit d’ips en fait de même.

L’idée est simple : l’expérience de jeu repose sur des notions autrement plus complexes que la vitesse à laquelle les images sont rendues à l’instant T (ou en moyenne). La régularité du débit est un facteur supplémentaire : imaginons que l’on roule à 130 Km/h de manière constante sur autoroute, par rapport au même trajet effectué à 130 Km/h en moyenne. Le temps nécessaire pour arriver à destination est similaire, mais l’expérience de conduite est assez significativement différente.

Mettons donc de côté la question « quel niveau de performance suffit ? » pour le moment. Nous y viendrons après avoir abordé quelques points importants.

V-Sync

Mythes : il ne sert à rien d’avoir plus de 30 ips vu que l’œil humain n’est pas capable de faire la différence au-delà. Sur un écran 60 Hz, il n’est pas nécessaire de dépasser les 60 ips vu que le moniteur se rafraîchit déjà 60 fois par seconde. La V-Sync devrait toujours être activée. La V-Sync devrait toujours être désactivée.

Comment les images rendues sont-elles affichées ? Vu le mode de fonctionnement de la plupart des écrans LCD, l’image à l’écran est actualisée X fois par seconde, X étant constant. Dans la grande majorité des cas, l’opération s’effectue 60 fois, mais certains écrans proposent des dalles capables de se rafraîchir 120 voire 144 fois par seconde. Il s’agit bien entendu de la fréquence de rafraîchissement, exprimée en Hertz.

Le débit d’images irrégulier d’une carte graphique et la fréquence de rafraîchissement fixe d’un moniteur ne font pas bon ménage : on assiste à un phénomène de déchirement de l'image, le tearing, lorsque deux images ou plus sont rendues lors d’un seul cycle de rafraîchissement du moniteur. Sur l’image ci-dessus, les colonnes de couleur signalent des images uniques que la carte graphique envoie à l’écran dès qu’elles sont rendues. Ce phénomène peut être particulièrement désagréable, tout particulièrement sur les FPS en ligne.

L’image ci-dessous montre une autre anomalie bien connue et assez courante, mais pourtant pas évidente à illustrer. Parce que cette anomalie est produite par le périphérique d’affichage, on ne la voit pas sur des captures d’écran mais de visu. Il faut un appareil photo rapide pour isoler le problème : autant FCAT permet d’illustrer le tearing au travers des deux captures réalisées sur Battlefield 4 ci-dessus, autant le ghosting n’apparaît pas.

Le tearing est évident sur ces deux captures de Bioshock Infinite, bien qu’autrement plus sensible sur la dalle Sharp 60 Hz par rapport à celle d’Asus, dont les 120 Hz permettent une fréquence de rafraîchissement doublée. Cette anomalie indique très clairement que la synchronisation verticale est désactivée.

L’autre problème rencontré avec BioShock: Infinite est le ghosting, particulièrement apparent dans le coin inférieur gauche de l’image. Le phénomène est dû à la réactivité de l’écran : pour résumer, les pixels sont trop longs à changer de couleur, provoquant ainsi une trainée. Cette anomalie est nettement plus dérangeante en conditions de jeu que par le biais d’une image. Une dalle proposant un temps de réponse gris à gris de 8 ms, comme celle de Sharp, provoquera des effets de flou dès lors que l’on a des mouvements rapides à l’écran. De ce fait, ces dalles ne sont généralement pas recommandées pour jouer aux fps.

Revenons au tearing. La synchronisation verticale (V-sync) est une vieille solution au problème. Pour résumer, cette technologie demande à la carte vidéo de se synchroniser avec la fréquence de rafraîchissement de l’écran, éliminant donc complètement le tearing. Cependant, si la carte graphique en question n’arrive pas à maintenir un minimum de 60 ips (sur un écran 60 Hz), le nombre d’ips affichées à l’écran ne cesse de varier sur la base de multiples entiers de la fréquence de l’écran (60, 30, 20, 15 ips et ainsi de suite), provoquant ainsi des saccades (stutter).

Le débat sur l’activation/désactivation  de la V-sync perdure depuis l’apparition des premiers jeux 3D. Certains abordent le problème de façon binaire, tandis que d’autres préfèrent changer leurs réglages suivant le titre auquel ils jouent.

Que choisir ?

Partons du principe que la majorité d’entre nous est équipée de moniteurs 60 Hz. La V-sync devrait être systématiquement désactivée si l’on remplit ne serait-ce qu’un seul des critères suivants :

  • FPS en ligne
  • Perception de l’input lag
  • Configuration incapable de maintenir un minimum de 60 ips sur un jeu en particulier
  • Benchmarks GPU

La V-sync ne devrait être activée qu’à partir du moment où l’on souffre d’un tearing prononcé sans remplir un seul des critères précités.

Si l’on a la chance d’avoir un écran gamer 120/144 Hz, la V-sync ne devrait être activée qu’à partir du moment où l’on ne descend pas en-dessous de 120 ips et sous réserve là encore d’avoir un tearing prononcé.

Précisons qu’il existe quelques rares cas de figure pour lesquels la V-sync n’est pas pénalisante en termes d’ips, comme par exemple lorsque le triple buffering est pris en charge, mais il s’agit clairement d’exceptions. D’autre part, quelques titres comme The Elder Scrolls V: Skyrim activent la V-sync par défaut. Sa désactivation via les fichiers de configuration peut perturber le moteur du jeu ; mieux vaut donc ne pas y toucher.

G-Sync, FreeSync et l’avenir

Notre article dédié à G-Sync a donné un aperçu de la solution trouvée par NVIDIA pour résoudre le problème. AMD a commencé à répondre en présentant FreeSync au CES 2014, mais nous ne savons toujours pas si cette technologie est viable au-delà des écrans de portables. SI les deux entreprises visent à supprimer les compromis inhérents à la V-sync en permettant aux écrans de fonctionner selon des fréquences de rafraîchissement variables, AMD mérite d’être applaudi pour son approche open source.

Il est difficile de dire quels seront les choix de l’industrie à terme, mais le fait est que nous ne sommes franchement pas partisans des solutions propriétaires (il en va très probablement de même pour la plupart des intégrateurs). On aimerait ainsi voir NVIDIA ouvrir G-Sync à toute la communauté, mais au vu des déclarations des représentants de la société ainsi que son historique en la matière, ce changement de politique est peu vraisemblable.

Interroger un expert

Votre question aux experts de la catégorie Les news : vos réactions du forum

Exemple : Android, ordinateur portable, usb, disque dur

Afficher les 9 commentaires.
Cette page n'accepte plus de commentaires
  • grosloulou , 24 février 2014 09:01
    Article des plus intéressants mais ne donnant finalement qu'une appréciation parcellaire de l'intérêt d'une carte graphique haut de gamme sous WINDOWS. Avec l'évolution actuelle des équipements et des marchés est-il encore véritablement intéressant de se cantonner à cette formule alors que tout tend à laisser penser qu'à terme les développeurs seront de plus en plus enclins à passer à OpenGL plutôt que DirectX et que des nouveautés comme Mantle risquent elles mêmes de ringardiser les chipsets refroidis artificiellement.?
  • Dejy , 24 février 2014 10:41
    Au delà des chiffres et des millisecondes, la seule chose qui compte est la perception ressentie, vitesse et qualité d'image. Le gamer pro est une exception.Moi, 25fps (comme la télé ou le cinéma) me suffisent. Mon "vieux" I7 860 et une GTX660 me permettent même de la 3D sur un écran 24".
  • Johan_et_Pirlouit , 24 février 2014 14:15
    Citation :
    [...] et que des nouveautés comme Mantle risquent elles mêmes de ringardiser les chipsets refroidis artificiellement.?

    Pour Mantle :
    1. C'est AMD et ce n'est pas une bonne nouvelle ces temps-ci.
    2. Ça n'est pas encore sorti et même déjà repoussé. On risque donc d'attendre encore un peu. Si AMD ne change pas encore de concept entre temps...
    3. Ça fonctionnera, peut-être un jour, si et seulement si AMD fait un environnement correct ET fonctionnel. On en est loin et ce n'est pas forcément dans les habitudes d'AMD de faire vite ET bien côté logiciel.
    Sinon, je plussoie : le concept semble prometteur...
  • c_planet , 24 février 2014 17:04
    pourquoi parler de mythe avec les cg 2go > 1go et démontrer qu'il y a bien une réelle différence ?? où est le mythe, où est le déboulonnage ?
  • fitfat , 24 février 2014 17:22
    c_planet>Le mythe est de croire qu'une GTX770 2Go est moins performante qu'une GTX760 4Go pasqu'elle a 2Go de moins.
  • CR77 , 24 février 2014 21:03
    "le nombre d’ips affichées à l’écran ne cesse de varier sur la base de multiples entiers de la fréquence de l’écran (60, 30, 20, 15 ips et ainsi de suite), provoquant ainsi des saccades (stutter)."Outre d'être illogique, cette explication du V-Sync me semble exactement contredire le graphique qui illustre ce qu'est le 'stutter'. Quand le V-Sync est activé il n'y a à ma connaissance pas d'alignement sur un multiple de quoique ce soit (sauf si nous considérons les multiples entiers de 1).Quand l'image est prête dans le buffer et qu'un scan d'écran débute alors le buffer est envoyé à l'affichage. Puis l'image suivante commence à être préparée dans un 2ème buffer et ainsi de suite en alternant d'un buffer à l'autre (ou en copiant rapidement).Par conséquent une même image peut être affichée sur plusieurs scans si la vitesse de rendu est inférieure à la fréquence de l'écran. Ce qui ne signifie aucunement que c'est divisé par un ratio fixe.
  • fitfat , 25 février 2014 09:48
    CR77>Si tu envois 1 images à 2 scans, ramené à 60 scans par seconde, tu as 30 images sur 60 scans par seconde. Donc 30 images par seconde.Si tu envois 1 images à 3 scans, ramené à 60 scans par seconde, tu as 20 images sur 60 scan par seconde. Donc 20 images par seconde.
  • ender91 , 26 février 2014 00:21
    "la valeur 50 dB est donc deux fois plus bruyante que 40 dB"

    Normalement on double le volume tous les 3 dB, 10 dB équivalent à une multiplication par 10 du niveau sonore.
  • fitfat , 26 février 2014 09:51
    C'est pas la même chose. La pression acoustique double tous les 3 dB. En revanche on perçoit un son comme 2 fois plus bruyant qu'un autre quand ils ont une différence de pression d'environ 10dB.