Accueil » Actualité » G-SYNC : LA solution que les joueurs attendaient ?

G-SYNC : LA solution que les joueurs attendaient ?

2 : 3D LightBoost, mémoire embarquée, standards et 4K 3 : Dalles 60 Hz, SLI, Surround et disponibilité 4 : Prérequis matériel et configuration du test 5 : G-SYNC contre V-sync 6 : G-SYNC contre V-sync désactivée 7 : Compatibilité : très satisfaisante la plupart du temps 8 : Conclusion

Introduction

Outre le fait d’afficher un gabarit massif et un poids considérable, les moniteurs CRT renfermaient plusieurs composants au nom exotique comme par exemple un tube cathodique ou encore un canon à électrons. Ce dernier envoyait un faisceau d’électrons vers l’écran pour éclairer les points lumineux que l’on appelle pixels. Le balayage était conduit pixel par pixel de la gauche vers la droite, ligne par ligne du sommet de l’écran jusqu’à sa base. A l’époque, il était délicat de modifier la vitesse du canon à électron après chaque rafraîchissement complet et cela ne s’imposait pas comme une nécessité, vu que les premiers jeux 3D sont sortis plusieurs dizaines d’années après les premiers moniteurs CRT. Les CRT et standards vidéo analogiques associés ont donc été conçus avec des fréquences de rafraîchissement fixes.

Début 2000, les LCD ont commencé à remplacer progressivement les CRT, de même que les connexions numériques (DVI, HDMI et DisplayPort) ont pris la suite des connexions analogiques (VGA). Cependant, les organismes chargés de définir les signaux vidéo (à commencer par le VESA) en sont restés à des fréquences de rafraîchissement fixes. Après tout, les programmes TV comme les films s’appuient encore aujourd’hui sur un signal d’entrée dont le débit d’images est fixe. Encore une fois, le rafraîchissement variable n’est pas apparu comme une nécessité.

Débit d’image variable et fréquences fixes ne font pas bon ménage

Image 1 : G-SYNC : LA solution que les joueurs attendaient ?

Le fait que les écrans aient une fréquence de rafraîchissement fixe n’a donc jamais posé problème jusqu’à l’avènement des jeux 3D. Le problème s’est révélé à partir du moment où nous avons commencé à avoir des GPU puissants : la cadence à laquelle ils rendent les images (le nombre d’ips) n’est pas constante. Un carte graphique peut par exemple générer 30 ips au cours d’une scène particulièrement chargée pour atteindre 60 ips quelques instants plus tard lorsque l’on regarde un ciel dégagé par exemple.

Image 2 : G-SYNC : LA solution que les joueurs attendaient ?

Le débit d’images irrégulier d’une carte graphique et la fréquence de rafraîchissement fixe d’un moniteur ne font pas bon ménage : on assiste à un phénomène de déchirement de l’image, le tearing, lorsque deux images ou plus sont rendues lors d’un seul cycle de rafraîchissement du moniteur. Concrètement, les deux portions de l’image apparaissent alors comme étant mal alignées, une anomalie qui résulte du mouvement.

Image 3 : G-SYNC : LA solution que les joueurs attendaient ?

L’image ci-dessus montre deux anomalies bien connues et assez courantes, mais pourtant pas évidentes à illustrer. Étant donné qu’il s’agit d’anomalies d’affichage, on ne les voit pas sur les captures d’écran réalisées en cours de partie. Elles sont en revanche bien perceptibles sur un moniteur. Il faut un appareil photo très rapide pour capturer ces anomalies et les isoler, à moins d’avoir une carte d’acquisition vidéo comme celle que nous utilisons pour nos benchmarks FCAT : on peut alors enregistrer un flux vidéo non compressé depuis le port DVI et clairement voir la transition d’une image à l’autre. Quoi qu’il en soit, le meilleur moyen d’apprécier le phénomène est de l’observer à l’œil nu.

On peut voir cet effet de tearing sur les deux images ci-dessus, prises avec un appareil photo (ou bien celle qui figure ci-dessous, capturée avec une carte d’acquisition). L’image est coupée à l’horizontale et semble mal alignée. L’image de gauche est obtenue avec un moniteur Sharp 60 Hz tandis que celle de droite est générée par un écran Asus 120 Hz. Naturellement, le tearing est moins prononcé sur le second grâce à une fréquence de rafraîchissement deux fois plus élevée. Cependant, l’anomalie reste perceptible dans les deux cas. Elle est par ailleurs caractéristique du fait que les captures ont été réalisées sans V-sync.

Image 4 : G-SYNC : LA solution que les joueurs attendaient ?

L’autre problème rencontré avec BioShock: Infinite est le ghosting, particulièrement apparent dans le coin inférieur gauche de l’image. Le phénomène est dû à la réactivité de l’écran : pour résumer, les pixels sont trop longs à changer de couleur, provoquant ainsi une trainée. Cette anomalie est nettement plus dérangeante en conditions de jeu que par le biais d’une image. Une dalle proposant un temps de réponse gris à gris de 8 ms, comme celle de Sharp, provoquera des effets de flou dès lors que l’on a des mouvements rapides à l’écran. De ce fait, ces dalles ne sont généralement pas recommandées pour jouer aux fps.

V-sync : résoudre un problème par un autre

La synchronisation verticale (V-sync) est une vieille solution au problème de tearing. Pour résumer, cette technologie demande à la carte vidéo de se synchroniser avec la fréquence de rafraîchissement de l’écran, éliminant donc complètement le tearing. Cependant, si la carte graphique en question n’arrive pas à maintenir un minimum de 60 ips (sur un écran 60 Hz), le nombre d’ips affichées à l’écran ne cesse de varier sur la base de multiples entiers de la fréquence de l’écran (60, 30, 20, 15 ips et ainsi de suite), provoquant ainsi des saccades (stutter).

Image 5 : G-SYNC : LA solution que les joueurs attendaient ?

La carte vidéo étant contrainte d’attendre et parfois de s’appuyer sur un troisième tampon mémoire, la V-sync peut engendrer également du retard dans l’affichage, le fameux input lag qui peut vous couter la vie dans les FPS multijoueurs. Cette technologie peut donc être soit une excellente solution soit un remède pire que le mal, vu que l’on élimine le tearing au prix de deux nouveaux problèmes. Après avoir réalisé un sondage rapide au sein de la rédaction, il est apparu que la majorité d’entre nous n’active la V-sync qu’à partir du moment où le tearing devient insupportable.

NVIDIA lance G-SYNC

Image 6 : G-SYNC : LA solution que les joueurs attendaient ?

Lors du lancement de la GTX 680, NVIDIA a ajouté une fonctionnalité dans ses pilotes répondant au nom d’Adaptative V-sync. Cette dernière tente de réduire les défauts de la V-sync classique en s’activant lorsque le nombre d’ips est supérieur à la fréquence de l’écran pour se désactiver rapidement dans le cas contraire. Bien que cette technologie ait rempli son office, il s’agit plus d’un contournement du problème qu’autre chose vu que le tearing n’est pas complètement éliminé lorsque le nombre d’ips est inférieur à la fréquence de l’écran.

L’arrivée de G-SYNC est bien plus intéressante : NVIDIA nous montre qu’au lieu de forcer les cartes graphiques à afficher les jeux sur des moniteurs à fréquence constante, il est possible de faire fonctionner certains écrans avec une fréquence de rafraîchissement variable.

Image 7 : G-SYNC : LA solution que les joueurs attendaient ?

Le DisplayPort, plus particulièrement son protocole de transmission de données par micro-paquets, a offert une opportunité. En utilisant les VBI (Vertical Blanking Interval) du signal vidéo DisplayPort et en remplaçant le contrôleur du moniteur par un module capable de fonctionner avec un signal à VBI, il est possible de faire varier la fréquence de ce moniteur pour l’aligner sur le débit d’images de la carte graphique (dans la limite des fréquences gérées par l’écran bien entendu). En pratique, NVIDIA a opté pour une approche créative en utilisant des possibilités offertes par le DisplayPort, faisant ainsi d’une pierre deux coups.

Avant même de passer aux tests, soulignons le caractère particulièrement innovant de cette approche, puisqu’elle vise à résoudre un problème très concret qui touche globalement les jeux PC. Mais comment G-SYNC fonctionne-t-il en pratique ?

NVIDIA nous a envoyé un prototype de l’écran Asus VG248QE dont le contrôleur a été remplacé par le module G-SYNC. Ce moniteur est bien connu puisqu’il s’agit d’un des meilleurs modèles qui soit pour jouer à l’heure actuelle grâce à son excellente réactivité.

Sommaire :

  1. Introduction
  2. 3D LightBoost, mémoire embarquée, standards et 4K
  3. Dalles 60 Hz, SLI, Surround et disponibilité
  4. Prérequis matériel et configuration du test
  5. G-SYNC contre V-sync
  6. G-SYNC contre V-sync désactivée
  7. Compatibilité : très satisfaisante la plupart du temps
  8. Conclusion