Accueil » Actualité » G-SYNC : LA solution que les joueurs attendaient ? » Page 2

G-SYNC : LA solution que les joueurs attendaient ?

1 : Introduction 3 : Dalles 60 Hz, SLI, Surround et disponibilité 4 : Prérequis matériel et configuration du test 5 : G-SYNC contre V-sync 6 : G-SYNC contre V-sync désactivée 7 : Compatibilité : très satisfaisante la plupart du temps 8 : Conclusion

3D LightBoost, mémoire embarquée, standards et 4K

En parcourant la documentation fournie par NVIDIA à la presse, nous nous sommes posé plusieurs questions vis-à-vis de la technologie G-SYNC à l’heure actuelle, ainsi que son rôle à l’avenir. Une visite chez la firme au caméléon nous a permis de trouver quelques réponses.

G-SYNC et 3D LightBoost

La première chose que nous avons remarquée tient au matériel qui nous a été envoyé, à savoir un moniteur Asus VG248QE modifié pour prendre en charge G-SYNC. Ce modèle gère également ce que NVIDIA appelle 3D LightBoost, une technologie lancée pour améliorer la luminosité des contenus en 3D stéréoscopique qui est depuis longtemps également utilisée (de manière non-officielle) en 3D « classique ». Dans le second cas, le rétroéclairage de la dalle par impulsions lumineuses sert à réduire le ghosting (ou motion blur) que nous avons évoqué sur la page précédente. Bien entendu, nous voulions savoir s’il serait possible d’associer les deux technologies.

NVIDIA nous a répondu par la négative. Cette utilisation simultanée a beau être idéale sur le papier, un rétroéclairage de la dalle par impulsions à des fréquences de rafraîchissement variables engendre pour l’instant des problèmes de scintillement et de luminosité. La situation est très compliquée puisqu’il s’agit d’ajuster la luminance tout en contrôlant les impulsions lumineuses. NVIDIA travaille donc sur le problème mais il faut pour l’instant faire un choix entre LightBoost et G-SYNC.

Image 1 : G-SYNC : LA solution que les joueurs attendaient ?

La mémoire embarquée du module G-SYNC

Comme nous le savons déjà, G-SYNC élimine la latence additionnelle causée par la V-sync, étant donné qu’il n’est plus nécessaire d’attendre que la dalle effectue un balayage. Ceci étant dit, nous avons remarqué que le module G-SYNC dispose de mémoire embarquée. Mettrait-il lui-même les images en tampon ? Si tel est le cas, quel est le temps nécessaire à une image pour qu’elle traverse intégralement le nouveau circuit de rendu ?

D’après NVIDIA, les images ne sont jamais mises en tampon dans la mémoire de G-SYNC. Les données arrivent, elles sont affichées à l’écran tandis que la mémoire est sollicitée pour d’autres tâches. Le temps de traitement induit par G-SYNC est nettement inférieur à une milliseconde, au point de s’avérer similaire à celui que l’on rencontre sans V-sync suivant l’environnement (jeu, pilote graphique, souris et ainsi de suite).

G-SYNC sera-t-il standardisé un jour ?

Cette question a été récemment soulevée lors d’une séance de questions/réponses avec AMD, par un lecteur qui voulait connaitre la réaction de la firme de Sunnyvale par rapport à G-SYNC. Nous voulions également avoir une réaction directe de NVIDIA pour savoir si l’entreprise comptait mettre en avant sa technologie pour qu’elle devienne un standard industriel. En théorie, NVIDIA pourrait proposer G-SYNC comme une évolution du standard DisplayPort avec fréquence de rafraîchissement variable. Après tout, NVIDIA est membre du VESA, principal organisme chargé de la définition des standards vidéo.

Le fait est que l’ajout d’une nouvelle fonctionnalité au DisplayPort, HDMI ou DVI n’est pas à l’ordre du jour. G-SYNC est déjà fonctionnel avec le DisplayPort 1.2, ce qui veut dire qu’un changement de standard n’est pas nécessaire.

Comme nous l’avons déjà évoqué, NVIDIA travaille à la compatibilité de G-SYNC avec ce qui s’appelle pour l’instant 3D LightBoost (la technologie changera bientôt de nom). La firme au caméléon tente également de faire baisser les coûts du module pour rendre G-SYNC plus accessible.

Image 2 : G-SYNC : LA solution que les joueurs attendaient ?

G-SYNC en Ultra HD

La foire aux questions sur le site de NVIDIA nous promet des moniteurs G-SYNC allant jusqu’à une définition de 3840×2160. Cependant, le moniteur dont nous faisons un aperçu aujourd’hui est en 1920×1080. À ce jour, les rares moniteurs Ultra HD s’appuient sur un contrôleur STMicro Athena, lequel utilise deux « scalers » pour créer une image en « tuiles », comme l’Asus PQ321Q que nous avons vu en octobre dernier. Ceci a piqué notre curiosité : le module G-SYNC peut-il prendre en charge une configuration MST (Multi-Stream Transport) ?

A vrai dire, il va falloir attendre un bon moment avant de voir des écrans 4K avec fréquence de rafraîchissement variable : il n’y a pour l’instant aucun contrôleur mono-puce capable de gérer des définitions 4K. Dans le meilleur des cas, les premières annonces seront faites ce trimestre pour un début de commercialisation dans le courant du second semestre. Etant donné que le module G-SYNC remplace le contrôleur, les dalles compatibles avec la technologie de NVIDIA ne commenceraient donc à voir le jour qu’après cette période. Fort heureusement, il gère nativement l’Ultra HD.

Que se passe-t-il à moins de 30 Hz ?

La fréquence de rafraîchissement variable permise par G-SYNC descend jusqu’à 30 Hz. Ceci s’explique par le fait qu’avec une fréquence très basse, l’image produite par une dalle LCD finit par se détériorer et engendrer des anomalies. Si la source descend en dessous de 30 ips, le module G-SYNC sait gérer automatiquement la fréquence de rafraîchissement pour éviter ces problèmes. Ceci peut amener à afficher la même image plus d’une fois, mais le seuil est donc défini à 30 Hz pour garantir la meilleure expérience visuelle possible.

Sommaire :

  1. Introduction
  2. 3D LightBoost, mémoire embarquée, standards et 4K
  3. Dalles 60 Hz, SLI, Surround et disponibilité
  4. Prérequis matériel et configuration du test
  5. G-SYNC contre V-sync
  6. G-SYNC contre V-sync désactivée
  7. Compatibilité : très satisfaisante la plupart du temps
  8. Conclusion