FAQ : tout savoir sur la compatibilité entre G-Sync et FreeSync
Mise à jour du 8/1/2019 23h30 : Nous avons récolté pas mal d’informations auprès de NVIDIA au CES, et beaucoup de choses changent côté compatibilité, à lire ci-dessous. Nous avons aussi rajouté une vidéo d’exemple des écrans non validés par NVIDIA. |

Nous avons réuni un maximum d’informations pour savoir presque tout sur cette annonce majeure de NVIDIA au CES 2019 : l’ouverture des GeForce aux technos Adaptive Sync, qui concerne donc surtout les actuels écrans FreeSync disponibles sur le marché. Cet article sera mis a jour en fonction des informations que nous récolterons par la suite.
Compatible avec tous les écrans FreeSync ?
MàJ : NVIDIA explique effectivement que 12 sur 400 est un mauvais départ pour les écrans FreeSync, et ne se prive pas d’être très critique sur les recalés.
A priori oui. Il sera possible d’activer G-Sync manuellement sur les écrans qui n’ont pas été validés « compatibles G-Sync » par NVIDIA. Si le standard VESA Adaptive-Sync est correctement implémenté dans l’écran, il n’y aucune raison que ça ne fonctionne pas. Pour assurer, il faudra toutefois passer par une interface DisplayPort 1.2a (et suivant), qui intègre le standard Adaptive Sync en natif. Les tout premiers écrans FreeSync pourraient donc poser problèmes à cause d’une « proto-implémentation » du FreeSync dans leur firmware. Cette dernière pourrait ne pas coller parfaitement au standard de VESA, surtout si leur interface DisplayPort n’est pas au moins en version 1.2a. Le ratio de 12 écrans validés sur 400 nous fait tout de même assez peur au regard des critères de validation à lire plus bas (flickering, blanking).
Quid de la compatibilité HDMI VRR ?
MàJ : NVIDIA nous a clairement expliqué qu’il n’y avait pas de compatibilité HDMI VRR de prévue pour l’instant. Il faudra donc se tourner vers les écrans BFGD pour votre salon.
MàJ du 10/09/2019 : les dernières GeForce Turing (RTX 20 et GTX 16) sont désormais compatibles HDMI VRR (une certification de l’écran par NVIDIA reste conseillée)
La question mérite d’être posée, surtout pour les téléviseurs. Car si les technos HDMI VRR et AMD FreeSync reposent sur le même standard VESA Adaptive-Sync, elles ne sont pas exactement identiques et leur inter-compatibilité n’est pas garantie. AMD a du modifier ses pilotes pour faire fonctionner son FreeSync via l’interface HDMI, et encore, les premiers écrans FreeSync ne peuvent pas activer cette techno via HDMI. Pour assurer, il sera donc fortement conseillé de passer par une interface HDMI 2.1 de bout en bout, interface qui intègre le VRR en natif. Il est possible que tout fonctionne via l’interface HDMI 2.0b (car le FreeSync s’en contente), mais les risques d’incompatibilité seront plus importants. Notez qu’en utilisation téléviseur de salon, NVIDIA pousse les écrans BFGD qui exploitent l’interface DisplayPort, un contrôleur G-Sync avancé et la Shield intégrée. NVIDIA pourrait donc ne pas vouloir trop de concurrence dans le secteur, manquant alors de motivation sur la compatibilité HDMI VRR…
Quelles sont les GeForce compatibles ?
NVIDIA annonce la compatibilité pour les GeForce Série 10 et Série 20, sur GPU Pascal et Turing. En utilisant leur sortie DisplayPort, la compatibilité sera maximale. En revanche, la question se pose encore pour les sorties HDMI : Pascal est en HDMI 2.0b, et Turing aussi ! Du coup, pour les téléviseurs HDMI 2.1 VRR, difficile de s’avancer sur une compatibilité totale. Il est possible que NVIDIA mette à jour ses sorties HDMI 2.0b en 2.1, mais rien n’est certain pour l’instant.

Quels sont les critères de certification ?
NVIDIA a validé 12 premiers écran sur 400 testés. La liste complète est disponible sur cette page chez NVIDIA. Les premiers critères de validation « compatible G-Sync » par NVIDIA sont les suivants :
- Pas de scintillement d’image (flicker). MàJ : NVIDIA entend par « flickering » le changement aléatoire et brutal de luminosité en fonction du taux de rafraîchissement (voir à droite sur la vidéo)
- Pas de blanking : disparition de l’image, même brève, notamment due à une image ratée par l’écran à cause d’un défaut de synchro. MàJ : Ce blanking apparaît aléatoirement lors des variations du taux de rafraîchissement (voir à gauche sur la vidéo)
- LFC exigé ? Le critère n’est pas confirmé, mais les 12 écrans validés par NVIDIA intègre tous la techno LFC (Low Framerate Compensation), qui dédouble les images lorsque le taux d’images par seconde est faible… Ce qui pourrait notamment aider à éviter le flickering et le blanking. MàJ : NVIDIA explique que la présence du LFC est une coïncidence, pas un critère, et affirme ne pas trop savoir à quoi correspond le LFC en pratique, ne pouvant pas le vérifier.
- Pas d’artefact : aucun défaut ou bug d’affichage MàJ : Souvent l’overdrive est en jeu, réglé trop haut, il provoque du reverse ghosting ou même des effets arc-en-ciel sur certains écrans.
- Un ratio pour la fourchette du taux de rafraîchissement géré par l’écran : il doit être de 2,4:1 au minimum, par exemple 60-144 Hz. Il n’y donc pas de limite minimum : les 12 écrans validés commencent à 30, 40 ou 48 Hz. En revanche, la majorité des écrans à 60 ou 75 Hz sont éliminés d’office, à moins qu’ils puissent descendre sous les 30 Hz en limite basse. Un écran 30-75 Hz pourrait toutefois être validé !

NVIDIA fait-il payer la certification à ses partenaires ?
MàJ : NVIDIA nous rapporte des informations différentes. Les 400 moniteurs testés ont été achetés par la boîte et testés un par un. Il n’y a pour l’instant rien de prévu pour les futurs écrans FreeSync, tests maison ou tests effectués par le fabricant. 140 autres moniteurs sont en cours de test.
Non. Plusieurs sources nous ont confirmé que NVIDIA n’exige aucun paiement pour sa validation « G-Sync Compatible ». Il faudra juste investir pour envoyer le moniteur à tester chez NVIDIA. Il semble aussi que le fabricant puisse effectuer les tests dans ses propres labos, et envoyer les résultats et preuves certifiées chez NVIDIA pour validation. Il s’agit ici pour NVIDIA de garder le contrôle sur son appellation G-Sync et préserver sa réputation. L’objectif consiste à éviter quelques mauvaises aventures, par exemple avec un fabricant inconnu qui lancerait un écran de très mauvaise qualité estampillé G-Sync… Une préoccupation totalement légitime, selon nous.
Quels avantages garde G-Sync ?
Pour justifier son surcoût à la vente, le G-Sync est désormais présenté comme une technique de synchronisation haut de gamme, avec quelques avantages techniques exclusifs. Des avantages qui sont notamment liés à la présence de la carte contrôleur G-Sync de NVIDIA au sein de l’écran :
- Un input lag minimal
- Un overdrive variable, dynamique en fonction du taux de rafraîchissement
- Une fourchette de rafraîchissement qui commence à 1 Hz (avec dédoublement d’image notamment)
- 300 tests de qualité d’affichage de l’écran pour tous les écrans G-Sync
- Du HDR jusqu’à 1000 cd/m², et un contrôleur d’affichage plus avancé pour le G-Sync Ultimate et les gros écrans BFGD, notamment pour gérer le rétroéclairage dynamique en local dimming (FALD).
Quid du G-Sync pour portables ?
MàJ : Informations totalement différentes chez NVIDIA. Rien ne change pour les portables. Tout reste comme avant : les fabricants devront passer par NVIDIA pour activer le G-Sync, notamment à cause de la nécessité de validation de la dalle LCD utilisée dans le portable.
L’implémentation du G-Sync sur les PC portable se fait sans la présence de la carte contrôleur G-Sync de NVIDIA. Elle passe donc déjà par le standard Adaptive-Sync de VESA. Ce G-Sync est donc un peu moins évolué que celui d’un écran de bureau, et n’apporte désormais pas d’avantage par rapport à la validation « G-Sync Compatible », du moins pour l’instant. Les fabricants de PC portables doivent actuellement payer NVIDIA pour activer le G-Sync. Mais la situation risque désormais de changer, car par définition, tous les PC portables actuels sont des machines avec écrans « G-Sync Compatible », passant par une interface DisplayPort. Les portables non estampillés G-Sync auront certainement l’option de compatibilité dans les pilotes NVIDIA, et les fabricants pourraient ne plus vouloir payer tant que le G-Sync n’apporte pas plus d’avantages sur leurs portables gaming.
Quid des écrans G-Sync actuels ?
C’est un peu la panique pour les fabricants et les revendeurs qui ont des stocks d’écrans G-Sync à écouler, et dont les prix sont désormais difficiles à justifier. Certaines sources nous confient qu’il est possible que les écrans G-Sync actuels fassent l’objets de soldes et de bons plans en attendant la nouvelle génération. Un écran G-Sync soldé ? Du jamais vu !
Sommaire :
- Premiers tests pratiques
- FAQ : tout savoir sur la compatibilité entre G-Sync et FreeSync
« On pourrait même dire que ça fonctionne mieux qu’avec une Radeon, sans tearing à très basse fréquence d’image » Pas d’accord du tout chez moi. J’ai un écran Philips 349X7F, un ultrawide 3440×1440 FreeSync 40-100Hz. J’ai une RX Vega64 Liquid et une RTX 2080, il n’y a pas photo, la Radeon supporte bien mieux mon écran. Et le LFC est toujours présent même à moins de 20FPS. En gros, la RTX présente un peu de flickering quand je suis autour de 40-45Hz, un LFC me semble parfois incohérent (35FPS => 51Hz?!? sur la Radeon les multiples sont toujours bien respecté :… Lire la suite »
Intéressant merci ! Votre écran est LFC donc c’est un cas différent des écrans à 62 et 75 Hz qu’on a testés (et pour lesquels on dit que « ca marche mieux »). Notre Acer avec LFC se comporte bien sur GeForce et Radeon sans flickering toutefois. Mais du coup on va tester plus d’écrans Freesync purement gaming avec LFC pour voir ce qu’on peut en tirer. Merci pour l’info pour ce Philips en tout cas.
Merci pour cet article très intéressant !
Petite question par rapport à l’HDR : vous dites à propos des avantages du GSync « Du HDR jusqu’à 1000 cd/m² », ça signifie que le HDR ne fonctionnera pas sur l’écran avec une carte NVidia ? Ou bien que le HDR sera bridé à un seuil plus bas ?
Non si l’écran est HDR 1000 il le sera même sans carte NVIDIA ni G-Sync. C’est juste qu’il pourra aussi gérer ce HDR (avec local dimming) en même temps que le G-Sync avec taux de rafraîchissement élevé.
Merci beaucoup pour votre réponse, c’est très apprécié 🙂
Bonjour; D’après ce que j’ai compris, ce qui permet d’avoir une utilisation correcte de l’écran en mode gsync, c’est la largeur de la plage variable. Il faut que la valeur haute soit au moins 2x plus haute que la plage basse (et en pratique plutôt 2,5) afin que le LFC soit actif, ce dernier faisant pleinement partie du fonctionnement de gsync. Donc un 48-144 Hz devrait fonctionner sans problème ? Est ce que un écran comme le PG279q qui a une plage de 1-165hz aura les mêmes performances qu’un AORUS AD27QF avec 48-144 en plage? si j’ai en dessous de… Lire la suite »
AORUS AD27QD pardon *
Bonjour, futur possesseur d’un ACER NITRO VP270UOPbmiipx 144HZ, pourriez-vous me préciser la référence précise du câble que vous avez utilisé pour effectuer votre test pratique du G-Sync.
Pouvez-vous par ailleurs me dire si un câble display port 1.2 de 10m pourra satisfaire pour du QHD 144hz ? De toute façon je vais tester tout cela avec ma GTX 1080, j’aurais mon verdict.
Merci pour votre retour sur le câble,
Thomas
Tout câble certifié DP 1.2 fonctionnera, même de 10m, mais c’est quelque chose qu’il faut toujours tester en pratique malheureusement. Normalement aucun problème. La norme est 1.2a précisément, mais un câble 1.2 devrait suffire. Pas de problème pour le QHD 144 Hz avec cette norme. Nous avons utilisé un câble 1.2 livré avec les écrans concernés, un câble générique.
j’ai rien compris, est-ce que mon écran Acer KG241bmiix FreeSync peut utliser l’ Adaptive-Sync avec ma GTX 1070 ?