Guide d'achat : quel écran PC choisir ?

Fréquences et performances

Fréquence : jusqu’où s’arrêteront-ils ?

Quasiment tous les moniteurs sont conçus pour fonctionner au minimum en 60 Hz, quelle que soit leur taille et leur définition. C’est la fréquence “traditionnelle” à laquelle les moniteurs LCD rafraichissent l'image qu'ils affichent. En 2009, le mode 120 Hz est apparu, quand la 3D a fait un entrée spectaculaire grâce à la technologie 3DVision de Nvidia. Fin 2010, ce fut au tour d’AMD de rentrer dans la troisième dimension. Dans un premier temps réservé à l’affichage 3D, le mode 120 Hz a été ensuite exploité pour la 2D, afin d’améliorer sensiblement la fluidité des animations graphiques, pour le plus grand plaisir des joueurs. Aujourd’hui, le haut du pavé est occupé par les moniteurs équipés d’une dalle pouvant fonctionner en 144 Hz, puis 165 Hz, et même 200 et 240 Hz !


Photos issues de notre test de l'écran Alienware 25 240 HzPhotos issues de notre test de l'écran Alienware 25 240 Hz

Est-ce vraiment mieux que le 120 Hz ? Les réponses varient en fonction des joueurs ! Pour les uns, cette fonction est indispensable. Les autres ne voient pas vraiment la différence avec le mode 120 Hz. De notre côté, nous aurions tendance à penser que la différence entre 120 et 144 Hz est quasi imperceptible pour la grande majorité des joueurs. Une chose est claire : la différence entre 60 et 120 Hz est vraiment perceptible !La course à la fréquence la plus élevée est-elle (déjà) terminée ? Ou va-t-on nous sortir des moniteurs à 280 ou 300 Hz ? Quoiqu'il en soit, avant d’investir dans un moniteur 144 Hz, il est préférable de s’assurer que votre carte graphique suive le rythme, sans qu’il soit nécessaire de baisser le niveau de détail graphique au minimum dans les jeux (ça serait un comble !). Il faudra aussi que le CPU suive (voir notre comparatif de CPU), afin de ne pas brider la carte graphique ! PC surpuissant exigé !

G-Sync et FreeSync

La dernière innovation en date en matière de fréquence de fonctionnement de l’écran n’est autre que la fréquence variable. Grâce à cette technologie, inaugurée par Nvidia avec G-sync, ce n’est plus la carte graphique qui se synchronise avec l’écran (ce qui est le cas quand on active l’option V-sync), c’est l’écran qui s’adapte au taux d'images par seconde délivré par la carte graphique, qui est variable en fonction de la complexité de la scène graphique affichée. La fonction G-Sync fonctionne exclusivement avec une carte Nvidia (GeForce GTX 650 Ti Boost ou supérieure), jusqu’en 144 Hz et uniquement avec une connexion DisplayPort.

Son but est double. Tout d’abord, éliminer les effets de déchirements de l’image, qui apparaissent souvent quand on n’active pas l’option V-sync dans les jeux. Ensuite, en finir avec l’input lag qui survient quand on active cette même synchronisation verticale. En plus, dans ce dernier cas de figure (V-sync activée), des micro saccades faisaient également leur apparition dans les animations si la carte graphique n’arrivait pas à délivrer constamment 60, 120 ou 144 images par seconde. Au final, avec la technologie G-sync, quelles que soient les performances de votre carte graphique, l’affichage demeure optimisé. Les différents témoignages font état de performances très satisfaisantes, qui affiche des animations à 40-45 images par secondes de manière beaucoup plus fluide !

AMD, de son côté a lancé un peu après la technologie FreeSync, que l’on voit aujourd'hui dans beaucoup d'écrans. Elle est réservée aux possesseurs d’une carte graphique AMD. Elle est plus ouverte (standard VESA Adaptive Sync), offre les mêmes avantages que G-Sync et elle permet d'obtenir des écrans moins chers.

Réduire le flou de mouvement

Si la hausse des fréquences des moniteurs a permis d’obtenir des animations plus fluides, les effets de flou sur les objets qui se déplacent rapidement horizontalement n’étaient plus supportables par les joueurs. Les constructeurs ont alors mis au point des techniques dites de « réduction de flou ». Elles sont appelées ULMB chez Nvidia (et LightBoost pour la 3D), Turbo 240 chez Eizo ou encore plus sobrement Blur Reduction chez Benq. Une fois activées, ces technologies opèrent de la même façon : insérer une images noire entre deux images envoyées par la carte graphique, en éteignant très rapidement le rétro éclairage (comme un stroboscope). Tous les joueurs sont unanimes : le résultat est spectaculaire ! Nombreux sont d’ailleurs ceux qui préfèrent l’ULMB au mode G-Sync (ceux qui ont une très bonne configuration sans doute !). Notez que si la réduction de flou fonctionne à 120 Hz chez Nvidia et Eizo, Benq propose également cette option en 100 et 144 Hz.

Cette technologie de réduction de flou a toutefois un défaut. Elle entraîne une baisse plus ou moins prononcée de la luminosité. Par exemple, si - dans les réglages de l’Asus Rog Swift PG278Q - on pousse cette fonction dans ses retranchements, la luminosité chute d’environ 50 % ! De plus, certains utilisateurs très sensibles pourront constater des scintillements, ce qui peut occasionner un mal aux yeux ou au crâne.

Enfin, pour l’instant, il n’est pas possible d’activer les technologies G-sync/FreeSync et ULMB simultanément. Fluidité ou netteté, c’est donc à vous de voir ! L’idéal étant - si votre carte graphique peut constamment afficher 120 images par seconde dans votre jeu préféré - d’activer la V-sync (de préférence en mode Fast chez NVIDIA) et l’ULMB...

Les couleurs : fidèles ?

Bien sûr, si on fait confiance (!) aux fiches techniques présentes sur les sites des constructeurs ou des enseignes de vente en ligne, tous les moniteurs sont merveilleux et ont tous les mêmes performances peu ou prou : luminosité de 300 cd/m2, contraste de 1000:1, des angles de vision de 170 degrés et un temps de réponse de 1 ms, etc. En pratique, dans les laboratoires de test, ce n’est pas tout à fait le cas ! Pour le constater, il faut un peu d’équipement et - surtout - un peu de bon sens. Par exemple, il ne faut que quelques secondes pour se rendre compte que si on regarde un écran - de qualité moyenne - de biais, on constate une dégradation plus ou moins nette de la qualité d’affichage. Reste ensuite à mesurer précisément ce phénomène pour classer les écrans des moins performants aux meilleurs dans ce domaine .

La plupart du temps, les mesures sont effectuées en deux temps : sans le moindre réglage tout d’abord, puis après modification des paramètres de l’OSD et calibration avec une sonde (comme la Spyder5Elite de DataColor). Les différents benchs effectués visent à déterminer en particulier les niveaux de contraste et de luminosité de la dalle LCD, qui traduisent sa capacité à afficher des noirs profonds et des blancs lumineux. On évalue également la fidélité des couleurs/des gris, pour savoir si l’écran est en mesure d’afficher les couleurs qui correspondent vraiment à celles envoyées par la source vidéo. C’est particulièrement important (pour les puristes) pour les films, les photos, etc. En revanche, pour les jeux, on peut se permettre d’avoir un affichage où les couleurs “pètent” un peu trop.

Les mesures de l’homogénéité de l’affichage permettent de traquer des défauts de rétroéclairage, en particulier les éventuelles fuites de lumière dans les coins de l’écran. Ce phénomène peut perturber (éclaircir) un affichage sombre dans un film ou un jeu. Il a été repéré par exemple sur les dalles IPS 34 pouces au format 21/9 des moniteurs AOC u3477PQU et LG 34UM95.

Rapidité et retard

Comme le temps de réponse est quasiment toujours largement minimisé par les constructeurs, il convient de déterminer la valeur réelle par une autre série de tests. Rappelons qu’il s’agit pour schématiser de la vitesse des cristaux liquides. Si elle est trop lente, un effet appelé images fantômes, ou ghosting, apparaît sur les objets en mouvement. Pour les dalles rapides actuelles (120 et 144 Hz), un temps de réponse de moins de 10 ms est nécessaire. Pour accélérer artificiellement la vitesse de réaction des cristaux liquides, les constructeurs offrent parfois la possibilité dans les réglages du moniteur d’activer une fonction appelée overdrive. Attention toutefois, si celle-ci est mal gérée ou trop forte, un autre phénomène nuisible à la qualité d’affichage, le reverse ghosting, prend le relais. Le tout est de savoir si on peut trouver un réglage minimisant les deux phénomènes.


Enfin, les joueurs doivent tenir compte de l’input lag de leur prochain moniteur. Il s’agit du décalage entre le moment où le moniteur reçoit une image et celui où il l’affiche. S'il est mesuré à moins de 10-15 ms, c’est parfait pour les pros de la gâchette qui ont des réflexes dignes de Flash et qui ne veulent pas négliger le moindre détail pour “headshooter” leurs adversaires. Entre 15 et 30 ms, cela reste bon pour les joueurs avertis (même pour les jeux de type FPS). Au-delà de 30 ms, l’écran s’adresse plutôt aux joueurs occasionnels ou à ceux qui préfèrent d’autres types de jeux, comme World of Tank, Heathstone, DiRT, etc.

Posez une question dans la catégorie Les news : vos réactions du forum
Cette page n'accepte plus de commentaires
6 commentaires
Commenter depuis le forum
    Votre commentaire
  • AccroPC2
    Perso je serai plutôt interessé par du 27 QHD du coup le seul que vous recommandez est à 750€, je pense qu'il y a forcément qq modèles intéressants à des prix plus abordables.
  • Volred
    Le pg279q est le meilleur moniteur actuellement
  • AccroPC2
    Anonymous a dit :
    Le pg279q est le meilleur moniteur actuellement

    a 750 boules manquerait plus que ça soit une m****
  • wazarf
    pour avoir fait l'acquisition d'un 32" acer avec dalle va, je rassure les futurs acheteurs, c'est parfait pour jouer et on ne constate pas de lag input ou autre. Donc l'époque ou le VA était à éviter pour les joueurs est révolue ou en tout cas la diff TN/VA/IPS n'est plus aussi marquée qu'avant.
    Par contre j'ai redécouvert les couleurs et les contrastes après 20 ans sur des LCD TN !
  • tokyoquasar
    Ou je suis (au Japon) le type de dalle est souvent affiche en magasin, et les japonais ne jurent que par l'IPS. A une epoque ils ne juraient que pour les dalles brillantes mais c'est un peu moins le cas maintenant j'ai l'impression.