Accueil » Comparatif » Guide d’achat : quel écran PC choisir ?

Guide d’achat : quel écran PC choisir ?

1 : Quel moniteur choisir ? 2 : La base : les technos d'affichage 4 : Interfaces et ergonomie

Définitions, fréquences et performances

Définition : attention à la carte graphique !

La définition Full HD (1920 x 1080 pixels) reste la plus utilisées chez les moniteurs depuis plusieurs années, même si les TV sont passées au 4K. La plupart des cartes graphiques vendues entre 100 et 150 euros ont suffisamment de puissance pour tenir des bonnes cadences (entre 60 et 100 images par secondes) dans cette définition, pour peux qu’on réduise parfois les détails.

Toutefois, comme le montre notre sélection, de plus en plus de moniteurs de grande taille (27 pouces) supportent une définition 2560 x 1440 pixels (toujours au format 16/9), aussi appelé “QHD” (quatre fois la définition HD de 1280 x 720 pixels). Un gain de précision que peuvent désormais se permettre un grand nombre de cartes graphiques milieu de gamme.

Image 1 : Guide d'achat : quel écran PC choisir ?

A fortiori, ces dernières n’ont pas trop de mal non plus à tenir de bonnes cadences d’affichage avec les grands écrans au format 21:9 (ou Wide Full HD) qui affichent une définition de 2560 x 1080 pixels. Avec ce format original, extra large, c’est presque comme si on disposait de deux écrans posés l’un à côté de l’autre ! Presque seulement, car on ne dispose que de 640 pixels de plus horizontalement. C’est toutefois suffisant pour afficher deux applications en même temps, ce qui souvent très pratique. D’autre part, ce ratio hauteur/largeur est particulièrement adapté à la plupart des films récents, qui peuvent alors être vus sans les sempiternelles bandes noires, au dessus et en dessous de l’image, qu’on voit sur une TV ou un moniteur 16/9. En revanche, les films en 16/9 sont affichés sur la totalité de la hauteur de l’écran mais avec des bandes noires sur les côtés !

Pour les définitions supérieures, la carte graphique doit avoir une ou deux puces graphiques très performantes.

Image 2 : Guide d'achat : quel écran PC choisir ?

Venons-en à la 4K (3840 x 2160 pixels), la définition qui a tant fait couler d’encre depuis son arrivée. Le bon vieux HDMI 1.4 passe la main en 4K, limité à 30 images par seconde. Mais le HDMI 2.x permet aujourd’hui d’assurer de la 4K à 60 Hz, voire plus. Sur PC, l’interface DisplayPort, à partir de sa révision 1.2, peut afficher en 4K avec une fréquence de 60 Hz.

Notez qu’aujourd’hui, d’autres définition dérivée existent aussi en format 21:9 et même 32:9, du 3440 x 1440 en 34 pouces, jusqu’au 5120 x 1440 pixels en 49 pouces !

Image 3 : Guide d'achat : quel écran PC choisir ?

Avec les dernières cartes graphiques du moment, il est possible de gérer la 4K avec un taux d’images par seconde suffisant dans les jeux. Mais il faudra y mettre le prix. Voici quelques exemples de performances avec les dernières cartes graphiques haut de gamme du moment (graphiques tirés de notre test de la Radeon VII) :

Fréquence : jusqu’où s’arrêteront-ils ?

Tous les moniteurs sont conçus pour fonctionner au minimum en 60 Hz, quelle que soit leur taille et leur définition. C’est la fréquence “traditionnelle” à laquelle les moniteurs LCD rafraîchissent l’image qu’ils affichent. En 2009, le mode 120 Hz est apparu, quand la 3D a fait une entrée spectaculaire grâce à la technologie 3DVision de Nvidia. Fin 2010, ce fut au tour d’AMD de rentrer dans la troisième dimension. Dans un premier temps réservé à l’affichage 3D, le mode 120 Hz a été ensuite exploité pour la 2D, afin d’améliorer sensiblement la fluidité des animations graphiques, pour le plus grand plaisir des joueurs. Aujourd’hui, le haut du pavé est occupé par les moniteurs équipés d’une dalle pouvant fonctionner en 144 Hz, puis 165 Hz, et même 200 et 240 Hz !

Image 8 : Guide d'achat : quel écran PC choisir ?
Photos issues de notre test de l’écran Alienware 25 240 Hz, le plus rapide que nous ayons testé.

Une chose est claire : la différence entre 60 et 120 Hz est vraiment perceptible ! La course à la fréquence la plus élevée est-elle (déjà) terminée ? Ou va-t-on nous sortir des moniteurs à 480 ou 960 Hz ? Quoiqu’il en soit, avant d’investir dans un moniteur 144 Hz, il est préférable de s’assurer que votre carte graphique suive le rythme, sans qu’il soit nécessaire de baisser le niveau de détail graphique au minimum dans les jeux (ça serait un comble !). Mais il faudra aussi que le CPU suive (voir notre comparatif de CPU), afin de ne pas brider la carte graphique ! PC surpuissant exigé !

G-Sync et FreeSync

La dernière innovation en date en matière de fréquence de fonctionnement de l’écran n’est autre que la fréquence variable. Grâce à cette technologie, inaugurée par Nvidia avec G-sync, ce n’est plus la carte graphique qui se synchronise avec l’écran (ce qui est le cas quand on active l’option V-sync), c’est l’écran qui s’adapte au taux d’images par seconde délivré par la carte graphique, qui est variable en fonction de la complexité de la scène graphique affichée. La fonction G-Sync fonctionne exclusivement avec une carte Nvidia (GeForce GTX 650 Ti Boost ou supérieure), jusqu’en 144 Hz et uniquement avec une connexion DisplayPort.

Image 9 : Guide d'achat : quel écran PC choisir ?

Son but est double. Tout d’abord, éliminer les effets de déchirements de l’image, qui apparaissent souvent quand on n’active pas l’option V-sync dans les jeux. Ensuite, en finir avec l’input lag qui survient quand on active cette même synchronisation verticale. En plus, dans ce dernier cas de figure (V-sync activée), des micro saccades faisaient également leur apparition dans les animations si la carte graphique n’arrivait pas à délivrer constamment 60, 120 ou 144 images par seconde. Au final, avec la technologie G-sync, quelles que soient les performances de votre carte graphique, l’affichage demeure optimisé. Les différents témoignages font état de performances très satisfaisantes, notamment avec des animations à 40-45 images par secondes offrant une perception de fluidité améliorée.

AMD, de son côté a lancé un peu après la technologie FreeSync, que l’on voit aujourd’hui dans beaucoup d’écrans. Elle est réservée aux possesseurs d’une carte graphique AMD. Elle est plus ouverte (standard VESA Adaptive-Sync), offre les mêmes avantages que G-Sync et elle permet d’obtenir des écrans moins chers.

Les dernières cartes graphiques NVIDIA sont désormais compatibles avec les écrans FreeSync, via la norme Adaptive-Sync, et même avec les téléviseurs HDMI VRR (certification recommandée) dans un programme G-Sync compatible que nous détaillons dans ce dossier pour tout comprendre !

Image 10 : Guide d'achat : quel écran PC choisir ?

Réduire le flou de mouvement

Si la hausse des fréquences des moniteurs a permis d’obtenir des animations plus fluides et un peu plus nettes, les effets de flou sur les objets qui se déplacent rapidement horizontalement restent assez présents. Les constructeurs ont alors mis au point des techniques dites de « réduction de flou ». Elles sont appelées ULMB chez Nvidia (et LightBoost pour la 3D), Turbo 240 chez Eizo ou encore plus sobrement Blur Reduction chez Benq. Une fois activées, ces technologies opèrent de la même façon : insérer une images noire entre deux images envoyées par la carte graphique, en éteignant très rapidement le rétro éclairage (comme un stroboscope). Tous les joueurs sont unanimes : le résultat est spectaculaire ! Nombreux sont d’ailleurs ceux qui préfèrent l’ULMB au mode G-Sync (ceux qui ont une très bonne configuration sans doute !).

Cette technologie de réduction de flou a toutefois un défaut. Elle entraîne une baisse plus ou moins prononcée de la luminosité. Par exemple, si – dans les réglages de l’Asus Rog Swift PG278Q – on pousse cette fonction dans ses retranchements, la luminosité chute d’environ 50 % ! De plus, certains utilisateurs très sensibles pourront constater des scintillements, ce qui peut occasionner un mal aux yeux ou au crâne.

Image 11 : Guide d'achat : quel écran PC choisir ?

Enfin, il n’est actuellement pas possible d’activer les technologies G-sync/FreeSync et ULMB simultanément. Fluidité ou netteté, c’est donc à vous de voir ! L’idéal étant – si votre carte graphique peut constamment afficher 120 images par seconde dans votre jeu préféré – d’activer la V-sync (de préférence en mode Fast chez NVIDIA) et l’ULMB…

Asus a toutefois réussi ce tour de force en premier, avec une techno ELMB (Extreme Low Motion Blur) faite maison qui permet de synchroniser Adaptive Sync (FreeSync et G-Sync Compatible) avec l’ULMB. Et ça marche plutôt bien, pour preuve : notre test exclusif du premier écran ELMB d’Asus.

Rapidité et retard

Comme le temps de réponse est quasiment toujours largement minimisé par les constructeurs, il convient de déterminer la valeur réelle par une autre série de tests. Rappelons qu’il s’agit pour schématiser de la vitesse des cristaux liquides. Si elle est trop lente, un effet appelé images fantômes, ou ghosting, apparaît sur les objets en mouvement. Il faut alors une valeur minimale. Pour accélérer artificiellement la vitesse de réaction des cristaux liquides, les constructeurs offrent parfois la possibilité dans les réglages du moniteur d’activer une fonction appelée overdrive. Attention toutefois, si celle-ci est mal gérée ou trop forte, un autre phénomène nuisible à la qualité d’affichage, le reverse ghosting, prend le relais. Le tout est de savoir si on peut trouver un réglage minimisant les deux phénomènes.

Image 12 : Guide d'achat : quel écran PC choisir ?

Enfin, les joueurs doivent tenir compte de l’input lag de leur prochain moniteur. Il s’agit du décalage entre le moment où le moniteur reçoit une image et celui où il l’affiche. S’il est mesuré à moins de 10-15 ms, c’est parfait pour les pros de la gâchette. Entre 15 et 30 ms, cela reste acceptable. Au-delà de 30 ms, l’écran s’adresse plutôt aux joueurs occasionnels ou à ceux qui préfèrent d’autres types de jeux qui n’exige pas de réaction rapides.

Les couleurs : fidèles ?

Image 13 : Guide d'achat : quel écran PC choisir ?

Bien sûr, si on fait confiance (!) aux fiches techniques présentes sur les sites des constructeurs ou des enseignes de vente en ligne, tous les moniteurs sont merveilleux et ont tous les mêmes performances peu ou prou : luminosité de 300 cd/m2, contraste de 1000:1, des angles de vision de 170 degrés et un temps de réponse de 1 ms, etc. En pratique, dans les tests, ce n’est pas tout à fait le cas ! Aujourd’hui toutefois, on peut dire que presque tous les moniteurs milieu et haut de gamme offre une fidélité très correcte, les fabricants s’étant bien améliorés dans le domaine.

La plupart du temps, les mesures sont effectuées en deux temps : sans le moindre réglage tout d’abord, puis après modification des paramètres de l’OSD et calibration avec une sonde. Les différents benchs effectués visent à déterminer en particulier les niveaux de contraste et de luminosité de la dalle LCD, qui traduisent sa capacité à afficher des noirs profonds et des blancs lumineux. On évalue également la fidélité des couleurs/des gris, pour savoir si l’écran est en mesure d’afficher les couleurs qui correspondent vraiment à celles envoyées par la source vidéo. C’est particulièrement important (pour les puristes) pour les films, les photos, etc. En revanche, pour les jeux, on peut se permettre d’avoir un affichage où les couleurs “pètent” un peu trop.

Image 14 : Guide d'achat : quel écran PC choisir ?

Les mesures de l’homogénéité de l’affichage permettent de traquer des défauts de rétroéclairage, en particulier les éventuelles fuites de lumière dans les coins de l’écran. Ce phénomène peut perturber (éclaircir) un affichage sombre dans un film ou un jeu. Il a été repéré par exemple sur les dalles IPS 34 pouces au format 21/9 des moniteurs AOC u3477PQU et LG 34UM95.

Sommaire :

  1. Quel moniteur choisir ?
  2. La base : les technos d'affichage
  3. Définitions, fréquences et performances
  4. Interfaces et ergonomie