Guide d'achat : quel écran choisir ?

Comme Morpheus l’expliquait à Neo “The body cannot live without the mind”. Il aurait pu ajouter “The PC is nothing without the monitor”. Et il aurait eu bien raison ! Car c’est bien sûr cet élément essentiel du PC (comme du portable gamer du reste) qui au final vous fait vivre diverses émotions, lorsque regardez des photos de famille, visionnez un film ou jouez. Si la technologie LCD a apporté un bien meilleur confort visuel par rapport aux moniteurs à tube cathodique que l’on trouvait dans les rédactions dans le milieu des années 1990, il convient néanmoins de choisir sagement. Car l’offre est en train de se diversifier à grande vitesse, ce qui peut dérouter les moins avertis d’entre nous.

En effet, ces trois dernières années, les nouveautés ont été nombreuses. Tout d’abord, les moniteurs QHD, ayant une résolution quatre fois supérieure au mode HD de base (1280 x 720 pixels), soit 2560 x 1440 pixels, sont de plus en plus nombreux, tandis que les modèles 4K affichant 3840 x 2160 pixels ont fait leur apparition. D’autre part, les écrans au format 21/9 se sont installés dans les catalogues des constructeurs, en compléments des traditionnels modèles 16/10 et 16/9. Enfin, on a vu arriver plusieurs technologies (144 Hz, G-sync, ULMB etc.) visant à booster la fluidité et la netteté des animations vidéo.

Bref, c’est le moment de faire le point sur toutes les technologies que vous allez croiser dans les prochains mois dans les fiches techniques des constructeurs et de revenir sur les critères à prendre en compte lorsqu’il sera temps de remplacer votre fidèle 22 pouces. Et pour vous faciliter la tâche, nous avons sélectionné les meilleurs modèles dans les trois domaines où les choses ont beaucoup bougé ces derniers mois : le jeu, le multimédia et - pour les heureux possesseurs d’une configuration surpuissante - la 4K

Pour arriver à cette sélection, nous avons impitoyablement traqué - pour chaque modèle potentiellement intéressant - le moindre signe de faiblesse dans tous les tests effectués en France (Tom’s Hardware, Les Numériques, 01net, etc.) et à l’étranger (Expertreviews, Digitaltrends, Displaylag, Trustedreviews, etc.). Les nombreux forums n’ont pas échappé à notre attention, afin de repérer d’éventuels problèmes d’ergonomie ou de fiabilité.

Si les modèles retenus sont de marque Asus, Acer, AOC, Benq et Iiyama, on trouve bien sur d’autres bons moniteurs chez Eizo, Philips, LG, Dell, Samsung ou encore Viewsonic. Ces derniers sont parfois plus modestes pour une utilisation bureautique plus basique, ou au contraire destinés à une utilisation professionnelle (PAO, CAD, etc.).

Consultez également nos autres guides d'achats orientés jeux :

Notre sélection :


T’as la (bonne) dalle ?

Un bon moniteur (qui obtient de bons résultats aux benchmarks de la presse spécialisée) n’est pas forcément à jeter à la poubelle sous prétexte qu’il est équipé d’une dalle brillante. Cela dépend de l’endroit dans lequel vous allez l’installer. Si vous l’utilisez sur un bureau et que derrière vous se trouve une fenêtre ou un éclairage, alors vous pourrez effectivement être gênés par le reflet de votre environnement à l’écran. Mais si votre moniteur est placé de façon à “tourner le dos” aux sources lumineuses, alors une dalle matte n’est pas indispensable.

La technologie de la dalle LCD peut quant à elle avoir son importance, en fonction de l’usage que vous faites de votre machine. Si vous passez beaucoup de temps à jouer en team en réseau, alors l’excellente réactivité et le faible input lag (retard d’affichage) des dalles TN (Twisted Nematic) est le choix qui s’impose à l’heure actuelle. Cette technologie offre en outre une haute luminosité. Et comme sa fabrication est maîtrisée par les constructeurs, elle permet d’obtenir des moniteurs très abordables et néanmoins performants, à l’image du Samsung S24D300H (140 € chez Amazon), un modèle 24 pouces, Full HD et offrant une réactivité exemplaire pour les joueurs (moins de 10 ms). La technologie TN a toutefois quelques inconvénients : taux de contraste faiblard, couleurs plus ou moins fidèles et des angles de vision limités, surtout verticalement. Ainsi, par exemple, quand on est debout devant l’écran équipé d’une dalle TN et qu’on regarde l’image de haut en bas, on va constater une nette baisse de la luminosité qui dégrade l’affichage.

Pour les dalles IPS (In Plane Switching), c’est tout le contraire ! En effet, c’est la technologie qui procure (la plupart du temps) les plus belles couleurs, avec de larges angles de vision et de bons contrastes. Mais sa réactivité est un peu moins bonne que celle du TN. Sachez également que certains moniteurs sont équipés d’une dalle PLS, qui n’est autre qu’une dalle IPS à la sauce Samsung.

Enfin, on trouve également des moniteurs équipés d’une dalle de type VA (Vertical Alignment), ou de l’une de ses déclinaisons : MVA (Multi domain VA), A-MVA (Advanced MVA), comme l’excellent 32 pouces Benq BL3200PT, et PVA (Patterned VA). Cette technologie dispense les meilleurs noirs et les plus grands taux de contraste. Pour ce qui est des couleurs, on se situe entre TN et IPS. Les angles de vision sont aussi assez larges. Mais, le temps de réponse des moniteurs VA n’est généralement pas terrible, et donc pas recommandé pour les joueurs exigeants.

Quant à l’OLED, ça serait la solution ultime pour un grand nombre d’utilisateurs, avec les plus belles couleurs, des noirs parfaits, une réactivité à toute épreuve et les meilleurs angles de vision. Le rêve ! Mais il s’agit d’une technologie qui arrive tout juste sur les TV. Et encore, un peu poussivement, car ses coûts de fabrication sont trop élevés, ce qui refroidit les ardeurs des autres grands constructeurs (Samsung, Sony, Panasonic, etc.) qui ne se risquent pas encore à suivre LG sur ce marché. Du coup, l’OLED a du mal à s’imposer face aux meilleures TV LCD / LED. Mais si vous voulez bénéficier de la qualité OLED en jouant sur la TV LG 55EA970, elle est disponible à 2000 € à la Fnac. Bref, son arrivée sur les moniteurs n’est pas prévue dans un futur proche.

Peut-être sera-ce une autre nouvelle technologie, comme les dalles MEMS (micro-electro-mechanical system), qui viendra jouer les trouble-fêtes, en proposant un affichage de qualité équivalente, super lumineux, avec des couleurs exceptionnelles, tout en consommant moins d’énergie (six fois moins qu’une dalle LCD !).

Le principe d’une dalle MEMS est assez simple : un rétro éclairage émet des impulsions successivement rouges, vertes et bleues tandis que les fameux MEMS (un par pixel) agissent comme des obturateurs microscopiques et ultra rapides pour laisser passer la juste quantité de lumière de chaque teinte afin de former - par superposition - les points colorés (c’est le cerveau qui combine les couleurs primaires). Plus de cristaux liquides et plus besoin de sous-pixels avec des filtres colorés qui absorbaient une grande partie de la lumière. Résultat, le rétro éclairage peut être moins puissant pour obtenir la même luminosité. Sharp a mis au point une tablette de 7 pouces utilisant cette technologie, combinée à des composants de type IGZO (Indium, Gallium, Zinc, Oxygen) et qui sera commercialisée au Japon dans la première moitié de l’année 2015. Verra-t-on les premiers moniteurs 22 ou 24 pouces MEMS en 2016 ? L’espoir fait vivre.

Full HD ou 4K, c’est la carte graphique qui décide

La définition Full HD (1920 x 1080 pixels) s’est établie comme standard de fait depuis plusieurs années, aussi bien sur les moniteurs que sur les TV au format 16/9. La plupart des cartes graphiques vendues entre 100 et 150 euros ont suffisamment de puissance pour tenir des bonnes cadences (entre 60 et 100 images par secondes) dans ce mode. On la trouve sur la plupart des moniteurs jusqu’à 24 pouces.


Toutefois, comme le montre notre sélection, de plus en plus de moniteurs de grande taille (27 pouces) supportent une définition 2560 x 1440 pixels (toujours au format 16/9), aussi appelé “QHD” (quatre fois la définition HD de 1280 x 720 pixels). Un gain de précision que peuvent désormais se permettre un grand nombre de cartes graphiques de moyen de gamme.

A fortiori, ces dernières n’ont pas trop de mal non plus à tenir de bonnes cadences d’affichage avec les grands écrans au format 21/9 (ou Wide Full HD) qui affichent une définition de 2560 x 1080 pixels. Avec ce format original, extra large, c’est presque comme si on dispose de deux écrans posés l'un à côté de l’autre ! Presque seulement, car on ne dispose que de 640 pixels de plus horizontalement. C’est toutefois suffisant pour afficher deux applications en même temps, ce qui souvent très pratique. D’autre part, ce ratio hauteur/largeur est particulièrement adapté à la plupart des films récents, qui peuvent alors être vus sans les sempiternelles bandes noires, au dessus et en dessous de l’image, qu’on voit sur une TV ou un moniteur 16/9. Le film occupe tout l’écran sans déformation d’image. En revanche, les films en 16/9 sont affichés sur la totalité de la hauteur de l’écran mais avec des bandes noires sur les côtés.

Pour les deux derniers modes graphiques, la carte graphique doit avoir une ou deux puces graphiques très performantes. Le premier affiche 3440 x 1440 pixels (Wide QHD), au format 21/9, comme c’est le cas sur le moniteur AOC que nous avons retenu ou sur le LG 34UM95, un modèle 34 pouces IPS.

Le second n’est autre que la définition 4K (3840 x 2160 pixels), qui a tant fait couler d’encre depuis deux ans. Actuellement, seule l’interface Display Port 1.2 peut exploiter ce mode avec une fréquence de 60 Hz. Le bon vieux HDMI 1.4 passe la main en 4K, limité à 30 images par seconde. Si cela est suffisant pour regarder des films, il en va autrement pour les jeux. A la différence des TV 4K, les moniteurs ne sont pas encore équipés de connecteurs HDMI 2.0 (la situation devrait toutefois évoluer très rapidement). Ce qui est bien dommage, car Nvidia y est passé. Certes, seulement sur leur modèles haut de gamme pour l’instant (GeForce GTX 970 et 980). Mais c’est plutôt normal car il faut une grande puissance de calcul pour manipuler les quelques 8,3 millions de pixels !

Avec une seule carte graphique haut de gamme, les différentes mesures effectuées dans les laboratoire de tests montrent qu’on atteint entre 30 et 37 images par seconde. Un duo de GPU est nécessaire pour atteindre 60 images par seconde (et plus en fonction des jeux).

Et comme quelques petits graphes valent toujours mieux qu’un long discours :

Fréquence : jusqu’où s’arrêteront-ils ?

Quasiment tous les moniteurs sont conçus pour fonctionner au minimum en 60 Hz, quelle que soit leur taille et leur définition. C’est la fréquence “traditionnelle” des moniteurs LCD. En 2009, le mode 120 Hz est apparu, quand la 3D a fait un entrée spectaculaire grâce à la technologie 3DVision de Nvidia. Fin 2010, ce fut au tour d’AMD de rentrer dans la troisième dimension. Dans un premier temps réservé à l’affichage 3D, le mode 120 Hz a été ensuite exploité pour la 2D, afin d’améliorer sensiblement la fluidité des animations graphiques, pour le plus grand plaisir des joueurs. Aujourd’hui, le haut du pavé est occupé par les moniteurs équipés d’une dalle pouvant fonctionner en 144 Hz. Est-ce vraiment mieux que le 120 Hz ? Les réponses varient en fonction des joueurs !  Pour les uns, cette fonction est indispensable. Les autres ne voient pas vraiment la différence avec le mode 120Hz. De notre côté, nous aurions tendance à penser que la différence entre 120 et 144 Hz est quasi imperceptible pour la grande majorité des joueurs.La course à la fréquence la plus élevée est-elle (déjà) terminée ? Ou va-t-on nous sortir des moniteurs à 180 ou 240 Hz ? En tout cas, une chose est sure : avant d’investir dans un moniteur 144 Hz, il est préférable de s’assurer que votre carte graphique suive le rythme, sans qu’il soit nécessaire de baisser le niveau de détail graphique au minimum dans les jeux (ça serait un comble !).

La dernière innovation en date en matière de fréquence de fonctionnement de l’écran n’est autre que la fréquence variable. Avec cette technologie, signée Nvidia et appelée G-sync, ce n’est plus la carte graphique qui se synchronise avec l’écran (ce qui est le cas quand on active l’option V-sync), c’est l’écran qui s’adapte au frame rate délivré par la carte graphique (qui rappelons le est variable en fonction de la complexité de la scène graphique affichée). La fonction G-Sync fonctionne exclusivement avec une carte Nvidia (GeForce GTX 650 Ti Boost ou supérieure), jusqu’en 144 Hz et uniquement avec une connexion Display Port.

Son but est double. Tout d’abord, éliminer les effets de déchirements de l’image, qui apparaissent souvent quand on n’active pas l’option V-sync dans les jeux. Ensuite, en finir avec l’input lag qui survient quand on active cette même synchronisation verticale, solution jusqu’alors utilisée pour supprimer le déchirement d’image. En plus, dans ce dernier cas de figure (V-sync activée), des micro saccades faisaient également leur apparition dans les animations si la carte graphique n’arrivait pas à délivrer constamment 60, 120 ou 144 images par seconde. Au final, avec la technologie G-sync, quelles que soient les performances de votre carte graphique, l’affichage demeure optimisé. Les différents témoignages font état de performances très satisfaisantes, avec des animations fluides à souhait, dès 40-45 images par secondes.

AMD, de son côté prépare une technologie équivalente à G-sync, appelée FreeSync, que l’on devrait voir arriver sur les moniteurs dans la première moitié de l’année 2015. Et elle devrait être réservée aux possesseurs d’une carte graphique AMD. Seule inconnue : ses performances. Wait & see !

Si la hausse des fréquences des moniteurs a permis d’obtenir des animations plus fluides, les effets de flou sur les objets qui se déplacent rapidement horizontalement n’étaient plus supportables par les joueurs. Les constructeurs ont alors mis au point des techniques dites de “réduction de Blur”. Elles sont appelées ULMB chez Nvidia (et LightBoost pour la 3D), Turbo 240 chez Eizo (sur l’excellent Eizo Foris FG2421) ou encore plus sobrement Blur Reduction chez Benq. Une fois activées, ces technologies opèrent de la même façon : insérer une images noire entre deux images envoyées par la carte graphique, en éteignant très rapidement le rétro éclairage (comme un stroboscope). Et tous les joueurs sont unanimes : le résultat est spectaculaire ! Nombreux sont d’ailleurs ceux qui préfèrent l’ULMB au mode G-Sync (ceux qui ont une très bonne configuration sans doute !). Notez que si la réduction de blur fonctionne à 120 Hz chez Nvidia et Eizo, Benq propose également cette option en 100 et 144 Hz.

Cette technologie de réduction de flou a toutefois un défaut. En effet, elle entraîne une baisse plus ou moins prononcée de la luminosité. Par exemple, si - dans les réglages de l’Asus Rog Swift PG278Q - on pousse cette fonction dans ses retranchements, la luminosité chute d’environ 50 % ! De plus, certains utilisateurs très sensibles pourront constater des scintillements, ce qui peut occasionner un mal aux yeux ou au crâne.

Enfin, pour l’instant, il n’est pas possible d’activer les technologies G-sync et ULMB simultanément, et c’est bien dommage. Fluidité ou netteté, c’est donc à vous de voir ! L’idéal étant - si votre carte graphique peut constamment afficher 120 images par seconde dans votre jeu préféré - d’activer la V-sync et l’ULMB...

Interfaces : avantage au Display Port

L’examen des fiches techniques est formel, le port VGA est en voie de disparition. Ce n’est pas vraiment une catastrophe dans la mesure ou des adaptateurs permettent de brancher une sortie VGA sur de l’HDMI ou du DVI.

L’interface DVI, quant à elle, a la peau dure ! C’est sans doute parce qu’elle peut - comme le Display Port - fonctionner en Full HD et en 144 Hz. En revanche, si on passe à la taille d’écran au dessus et qu’on désire utiliser le mode QHD (2560 x 1440 pixels), il faut se contenter d’une fréquence de 60 Hz. La plupart des moniteurs à l’heure actuelle, à l’instar de ceux que nous avons sélectionné, sont munis d’une entrée DVI-D DL (Digital Dual Link), la plus évoluée.L’interface HDMI (la version 1.4 est la seule présente à l’heure actuelle sur les moniteurs) permet d’atteindre une fréquence de 120 Hz maximum en Full HD, de 60 Hz en 2560 x 1600 et 30 Hz seulement en 4K. Certains connecteurs HDMI sont compatibles MHL (Mobile High-Definition Link) et permettent de brancher un smartphone au moniteur, en utilisant un câble micro USB - HDMI.

Pour les modes graphiques extrêmes, comme 3440 x 1440 pixels ou la 4K (3840 x 2160 pixels), il faut passer par l’interface Display port 1.2, qui offre la bande passante la plus élevée. Dans les deux cas, elle fonctionne en 60 Hz. Elle peut toutefois monter à 120 Hz en 2560 x 1440 pixels. Certains moniteurs, comme l’Asus Rog Swift ou l’Acer XB280HK ne possèdent que cette interface, ce qui est un dommage, car cela oblige des manipulations si on désire les raccorder à plusieurs appareils. Si ces derniers n’ont pas de sortie DisplayPort, rien n’est perdu, car des adaptateurs HDMI vers DisplayPort existent, permettant de raccorder par exemple une console. Certes, ils coûtent assez cher (50 € chez Lindy), mais c’est mieux que rien ! 

Les prises HDMI 2.0, déjà présentes sur les dernières TV haut de gamme, vient pour leur part d’arriver sur les cartes graphiques Nvidia GeForce GTX 970 et 980 et vont débarquer sur les moniteurs dans les prochaines semaines, par exemple sur les Acer H257HU (un 25 pouces QHD et IPS) et S277HK (un 27 pouces 4K également IPS). A l’instar du connecteur Display Port 1.2, le HDMI 2.0 permettra d’exploiter le mode 3840 x 2160 pixels en 60 images par seconde.

Autre interface très répandue sur les moniteurs : l’USB. C’est toujours pratique si votre machine n’est pas très bien lotie en la matière. Ces connecteurs sont généralement au nombre de 2 ou 4 et l’USB 3.0 a tendance - c’est bien normal - à supplanter l’USB 2.0. Bon point, on voit maintenant apparaître des ports USB jaunes (quick charge), qui restent alimentés même si le moniteur est éteint. Pratique pour recharger la batterie d’un smartphone ou d’une tablette à tout moment.

La plupart des moniteurs sont également équipés d’une entrée audio (jack 3,5 mm) et de haut-parleurs. Toutefois, en entendant les performances de ces derniers, on ne peut pas s'empêcher de penser que le constructeurs auraient pu s’en passer. Tous les efforts, aussi louables soient-ils, ne peuvent aller à l’encontre d’une réalité : le manque de place ne permet pas l’intégration de composants audio de qualité suffisante pour obtenir un son riche, puissant, ample avec des basses prononcées. Le moindre petit kit d’enceintes stéréo délivre à coup sur de meilleures performances (surtout le Bose Companion 5... bon, ok, on n’est pas obligé de débourser 400 € !).

Au chapitre des raretés, signalons la présence sur quelques rares moniteurs, comme le LG 34UM95 de connecteurs Thunderbolt. Ils sont indispensables si on travaille avec un Mac Book ou un Mac Pro et qu’on n’a pas peur de froisser Apple en branchant sa divine bécane à un vulgaire écran lambda (comprendre un autre écran que le merveilleux, l’époustouflant, le génialissime 27 pouce QHD Thunderbolt d’Apple, qui - ô joie ultime - n’est proposé qu’au prix ridicule de 1000 €.

Enfin, le tout récemment annoncé BL3200PT de Benq va même pour la première fois intégrer un lecteur de cartes mémoire SD, ce qui est une bonne idée (qui arrive un peu tard d’ailleurs).

Performances : la vérité est ailleurs

Bien sur, si on fait confiance (!) aux fiches techniques présentes sur les sites des constructeurs ou des enseignes de vente en ligne, tous les moniteurs sont merveilleux et ont tous - comme chez jacques Martin - les mêmes performances peu ou prou : luminosité de 300 cd/m2, contraste de 1000:1, des angles de vision de 170 degrés et un temps de réponse de 1 ms, etc. En pratique, dans les laboratoires de test, ce n’est pas tout à fait le cas bien sur ! Et pour le constater, il faut un peu d’équipement et - surtout - un peu de bon sens. Par exemple, il ne faut que quelques secondes pour se rendre compte que si on regarde un écran - de qualité moyenne - de biais, on constate une dégradation plus ou moins nette de la qualité d’affichage. Reste ensuite à mesurer précisément ce phénomène pour classer les écrans des moins performants dans ce domaine aux meilleurs.

La plupart du temps, les mesures sont effectuées en deux temps : sans le moindre réglage tout d’abord, puis après modification des paramètres de l’OSD et calibration avec une sonde (comme la i1 Display Pro du constructeur X-Rite - vendue environ 200 €). Les différents benchs effectués visent à déterminer en particulier les niveaux de contraste et de luminosité de la dalle LCD, qui traduisent sa capacité à afficher des noirs profonds et des blancs lumineux. On évalue également la fidélité des couleurs/des gris, pour savoir si l’écran est en mesure d’afficher les couleurs qui correspondent vraiment à celles envoyées par la source vidéo. C’est particulièrement important (pour les puristes) pour les films, les photos, etc. En revanche, pour les jeux, on peut se permettre d’avoir un affichage où les couleurs “pètent” un peu trop.

Les mesures de l’homogénéité de l’affichage permettent de traquer des défauts de rétro éclairage, en particulier les éventuelles fuites de lumière dans les coins de l’écran généralement. Ce phénomène peut perturber (éclaircir) un affichage sombre dans un film ou un jeu. Il a été repéré par exemple sur les dalles IPS 34 pouces au format 21/9 des moniteurs AOC u3477Pqu et LG 34UM95.

Comme le temps de réponse est quasiment toujours largement minimisé par les constructeurs, il convient de déterminer la valeur réelle par une autre série de tests. Rappelons qu’il s’agit pour schématiser de la vitesse des cristaux liquides. Si elle est trop lente, un effet appelé images fantômes, ou ghosting, apparaît sur les objets en mouvement. Pour les dalles rapides actuelles (120 et 144 Hz), un temps de réponse de moins de 10 ms est nécessaire. Pour accélérer artificiellement la vitesse de réaction des cristaux liquides, les constructeurs offrent parfois la possibilité dans les réglages du moniteur d’activer une fonction appelée overdrive. Attention toutefois, si celle-ci est mal gérée ou trop forte, un autre phénomène nuisible à la qualité d’affichage, le reverse ghosting, prend le relais. Le tout est de savoir si on peut trouver un réglage minimisant les deux phénomènes.

Enfin, les joueurs doivent tenir compte de l’input lag de leur prochain moniteur. Pour résumer, il s’agit du décalage entre le moment où le moniteur reçoit une image et celui où il l’affiche. Si il mesuré à moins de 10-15 ms, c’est parfait pour les pros de la gâchette qui ont des réflexes dignes de Flash et qui ne veulent pas négliger le moindre détail pour “head shooter” leurs adversaires. Entre 15 et 30 ms, cela reste bon pour les joueurs avertis (même pour les jeux de type FPS). Au-delà de 30 ms, l’écran s’adresse plutôt aux joueurs occasionnels ou à ceux qui préfèrent d’autres types de jeux, comme World of Tank, Heathstone, DiRT, etc.

Ergonomie : le diable se cache dans les détails

Pour que l’affichage soit optimal, il faut que l’écran soit toujours bien en face de vos yeux, avec des angles de vision horizontaux et verticaux minimum. Pour s’en assurer, le pied du moniteur peut pivoter sur les axes X et Y. Souvent, il autorise également un réglage en hauteur de la dalle LCD, ce qui permet de satisfaire les grands et les petits. De plus en plus souvent, la dalle peut aussi pivoter sur l’axe Z, afin de faire basculer l’affichage en mode portrait. Cela peut s’avérer pratique quand on consulte un site web ou quand on travaille sur de grands documents, par exemple dans Excel.

D’autres détails font que l’ergonomie d’un moniteur est plus ou moins bonne. A commencer par la position des différents connecteurs. Par exemple, des ports USB placés à l’arrière, aux côtés des entrés vidéo, n’est pas pratique, surtout si on jongle régulièrement avec plusieurs appareils. Une disposition judicieuse est, comme l’a fait Acer pour son B296CL, d’avoir deux connecteurs à l’arrière, sur lesquels on peut connecter des périphériques qu’on ne débranche que rarement et deux autres situés sur le côté, plus faciles d’accès.

De la même façon, de la position des touches de réglages du menu OSD dépend la facilité de modifier certains paramètres d’affichage. Celles-ci sont souvent placées derrière l’écran. Résultat, on doit les utiliser à l’aveugle, ce qui entraîne de nombreuses fausses manipulations et qui fait perdre du temps (au début tout du moins). L’idéal est encore de suivre l’exemple de Benq qui a développé un logiciel pour Windows permettant d’effectuer tous les réglages à l’écran à l’aide la souris.


Enfin, il est toujours agréable de se rendre compte que les constructeurs se creusent parfois la tête pour donner pleine et entière satisfaction aux utilisateurs. Passe-câble dans le pied de l’écran, porte casque audio, boîtier de contrôle de la fréquence d’affichage ou capteur de luminosité ambiante (pour moduler celle de l’écran et ainsi réduite fatigue oculaire) sont autant de petits plus qui peuvent faire pencher la balance dans le bon sens.

Posez une question dans la catégorie Les news : vos réactions du forum
Cette page n'accepte plus de commentaires
Soyez le premier à commenter
    Votre commentaire