Jouer en multi-écrans avec une carte graphique à 130 € ?

2 : Paramétrer son trio de moniteurs 3 : Configuration du test 4 : Battlefield 4 5 : Titanfall & Call Of Duty: Black Ops II 6 : Grid 2 & DiRT Showdown 7 : Conclusion

Introduction

Le concept du jeu sur multi-écrans est très simple : trois moniteurs sont reliés côté à côté pour être reconnus comme un seul écran géant afin de bénéficier d’un champ de vision plus important et d’accentuer l’immersion.

Par rapport à un unique moniteur 4K, un trio d’écrans 1080p propose plusieurs avantages : une image qui gagne considérablement en largeur, ce qui correspond au champ visuel humain. D’autre part, trois moniteurs en 1920×1080 reviennent à 6 220 800 pixels soit 25 % de moins qu’un écran 4K (8 294 400 pixels), ce qui se traduit par une charge moins importante sur la carte graphique et donc un meilleur débit d’images. Enfin, on peut s’offrir trois moniteurs 1080p 60 Hz de 20 à 23 pouces pour moins de 400 €. En comparaison, le ticket d’entrée pour une définition 4K se situe aux alentours de 430 euros : on trouve par exemple le Dell P2815Q à ce prix, modèle limité à 30 Hz en définition native que nous avons testé récemment. Accessoirement, une configuration multi-écrans s’avère très pratique en bureautique.

Du côté des inconvénients, il faut prendre en compte le fait que la consommation est triplée ainsi que les contraintes physiques : il faut un bureau capable d’accueillir trois moniteurs et de les positionner correctement. Par ailleurs, tous les jeux ne sont pas nécessairement compatibles avec ce type de configuration. Enfin, certains jugent que le fait d’avoir une telle surface d’affichage tend à détourner l’attention, ce avec quoi nous ne sommes pas d’accord. En bref, les avantages nous semblent prendre le pas sur les inconvénients.

Des cartes graphiques modestes pour jouer en multi-écrans ?

Sachant qu’un trio de moniteurs 1080p revient généralement moins cher qu’un seul écran 4K, nous poursuivons notre approche économique du jeu en multi-écrans avec des cartes graphiques très accessibles.

Gigabyte nous a envoyés deux cartes pour cet article, une Radeon R7 260X et une GeForce GTX 750 Ti. Bien qu’étant toutes deux assez proches sur le plan visuel, on remarque que la Radeon propose un connecteur CrossFire là où la GeForce est dépourvue de connecteur SLI. Par ailleurs, la Radeon  est équipée d’une sortie HDMI et d’un connecteur DisplayPort, tandis que la GTX 750 Ti offre deux ports HDMI (en plus des connecteurs DVI présents sur les deux cartes). Pour le reste, les cartes sont de taille similaire, s’appuient toutes deux sur un PCB bleu caractéristique de la marque tout comme leur dissipateur Windforce.

Proposée à 128 euros, la GeForce GTX 750 Ti embarque 640 CUDA cores et 2 Go de GDDR5 sur un bus mémoire 128 bits. Premier modèle à bénéficier de l’architecture Maxwell, cette carte s’illustre en premier lieu par son excellent rendement, au point que le modèle de référence ne propose pas de connecteur d’alimentation. Le modèle de Gigabyte est cependant équipé d’un connecteur 6 broches qui pourrait s’avérer utile dans une perspective overclocking.

Pour un prix quasiment identique (132 euros), la Radeon R7 260X compte 896 Stream processors et 2 Go de GDDR5 sur un bus également 128 bits.

La technologie multi-écrans s’appelle Surround chez NVIDIA et Eyefinity chez AMD. Toutes deux sont devenues tout à fait fonctionnelles après plusieurs années de maturation, bien que l’Eyefinity soit peut-être un peu plus délicat à configurer (mais aussi plus souple dès lors qu’il s’agit de gérer des moniteurs dont la définition n’est pas identique).

Sommaire :

  1. Introduction
  2. Paramétrer son trio de moniteurs
  3. Configuration du test
  4. Battlefield 4
  5. Titanfall & Call Of Duty: Black Ops II
  6. Grid 2 & DiRT Showdown
  7. Conclusion