Se connecter avec
S'enregistrer | Connectez-vous

Faut-il s’inquiéter de l’input lag ?

Cartes graphiques : déboulonnons les mythes !
Par

Mythe : les cartes graphiques influent sur l’input lag

Imaginons que l’on se fasse abattre dans un FPS multijoueur avant même d’avoir pu réagir. Soit l’on n’est pas au niveau, soit les adversaires trichent, soit un autre problème se manifeste.

Au-delà de la tricherie, occasionnelle mais bien réelle, il est bien possible que des réflexes apparaissant comme surhumains soient dus à la technologie, ne serait-ce que partiellement. La carte graphique n’a peut-être quasiment rien à voir avec ces réflexes.

Il existe nécessairement un décalage entre ce qui se produit dans un jeu et ce qui est affiché à l’écran. De même, personne ne réagit de façon instantanée, tout comme clavier et souris nécessitent un temps de traitement. Ce dernier est quelque peu improprement appelé input lag : si l’on active la commande de tir dans un FPS et que l’arme ne s’active que 0,1 seconde plus tard, l’input lag effectif est alors de 100 millisecondes.

Naturellement, nous ne sommes pas tous égaux en matière de temps de réaction. D’après une étude menée par l’U.S. Navy en 1986, un pilote de F-14 met en moyenne 223 ms à réagit à un stimulus visuel. Bien que l’on puisse penser le contraire, l’Homme réagit plus rapidement aux stimulations auditives : la moyenne se situe aux alentours de 150 ms.

Chacun peut s’amuser à tester ses propres réactions grâce à un test visuel, ainsi qu’un test auditif.

Fort heureusement, aussi mal configuré qu’un PC puisse être, on n’atteindra probablement pas 200 ms d’input lag. Autrement dit, ce sont les temps de réaction de l’utilisateur qui priment avant tout.

Ceci étant dit, plus l’input lag augmente et plus l’expérience de jeu est modifiée. Imaginons un joueur professionnel avec un temps de réaction comparable à ceux des meilleurs pilotes de l’étude ci-dessus, c’est-à-dire 150 ms. L’ajout de 50 ms d’input lag se traduit par des réflexes ralentis de 30 % (soit quatre images par seconde sur un écran 60 Hz) par rapport à un rival ne souffrant pas du tout d’input lag. Au niveau professionnel, cet écart est considérable.

Pour le commun des mortels (y compris la rédaction, aux alentours de 200 ms sur le test visuel mentionné plus haut) et pour chacun d’entre nous préférant jouer à Civilization V de temps en temps plutôt que participer à des tournois de Counter Strike 1.6, le constat est radicalement différent. Dans la majorité des cas, on peut tout simplement ignorer l’input lag.

Ceci étant dit, voici les circonstances aggravantes en termes d’input lag :

  • Jouer sur un TV HD (a fortiori dans un mode autre que « jeux ») ou tout autre écran LCD effectuant un quelconque traitement vidéo qui ne peut être contourné. La base de données de Display Lag est particulièrement bien fournie à ce sujet.
  • Jouer sur des écrans LCD à dalle IPS (temps de réponse allant généralement de 5 à 7 ms en gris à gris), plutôt que TN+Film (1 à 2 ms GTG pour les meilleurs) ou moniteur CRT (ce qui se fait de mieux en la matière).
  • Jouer sur un écran ayant une fréquence de rafraîchissement inférieure ou égale à 60 Hz : les meilleurs écrans gamer sont à 120/144 Hz
  • Avoir un faible débit d’ips : 30 ips correspond à une image toutes les 33 ms ; 144 ips correspond à une image toutes les 7 ms
  • Utiliser une souris lente à échanger sa position avec l’unité centrale. Les 125 Hz par défaut se traduisent par un cycle de 6 ms environ, soit un input lag de ~3 ms en moyenne. Une souris gamer peut atteindre les 1000 Hz, ce qui correspond à un input lag de ~0,5 ms en moyenne.
  • Utiliser un clavier peu réactif (l’input lag du au clavier est généralement de 16 ms, mais les mauvais élèves nécessitent plus)
  • Activer la V-sync, a fortiori de concert avec le triple buffering (contrairement à ce que l’on peut parfois lire ici ou là, Direct3D propose bel et bien plusieurs mises en tampon, mais peu de jeux utilisent cette possibilité).
  • Jouer avec un nombre d’images pré-rendues élevé. La valeur par défaut est de trois images pour Direct3D, ou 48 ms à 60 Hz. Cette valeur peut être augmentée jusqu’à 20 pour une « meilleure fluidité » ou encore abaissée jusqu’à 1 pour une plus grande réactivité contrebalancée par une variance interimages plus prononcée et parfois, une baisse du nombre d’ips. Précisons qu’il n’existe pas de valeur nulle : le fait de renter 0 ne fait que rétablir la valeur par défaut (3).
  • Jouer avec une connexion internet souffrant d’une latence importante. Bien que cette notion aille au-delà de ce que l’on peut définir comme étant l’input lag, elle a pour effet de s’additionner à l’input lag.


En revanche, d’autres facteurs n’engendrent aucune différence :

  • Utiliser un clavier PS/2 plutôt qu’USB (cf. notre comparatif de claviers mécaniques)
  • Utiliser une connexion Wi-Fi ou Ethernet (il suffit de tester son propre routeur pour s’en rendre compte : le ping devrait être inférieur à 1 ms dans tous les cas)
  • Utiliser un SLI ou CrossFire. Ces technologies ont beau nécessiter un nombre d’images pré-rendues plus élevé qu’avec une seule carte, leur débit d’image bien plus élevé tend à compenser.

L’Input lag n’a donc d’importance que pour les jeux diffusés sur Twitch et ne se révèle primordial qu’en situation de jeu très compétitif.

La notion d’input lag ne se limite pas à l’écran ou à la carte graphique : le reste des composants, réglages matériels, réglages de l’écran et des programmes influent également sur cette mesure.

Interroger un expert

Votre question aux experts de la catégorie Les news : vos réactions du forum

Exemple : Android, ordinateur portable, usb, disque dur

Afficher les 9 commentaires.
Cette page n'accepte plus de commentaires
  • grosloulou , 24 février 2014 09:01
    Article des plus intéressants mais ne donnant finalement qu'une appréciation parcellaire de l'intérêt d'une carte graphique haut de gamme sous WINDOWS. Avec l'évolution actuelle des équipements et des marchés est-il encore véritablement intéressant de se cantonner à cette formule alors que tout tend à laisser penser qu'à terme les développeurs seront de plus en plus enclins à passer à OpenGL plutôt que DirectX et que des nouveautés comme Mantle risquent elles mêmes de ringardiser les chipsets refroidis artificiellement.?
  • Dejy , 24 février 2014 10:41
    Au delà des chiffres et des millisecondes, la seule chose qui compte est la perception ressentie, vitesse et qualité d'image. Le gamer pro est une exception.Moi, 25fps (comme la télé ou le cinéma) me suffisent. Mon "vieux" I7 860 et une GTX660 me permettent même de la 3D sur un écran 24".
  • Johan_et_Pirlouit , 24 février 2014 14:15
    Citation :
    [...] et que des nouveautés comme Mantle risquent elles mêmes de ringardiser les chipsets refroidis artificiellement.?

    Pour Mantle :
    1. C'est AMD et ce n'est pas une bonne nouvelle ces temps-ci.
    2. Ça n'est pas encore sorti et même déjà repoussé. On risque donc d'attendre encore un peu. Si AMD ne change pas encore de concept entre temps...
    3. Ça fonctionnera, peut-être un jour, si et seulement si AMD fait un environnement correct ET fonctionnel. On en est loin et ce n'est pas forcément dans les habitudes d'AMD de faire vite ET bien côté logiciel.
    Sinon, je plussoie : le concept semble prometteur...
  • c_planet , 24 février 2014 17:04
    pourquoi parler de mythe avec les cg 2go > 1go et démontrer qu'il y a bien une réelle différence ?? où est le mythe, où est le déboulonnage ?
  • fitfat , 24 février 2014 17:22
    c_planet>Le mythe est de croire qu'une GTX770 2Go est moins performante qu'une GTX760 4Go pasqu'elle a 2Go de moins.
  • CR77 , 24 février 2014 21:03
    "le nombre d’ips affichées à l’écran ne cesse de varier sur la base de multiples entiers de la fréquence de l’écran (60, 30, 20, 15 ips et ainsi de suite), provoquant ainsi des saccades (stutter)."Outre d'être illogique, cette explication du V-Sync me semble exactement contredire le graphique qui illustre ce qu'est le 'stutter'. Quand le V-Sync est activé il n'y a à ma connaissance pas d'alignement sur un multiple de quoique ce soit (sauf si nous considérons les multiples entiers de 1).Quand l'image est prête dans le buffer et qu'un scan d'écran débute alors le buffer est envoyé à l'affichage. Puis l'image suivante commence à être préparée dans un 2ème buffer et ainsi de suite en alternant d'un buffer à l'autre (ou en copiant rapidement).Par conséquent une même image peut être affichée sur plusieurs scans si la vitesse de rendu est inférieure à la fréquence de l'écran. Ce qui ne signifie aucunement que c'est divisé par un ratio fixe.
  • fitfat , 25 février 2014 09:48
    CR77>Si tu envois 1 images à 2 scans, ramené à 60 scans par seconde, tu as 30 images sur 60 scans par seconde. Donc 30 images par seconde.Si tu envois 1 images à 3 scans, ramené à 60 scans par seconde, tu as 20 images sur 60 scan par seconde. Donc 20 images par seconde.
  • ender91 , 26 février 2014 00:21
    "la valeur 50 dB est donc deux fois plus bruyante que 40 dB"

    Normalement on double le volume tous les 3 dB, 10 dB équivalent à une multiplication par 10 du niveau sonore.
  • fitfat , 26 février 2014 09:51
    C'est pas la même chose. La pression acoustique double tous les 3 dB. En revanche on perçoit un son comme 2 fois plus bruyant qu'un autre quand ils ont une différence de pression d'environ 10dB.