Quel processeur à moins de 200 € pour jouer en 2013 ?

Un nouveau benchmark, la latence interimages

Comme on aura pu le remarquer aux travers de nos plus récents articles dédiés aux cartes graphiques, nous mettons sur pied un nouveau standard de test permettant d’évaluer les conséquences des variations de latence entre chaque image affichée. Jusqu’ici, le débit d’image moyen exprimé en images par seconde constituait notre base de comparaison pour différencier les cartes. Cependant, notre confrère américain Scott Wasson de The Tech Report a apporté une remarquable démonstration des carences de cette approche : le nombre d’ips moyen ne permet pas de caractériser avec précision l’expérience de jeu perçue sur une configuration donnée.

Nous avons tous entendu parler du phénomène de micro-saccades que l’on associe généralement aux configurations SLI/CrossFire à deux cartes graphiques et plus. Celui-ci se manifeste lorsque le temps qui s’écoule entre chacune des images affichées à l’écran varie : le jeu apparait alors comme haché malgré le fait que l’on soit à 60 ips en moyenne ou plus. Prenons un exemple avec une configuration A et une configuration B. Toutes deux parviennent à 24 ips en moyenne et pourtant, le jeu semble fluide sur A et haché sur B.

Comme on peut le voir sur le graphique ci-dessous : la latence inter-images est régulière sur la configuration A tandis qu’elle ne l’est pas sur la configuration B, ce qui donne une impression de jeu haché sur cette dernière quand bien même les deux configurations parviennent à 24 ips en moyenne.

Il faut observer ce qui se produit durant chaque seconde pour être plus précis qu’une simple moyenne : ici, la configuration B compte quatre images pour lesquelles le délai de rendu est particulièrement long.

Cependant, la plupart de nos benchmarks pour les jeux durent au moins une minute, ce qui nous amènerait à 3600 points de relevés pour une moyenne de 60 ips par seconde. Il est donc impossible de synthétiser ces données sur un seul graphique sans le rendre complètement indigeste. On peut résoudre le problème en limitant le graphique à une partie des données, mais sur quels critères peut-on choisir d’analyser une séquence plutôt qu’une autre ? En somme, il est délicat d’avoir un avis tranché sur la question.

Plutôt que d’observer les délais d’affichage image par image, nous avons décidé de porter notre attention sur la variation du délai entre l'affichage de deux images consécutives.

En effet, le temps d’affichage des images absolu n'est pas une mesure pertinente puisque un nombre d'images par seconde signifie un temps par image court et inversement. Il est beaucoup plus intéressant d'observer la variation de la latence entre deux images consécutives. Nous reparlerons plus en détails de notre méthode dans un prochain article. Le graphique relatant la mesure de la latence inter images que nous vous présentons aujourd’hui inclut trois calculs différents : le temps moyen écoulé entre deux images successives, puis ce même temps moyen au 75e centile et enfin au 95e centile. Les centiles permettent de mesurer le nombre des écarts par rapport à la moyenne et donc le nombre de saccades visibles. 75 % des images ont une latence inférieure au temps du 75e centile ; le temps au 95e centile est le temps de latence des 5 % d'images les plus lentes à s'afficher.

Plus concrètement, voici le graphique pour les configurations A et B présentées plus haut.

Soulignons encore une fois que ce graphique ne rapporte pas le nombre d’images par seconde, tout simplement parce que ce n’est pas sa vocation. Cette situation nous arrange d’autant plus que nous continuerons à mesurer le nombre moyen d’ips dans les mois qui viennent : bien que ces moyennes ne permettent pas d’analyser les performances de manière complète, elles restent des indicateurs importants. On y ajoutera simplement ce nouvel outil de mesure dans un souci d’exhaustivité.

Nous espérons qu’en comparant les résultats obtenus sur plusieurs CPU, il sera possible d’identifier des situations où tel modèle souffre de latences bien plus élevées que dans d’autres cas : comme on le verra plus loin, chaque jeu connait lui aussi des latences moyennes différentes.

Posez une question dans la catégorie Les news : vos réactions du forum
Cette page n'accepte plus de commentaires
18 commentaires
Commenter depuis le forum
    Votre commentaire
  • fredom1989
    Le fait d'avoir vu qu'après un an les chose avaient beaucoup changées parce que les jeux tirent de mieux en mieux parte d'un grand nombre de cœur ne vous font pas penser qu'a long terme les FX sont intéressant?
    0
  • SXcite
    je suis tous à fait en accord avec fredem1989 de plus vous dite que le fx3850 ne peux pas rivaliser avec l'offre intel avec des benchmark optimiser pour intel et des jeux qui n'utilise au mieu que 4 cores....
    si vous deviez acheter un cpu aujourd'hui pour jouer à des jeu demain.... ne prenez pas un intel , car les futur jeux serons consue pour utiliser 8 cores ( sans oubliez le hardware des nouvelles ps"4" et nex-gen Xbox basé sur du 8 cores
    0
  • Husi101
    Bien dommage de ne pas avoir intégré un i7 920 (ou autre) de la même génération que les Phenom II. En tout cas je ne regrette pas mon Phenom II x6 qui se place de mieux en mieux dans les benchmark alors qu'il a plus de 2ans.
    0
  • Blastm
    quand même dingue, j'ai acheté mon 2500k il y a maintenant plus de 2ans; et il y a pour ainsi dire toujours rien de mieux a moins de 200 euros...
    si haswell change pas la donne, et vu qu'en plus ca risque d'être assez calme côté cartes graphiques cette année; ca sera peut être la première fois depuis longtemps que je garderais une config de jeux plus de 3 ans :D
    0
  • Denver Beale
    Pour les mesures de latences inter-images bravo, par contre il n'y a pas mention ici de la consommation des cpu. En gros on voit ici que intel et amd sont au coude à coude en terme de performances pures ce qui n'est pas nouveau. Une fois que l'on considère le système de refroidissement, le bruit du refroidissement et la facture électrique c'est quand même bien pratique d'avoir seulement 30W réel à dissiper que 150W et le bruit d'aspirateur qui va avec, sans oublier la durabilité accrue d'un System fonctionnant avec les mêmes composants à des courants plus faibles et à des températures plus faibles aussi. Avec un choix prenant en compte tout les paramètres et non un paramètre, Intel sera toujours meilleur et de très loin.
    1
  • bzh coyote
    ... Super !!!
    A quand le test : " Combien de temps met le fut du canon pour se refroidir, lorsque l'obus est sorti du fut ? "
    1
  • Rodos220
    Ces benchmarks... Toujours à tester des jeux en solo ! Car j'aimerai bien voir les performances d'un i3 par rapport aux FX concernant les jeux massivement multijoueurs
    0
  • darkee
    Parler de consommation, c'est vrai que ça serait bien, cela permet de se faire une idée générale (surtout que là on parle de jeux). Mais bon après comparer la consommation de processeur en 22nm avec des processeurs en 32nm, ainsi que les TDP. J'ai envie de dire forcément en 22nm ça consomme moins et que ça chauffe moins.
    Après pour Denver, les procs AMD sont loin de faire un bruit d'aspirateur. Il y en a juste un qui me vient en tete, le Phenom II X6 1055T.. avec un ventirad d'origine pas mal a première vu, base cuivre, avec 2 caléoduc en cuivre.. mais pourtant, oui celui là faisait un bruit de turbine monstre! que ça soit dans sa version 125W ou sa version 95W, problème de gestion ventilo ou le ventilo lui même? . Ceux d'avant n'ont jamais fait ça, hormis un ancien PIV.
    Par contre un FX 6300 avec un ventirad d'origine des plus simples, pas un bout de cuivre, ne fait pas de bruit du tout même a plein régime, en idle les cores sont entre 16 et 21°, proc a 30°, et 30-35° pour les cores / 40/45max proc en pleine charge, trés loin du x6 1055T.
    Après la durabilité des composants... lol .. il y a 10ans je ne dis pas, vu les condo par exemple, mais maintenant j'suis sur qu'on pourrait les refiler aux enfants puis aux petits enfants sans soucis (façon de parler bien sur).

    Et a l'heure actuelle combien de temps gardons nous une config pour les jeux ?

    Sinon comme le dit SXcite, peu être que grâce aux consoles Next Gen, les développeurs feront des efforts avec les procs AMD, en utilisant au mieux les x6 voir x8 cores. A voir ..

    Cela dit je ne vois pas de différence en terme de FPS en jeu entre mes 2 configs Intel/AMD, l'une basée sur l'i5-2500k et l'autre sur le FX 6300 (meme CG, ram, etc)
    0
  • gurv75
    Heuuu... l'initiative est louable mais ça me parait bien foireux tout ça...

    Si le tout premier graphique me paraît cohérent (latence moyenne d'environ 40ms soit un fps moyen d'environ 25) le reste part complètement en sucette.

    Sur Metro 2033 notamment, faudra m'expliquer comment on peut avoir une latence inférieure à 3ms sur 95% des frames (soit environ 300fps) et être à un fps moyen de 60 oO

    Le test de the Tech Report est beaucoup plus cohérent...
    http://techreport.com/review/23246/inside-the-second-gaming-performance-with-today-cpus/6
    0
  • matrix71
    je vois que mon 2500k et toujours au top...j'ai du mal a croire que les haswell apporteront un plus en perf, DRR3 a ça sortie etc...

    l'autre truc a savoir, les nouvelle générations de console son basse sur du Amd, peut être que les les Fx seront optimisé un peu plus..le temps nous le dira.
    0
  • matthieu lamelot
    gurv75, je t'explique (c'est indiqué au début de l'article du reste) : les graphs ne présentent pas le temps *absolu* que met chaque image à apparaître mais la différence entre les temps de génération de deux images successives. Autrement dit, avec une moyenne à 60 fps, on a environ 12,5 ± 3 ms par image (pour 95 % des images).
    0
  • matthieu lamelot
    Rodos220 : c'est extrêmement compliqué de répliquer une partie multijoueurs, donc on ne le fait pas. Mais notre test sous SCII est une bonne approximation, sous ce titre en tout cas.
    0
  • Rodos220
    Si je parlais de jeux massivement multijoueurs, c'est que j'étais auparavant avec un Phenom II x2. Pour les jeux y compris StarCraft II, je n'avais pas à me plaindre hormis Battlefield 3 à 64 joueurs. Puis avoir passé des heures sur Guild Wars 2 m'a vite fait comprendre qu'un Dual Core ne tiendrait plus à l'avenir. GW2 tourne sur un Dual Core, mais dès qu'il y avait un évènement avec bon nombre de joueurs comme des boss, il y avait des ralentissements. Mais depuis que j'ai opté pour le FX 6300, tout va bien mieux. D'ailleurs, des cartes gourmandes comme BF3 Back to Karkand à 64 joueurs passent enfin sur ma config vu qu'il y a énormément d'explosions de bâtiments...

    Alors oui. Un Intel i3 peut faire l'affaire à l'heure actuelle, mais je demande à voir pour les prochains jeux à venir, à commencer par Crysis 3
    0
  • Rodos220
    Et si je n'ai pas pris de Intel i5 ou i7, c'est évidemment pour le prix. Pourquoi payer plus quand on peut avoir les mêmes performances pour moins cher ???
    0
  • Olivier Bolle-Reddat
    je joue a far cry 3 toutes les options graphiques a fond avec un quad 6600 overclocké a 3.6 ghz et une gtx 560 stock sans aucun ralentissement.
    Mon investissement de l'année sera un ssd
    0
  • nabla666
    A moins de 200 €, il aurait fallu tester le I5-3570K !
    1
  • mauki
    N'oublions pas qu'il y a un AMD 8 cœurs qui est vendu avec un refroidissement liquide et à moins de 170€ !
    Pourquoi ne pas en parler ?! Cela dérange qui ?
    0
  • Rodos220
    Anonymous a dit :
    Pourquoi ne pas en parler ?!


    Exact ! Surtout que Crysis 3 est sorti et que selon les dires, les AMD FX tournent mieux que les CPU Intel... :bounce:

    On attend les benchmarks :p
    0