Votre question

Besoin avis critique sur config gamer milieu de gamme

Tags :
  • Milieu de gamme
  • MSI
  • Geforce
Dernière réponse : dans Aide matériel
15 Mars 2014 13:27:39

Bonjour,

je suis en train de concevoir l'évolution de ma tour de gaming, et j'ai besoin d'avis critiques pour obtenir une configuration équilibrée, sans surinvestissement inutile dans l'un ou l'autre des composants.
C'est donc un souci d'équilibrage et de rationnalité qui me guide pour obtenir une solution mileu de gamme, assez durable, à moins de 1000€.

La cible d'usage:
Jeux type FPS et MMO, exemple EVE et à court terme Elder Scrolls Online.
Je vise du full details en 1680x1050, en double ecran DVI.
Windows 8.1 (ou seven à court terme) sans ecran tactile

La configuration que je prévois est celle-ci :
http://www.topachat.com/pages/configomatic.php?c=cPxg0M...
J'ai deja une grande tour de gamer, avec une alim 550W, je conserve tout sauf ce "moteur".

Plusieurs questions se posent, en plus de tous vos avis critiques que je sollicite:


    Intérêt réel des 2x8 plutot que 2x4 pour la RAM


    Intérêt réel de la 760 4G versus une 770 2G ou (exemple présent: MSI GeForce GTX 760 4 Go Twin Frozr Gaming OC, versus MSI GeForce GTX 770 2 Go Twin Frozr OC GAMING, )


    Intérêt réel de la compatibilité MSI pour la CM et CG MSI pour bénéficier des options du fabricant, en matière d'OC notamment?




Merci d'avance,
W


Autres pages sur : besoin avis critique config gamer milieu gamme

15 Mars 2014 13:32:01

La 770 ne sert à rien pour du 1680, donc tu as raison de prendre plus bas.

Il y a de l'OC prévu ?

Sinon pas besoin de Z 87 et de CPU en K.Et un 4440 suffit en gaming, le reste c'est du bonus.....

Pour la RAM, 16 Go ne servent à rien (déjà que 8.....).

Quelle est l'alimentation ?
m
0
l
15 Mars 2014 13:42:49

280€ la GTX 760 :ouch: 
lol, le prix d'une GTX 770 :D 

Préfère une version "normale" 2go à 230€
m
0
l
Contenus similaires
15 Mars 2014 14:47:06

masterthiefgarrett a dit :
La 770 ne sert à rien pour du 1680

Attention, il parle de double écran.

Mais à ce sujet, le double écran pour les jeux avec une vue à la 1ère ou à la 3ème personne, c'est pourri. Le centre de la vue (le viseur) se trouvera alors entre les 2 écrans, c'est injouable. Pour les jeux, c'est soit 1 soit 3 écrans, pas 2.

Pour la ram, à ce jour plus de 8 Go n'est pas utile pour les jeux. Ça devrait prendre encore quelques années avant qu'un jeu ne demande plus (par exemple un Skyrim totalement modé peut prendre dans les 6 Go). Plus de 8 Go est utile pour du montage vidéo par exemple. Mais peut être que dans 2 3 ans, plus de 8 Go de ram pourrait être utile dans certain cas de jeux, je ne sais pas, mais ça ne vaut pas la peine pour l'instant.

Et presque aucun intérêt de prendre la carte graphique de la même marque que la carte mère. De toute façon tu aura 2 programmes différents pour gérer la CM et la CG (pour OC/config/diagnostique).

Pour le SSD, normalement on ne met que l'OS et les programmes "normaux" dessus, les jeux vont sur le HDD. Dans ce cas, 120 Go suffit amplement.

Avec l'économie faite avec la ram et le SSD, tu peux prendre une plus grosse carte graphique. Par exemple la Sapphire Radeon R9 290, 4 Go à 316€ ou la VTX3D Radeon R9 290 Edition Battlefield 4 à 336€ (avec Battlefield 4 offert) ou sinon rester sur une R9 280X au même prix qu'une GTX 760 mais nettement plus puissante (VTX3D Radeon R9 280X, 3 Go à 250€, Gigabyte Radeon R9 280X Windforce 3X OC Battlefield 4 Ed 269€)

Et oui, il faudrait aussi savoir ce que vaut ton alim.
m
0
l
15 Mars 2014 16:15:39

KyrO_82 a dit :
Plus de 8 Go est utile pour du montage vidéo par exemple. Mais peut être que dans 2 3 ans, plus de 8 Go de ram pourrait être utile dans certain cas de jeux, je ne sais pas, mais ça ne vaut pas la peine pour l'instant.



Pour l'instant....et pour tout le temps, de toute façon dans 2-3 ans,c 'est la DDR4, alors....acheter une grosse quantité inutile de DDR3 sachant qu'elle est en fin de vie, cela ne sert à rien.

m
0
l
15 Mars 2014 18:30:57

Merci pour toutes ces réponses rapides et précises.

Je vais donc modifier les éléments suivants pour commencer:
Passer de 16G à 8G de RAM
Diminuer la capacité du SSD
Diminuer le processeur: probablement abandonner le "K" que je destinais à de l'OC automatique.
Avec les tarifs d'autres sites, je récupère environ 110€.

Par contre la remarque sur le jeu multiécran est juste, et amène d'autres questions:
:??: Quelles conditions la CG doit apporter pour connecter de façon performante les 3 écrans?
:??: Avez-vous des conseils sur les écrans tactiles? et éventuellement 3D??

J'attends vos réponses avec impatience, je suis totalement sec sur ces sujets là, et cela pourrait me faire reconsidérer le pb de la CG.
:heink: D'ailleurs le seul sujet sur lequel vous n'avez pas apporté de réponse c'est la préférence d'une CG avec plus de RAM, ou plus de shaders?

Merci d'avance
m
0
l
15 Mars 2014 18:40:57

Tu dis que tu as dans ton message une grande tour de gamer !

Sans trop t'embêter et vu que je ne vais pas savoir quoi te répondre sur la préférence
d'une carte graphique avec plus de RAM (présente sur la carte graphique je suppose ?), tu
aurais un lien vers ton modèle de boitier ou même, le nom du modèle du boitier, je pourrais ensuite
chercher sur le net des photos pour que je me rende compte du boitier que tu as !
m
0
l
15 Mars 2014 19:32:29

Moi je n'abandonnerais pas le processeur K à ce budget. Sa capacité d'overclocking lui prolonge la vie de façon notable, ça sera le bienvenu dans 2 3 ou 4 ans.

Pas de conditions à avoir pour supporter 3 écrans, toutes les cartes graphiques le peuvent. Mais avec plusieurs écrans, il y a plus de calculs à faire, la carte graphique doit donc être nettement plus puissante pour avoir les mêmes performances que sur 1 seul écran. Aucune carte graphique actuelle ne peut assurer un jeu fluide sur 3 écrans HD pour les jeux les plus lourd dans les 3 ans à venir je pense.

Pour le tactile sur un PC, bof, sauf cas particulier. C'est bien pour des application "simple", pour faire ce qu'on fait sur une tablette, et encore. Pour le jeu, inutile, et en bureautique on est aussi nettement plus à l'aise avec une souris dans 90% des cas. Pour naviguer sur le web, pourquoi pas, ou pour du multimédia, mais dans ce cas on est dans son canapé et pas devant son écran, donc encore une fois une souris sans fils c'est nettement mieux :jap: 
Pour les écrans 3D: La 3D c'est bien de temps en temps, au cinéma par exemple, mais pas continuellement. Spécifiquement pour les jeux, encore une fois, la carte graphique aura 2 fois plus de calculs à faire, donc les performances en prennent à nouveau un coup. Mais si tu as le budget, qui devra être nettement plus élevé, pourquoi pas.

Pour la RAM sur les CG, 2 Go suffit dans la plupart (tous?) des cas. Après, si tu mod des jeux comme Skyrim avec des textures HD partout, ça peut devenir limite, mais plus de 3 Go est inutile. Je conseillerais donc 3 Go (voir 4 Go si pas le choix) pour être à l'aise pour les années à venir, mais plus est absolument inutile.
m
0
l
15 Mars 2014 21:09:27

KyrO_82 a dit :
Moi je n'abandonnerais pas le processeur K à ce budget. Sa capacité d'overclocking lui prolonge la vie de façon notable, ça sera le bienvenu dans 2 3 ou 4 ans.



Bof....les CPU d'il y a deux ans, sans OC, sont toujours très largement suffisants, surtout pour les jeux.

On a atteint une espèce de plafond de verre pour les CPU, la course à la puissance est finie.
m
0
l
15 Mars 2014 21:10:17

Wayoc a dit :

:heink: D'ailleurs le seul sujet sur lequel vous n'avez pas apporté de réponse c'est la préférence d'une CG avec plus de RAM, ou plus de shaders?

Merci d'avance


De GDDR, tu veux dire ?



m
0
l
15 Mars 2014 21:55:20

masterthiefgarrett a dit :
On a atteint une espèce de plafond de verre pour les CPU, la course à la puissance est finie.

Mouahaha, surement pas. La puissance ne cessera d'augmenter, jamais.

Dans la plupart des jeux, avec un bon CPU d'il y a 2 ans, effectivement on ne devrait pas avoir de problème... mais ajouter 25% de puissance à son CPU au bout d'un certain temps, c'est pas négligeable quand même.

Evidemment de la GDDR, quoi d'autre?
m
0
l
15 Mars 2014 23:06:58

KyrO_82 a dit :

Mouahaha, surement pas. La puissance ne cessera d'augmenter, jamais.


Je ne parlais pas d'augmentation de la puissance (même si la loi de Moore risque bien de rencontrer un certain mur quantique l'an prochain), mais de la course et l'utilité de la puissance.....elle est toute relative depuis 2-3 ans, et les gains deviennent minimes, sauf, justement, sur l'entrée de gamme...après, on trouvera toujours des couillons pour se faire avoir par les sirènes du marketing.

Les fondeurs, que ce soit Intel et AMD, ont axé désormais leurs recherches sur les pertes et économies d'énergie....et même pour les CPU supposément hauts de gamme, il serait bon de se rappeler qu'un CPU dont la puissance n'est exploitée que par une poignée de programmes ne sert à rien, l'exemple du I7 990X n'est pourtant pas si ancien.Mais certains semblent l'avoir oublié.

Citation :
Evidemment de la GDDR, quoi d'autre?


Si je pose la question, c'est que la remarque ne me semblait pas si évidente.

Evite donc de répondre à la place de l'intéressé, à moins d'être télépathe.
m
0
l
16 Mars 2014 02:31:34

On est d'accord, la technologie MOSFET est au bord de ses limites, et nos processeurs haut de gamme sont loin de doubler en performance tous les 18 mois. Mais ceci n'empêche pas que les jeux ne soit toujours plus gourmands, que les performances du cpu font vraiment une différence dans les jeux, et donc qu'un jeu cpu limited dans 3 ou 4 ans profitera pleinement d'un bon OC.
La lente progression de la puissance des cpu est d'autant plus un argument pour l'OC: pour rester dans le haut de gamme dans 3 ans, pas besoin de racheter un nouveau cpu, suffit de l'overclocker, ça coûte moins cher.

Pour la GDDR, la remarque te semble peut-être pas évidente, mais pour moi la réponse l'est complètement: "Evidemment de la GDDR". On va pas commencer à conseiller une carte graphique gamer approchant le haut de gamme avec de la DDR3 quand même.
m
0
l
16 Mars 2014 07:26:16

Citation :
On est d'accord, la technologie MOSFET est au bord de ses limites, et nos processeurs haut de gamme sont loin de doubler en performance tous les 18 mois. Mais ceci n'empêche pas que les jeux ne soit toujours plus gourmands, que les performances du cpu font vraiment une différence dans les jeux, et donc qu'un jeu cpu limited dans 3 ou 4 ans profitera pleinement d'un bon OC.
La lente progression de la puissance des cpu est d'autant plus un argument pour l'OC: pour rester dans le haut de gamme dans 3 ans, pas besoin de racheter un nouveau cpu, suffit de l'overclocker, ça coûte moins cher.


Déjà, il faudrait s'entendre sur le terme de CPU limited...très souvent employé à tort.

Actuellement, en 1920, pour être réellement CPU limited il faut prendre des CPU ultra entrée de gamme des années 2008-2009.....un i5 750 de 2009, par exemple, peut largement suffire en 2014....pourtant, c'est loin du haut de gamme y compris à l'époque de sa sortie.

Donc l'obsolescence des CPU, même non OC, c'est à prendre avec des pincettes.

Et la perte de puissance brute recherchée est flagrante avec Haswell (et on peut le supposer avec Broadwell aussi):Intel a introduit l'AVX2/le FMA3, un ringbus directionnel, a amélioré la gestion des tensions, permet de modifier le BCLK, a réduit les consommations CPU idle de 20% et introduit le Lynx Point, le chipset 8 pour gérer tous les ports USB en xHCI......voilà ce qu'est Haswell, rien d'autre, franchement pas une révolution: un USB amélioré, des consommations repos aussi :ange: ....c'est tout, le gain en puissance est modeste, très modeste.

Nous ne sommes plus à l'époque des 20 % ou 15% entre chaque génération. ....et Broadwell, comme dit plus haut, s'annonce de la même eau.

Autrement dit, entre les Ivy Bridge et Broadwell (4 ans quand même), on aura des CPU certes plus performants, mais de manière symbolique....pas les gouffres technologiques des années 1995-2005...

Pour l'OC, c'est une vieille habitude des années plus pauvres, comme le dual channel ou le XFire/Sli: à défaut de moyens, on bidouillait.

Mais de nos jours, que ce soit pour l'OC, les bi GPU ( hormis à la rigueur en 2560 et pour certains jeux type Crysis 3), le dual channel.....la surenchère ne sert à rien (pour les SSD aussi, aucune application logicielle grand public n'est capable de gérer les débits, donc les améliorations perçues par les utilisateurs relèvent du fantasme de l'auto-persuasion).

Prendre du matériel "pour le futur" est une absurdité en informatique: on le prend pour ses besoins actuels, en sachant que vu l'obsolescence il aura perdu toute sa valeur 3 ans plus tard, s'il faut s'en référer aux taux des assureurs....en plus, non seulement cela permet de faire des économies pour des performances proches, mais cet argent pourra être réinjecté plus tard, pour d'autres acquisitions.Rien de plus désolant que de voir des acheteurs en 1920 prendre du CPU 4770K et des SLI de 780.....cela ne sert strictement à rien, sinon à démontrer une parfaite méconnaissance des données informatiques.


Citation :
Pour la GDDR, la remarque te semble peut-être pas évidente, mais pour moi la réponse l'est complètement: "Evidemment de la GDDR". On va pas commencer à conseiller une carte graphique gamer approchant le haut de gamme avec de la DDR3 quand même


La question est:

"le seul sujet sur lequel vous n'avez pas apporté de réponse c'est la préférence d'une CG avec plus de RAM, ou plus de shaders?"

moi j'y vois une autre confusion possible (une CG et plus de RAM), d'autant plus que la remarque sur les shaders est elle aussi intrigante.

D'où demande d'éclaircissement.
m
0
l
16 Mars 2014 15:20:57

"Déjà, il faudrait s'entendre sur le terme de CPU limited...très souvent employé à tort."
Ouais:
- Certains jeux sont plus sensibles aux performances du CPU que d'autre.
- La différence de performance en fonction du CPU ne se remarque que lorsque la carte graphique ne limite pas elle-même.
Pour ce 2ème point, on se retrouve dans ce cas par exemple justement lorsque après 3 4 ans on décide de se racheter une nouvelle carte graphique sans vouloir changer sa configuration entière (CM et CPU), et c'est là justement que l'OC fait une différence.

Prenons par exemple les benchmarks ici: http://www.ocaholic.ch/modules/smartsection/item.php
Je prend volontairement les tests en basse qualité, pour minimiser les limitations du GPU (on se trouve dans le cas ou on change la CG après quelques années).
Ces tests montrent la différence entre le i5-4670K à sa fréquence normale (3.4GHz) et OC (4.6GHz) (en fps):

BattleField 3: 194.2 -> 197.4 (+1.7%)
Bioshock Infinite: 240.16 -> 260.16 (+8%)
Crysis 3: 77.2 -> 88.6 (+13.2%)
Call of Duty Black Ops 2: 334.4 -> 376.4 (+11.75%)
Far Cry 3: 190.8 -> 216.2 (+12.67%)
Sleeping Dogs: 196.5 -> 220.3 (+13.43%)
The Elder Scrolls V: Skyrim: 222.6 -> 265.0 (+17.45%)
Metro: Last Light: 111.40 -> 117.70 (+4.75%)

Donc quand même +17.45% dans Skyrim. Et encore, je ne crois pas que ces jeux sont réputés pour être spécialement dépendant du CPU (des fps), la différence est probablement plus grande sur des jeux de gestion par exemple (SimCity...)


Bref. Voilà ce qu'on peut espérer en mettant une 50aine d'euro en plus pour une version K du CPU (avec sa CM). A Wayoc de décider :jap: 

masterthiefgarrett a dit :
La question est:

"le seul sujet sur lequel vous n'avez pas apporté de réponse c'est la préférence d'une CG avec plus de RAM, ou plus de shaders?"

Mais j'avais déjà répondu au sujet de la ram, et lui a confirmé qu'il passait de 16 à 8 Go, et ce avant qu'il ne pose cette dernière question. Il ne va pas reposer la même question alors qu'il y a répondu dans le même message, si?
Bref, je crois pouvoir dire sans me tromper que "une CG avec plus de RAM" fait bien référence à la ram de la CG ;) 
Pour les shaders, effectivement. Cela est simplement en rapport avec la puissance globale de la carte graphique.
m
0
l
16 Mars 2014 18:41:12



Citation :
@roader:
Tu dis que tu as dans ton message une grande tour de gamer !

Sans trop t'embêter et vu que je ne vais pas savoir quoi te répondre sur la préférence
d'une carte graphique avec plus de RAM (présente sur la carte graphique je suppose ?), tu
aurais un lien vers ton modèle de boitier ou même, le nom du modèle du boitier, je pourrais ensuite
chercher sur le net des photos pour que je me rende compte du boitier que tu as !


C'est un boitier RECOM Power Station exactement comme celui :
http://forum.hardware.fr/hfr/AchatsVentes/Hardware/boit...
J'ai par contre éteint toutes les LED qui étaient assez jackie, et déconnecté les ventilos pour ne laisser que celui des HD3,5.

Il a 4 tiroirs 5' en frontal haut, 4 tiroirs 3,5' en bas sur rack amovible, directement derriere un ventilo 12cm
Et 3 tirois extractibles, dont 2 front, héritage de l'ère des floppy.

Il a un truc que j'adore à l'usage : les joues sont montées sur charnière basse, et non glissées. Elles ont des poignées d'ouverture rapide et la CM est vissée sur la joue droite, qui n'est pas en plexi comme la gauche.
Cela permet d'accéder très facilement par la gauche, ou de faire des démontages canon façon pit stop au besoin.


Pour revenir au topic initial:
C'est bien de la mémoire vive exploitée par la CG dont je parlais (Graphics ou pas, cela reste de la RAM).
A tarif égal pour la CG, choisir plus de puissance versus plus de mémoire, servent respectivement à gagner quoi ??

Je reviens plus bas avec d'autres questions sur la 3D...

++W



m
0
l
16 Mars 2014 21:31:51

Wayoc a dit :
.
A tarif égal pour la CG, choisir plus de puissance versus plus de mémoire, servent respectivement à gagner quoi ??


Tu appelles quoi "plus de puissance", les Gflops, les unités de calcul, les fréquences, le bus ?

De manière générale, tout est lié....une CG "puissante" mais sans assez de tampon mémoire va saturer, une carte avec une grosse mémoire mais des féquences castrées n'utilisera jamais cette mémoire.

Le tout c'est de trouver un juste équilibre.
m
0
l
16 Mars 2014 21:36:19

"Rien de plus désolant que de voir des acheteurs en 1920 prendre du CPU 4770K et des SLI de 780.....cela ne sert strictement à rien, sinon à démontrer une parfaite méconnaissance des données informatiques" Totalement d'accord, autant claquer 1500 boules dans un APN réflex ou des enceintes très haut de gamme, au moins ça produit autre chose que des FPS qu'on voit pas.

@Kyro: ça t'apporte quoi de passer de 110 à 120 FPS?
m
0
l
16 Mars 2014 21:40:37

KyrO_82 a dit :

Donc quand même +17.45% dans Skyrim. Et encore, je ne crois pas que ces jeux sont réputés pour être spécialement dépendant du CPU (des fps), la différence est probablement plus grande sur des jeux de gestion par exemple (SimCity...)


Attention aux tests, ne pas tout prendre pour argent comptant, déjà ne pas considérer des varitations de 5% comme significatives.

Par contre, pour skyrim, attention: CreationEngine, très dépendant du CPU, et surtout de sa fréquence: un dual core élevé est plus performant qu'un quad.

A titre d'exemple, un pentiumG OC est plus performant qu'un Phenom II X6 sur ce jeu....

m
0
l
16 Mars 2014 21:41:44

karg_se a dit :
"Rien de plus désolant que de voir des acheteurs en 1920 prendre du CPU 4770K et des SLI de 780.....cela ne sert strictement à rien, sinon à démontrer une parfaite méconnaissance des données informatiques" Totalement d'accord, autant claquer 1500 boules dans un APN réflex ou des enceintes très haut de gamme, au moins ça produit autre chose que des FPS qu'on voit pas.


Ah, mais les enceintes très haut de gamme, c'est plutôt 15 000 euros !!:D 

Pièce.

m
0
l
16 Mars 2014 23:03:17

Faut pas déconner, des BM7 à 1000 euro la paire + la carte son XLR ça permet déjà un rendu exceptionnel.
m
0
l
16 Mars 2014 23:12:15

Tu as des goûts de pauvre.

Déjà que les Focal utopia alto, c'est d'un commun et vulgaaaaaaire.:peur: 
m
0
l
17 Mars 2014 11:30:27

Je suis curieux, ça change vraiment? Pour tout te dire, j'en suis qu'au Maudio AV40, donc l'entrée de gamme des enceintes sérieuses, j'ai jamais écouté d'engin à 15ke la paire. Ca sonorise une très grande pièce?
m
0
l
17 Mars 2014 13:12:34

Wayoc a dit :
Pour revenir au topic initial:
C'est bien de la mémoire vive exploitée par la CG dont je parlais (Graphics ou pas, cela reste de la RAM).
A tarif égal pour la CG, choisir plus de puissance versus plus de mémoire, servent respectivement à gagner quoi ??

La puissance du GPU te donnera plus d'images par secondes dans les jeux.
La mémoire permettra au GPU de stocker plus d'info (des textures essentiellement)

Donc tant qu'il y a assez de mémoire, seule la puissance compte. C'est à dire la puissance du GPU mais aussi la vitesse de la mémoire, c'est pourquoi on ne va jamais conseiller de la DDR3 pour une carte graphique, mais de la GDDR5, plus rapide.

Par contre si pas assez de mémoire, les performance en prenne un grand coup (voir même des freeze).

Le besoin en mémoire augmente donc avec le nombre et la qualité des textures, donc d'une part avec la modernité des jeux mais aussi dans le cas ou tu mod un jeu en y remplaçant ses textures par d'autres, de taille nettement plus élevé (par exemple en remplaçant les textures de de base de Skyrim en 512 pixels par des texture en 4096 pixels).

Mais en même temps, le GPU sera moins rapide si il doit travailler avec de plus grosses textures. Il est donc inutile de mettre autant de mémoire dans une CG bas de gamme que dans une CG haut de gamme, de toute façon la CG bas de gamme ne suivra pas avec de grosse textures.

C'est donc un juste milieux qu'il faut. Il faut assez de mémoire pour que le GPU puissent donner tout son potentiel en terme de puissance, mais trop est inutile.
m
0
l
17 Mars 2014 13:19:33

karg_se a dit :
@Kyro: ça t'apporte quoi de passer de 110 à 120 FPS?

Poses toi déjà la question à quoi ça sert d'être à 110 fps.

Autant lui conseiller un i3-3220 et une R7 260 dans ce cas, ça tournera à 61 fps, suffisant pour un écran 60 Hz.
m
0
l
17 Mars 2014 13:30:23

masterthiefgarrett a dit :

Attention aux tests, ne pas tout prendre pour argent comptant, déjà ne pas considérer des varitations de 5% comme significatives.

Par contre, pour skyrim, attention: CreationEngine, très dépendant du CPU, et surtout de sa fréquence: un dual core élevé est plus performant qu'un quad.

A titre d'exemple, un pentiumG OC est plus performant qu'un Phenom II X6 sur ce jeu....

Mais ces tests ont été fait sur une configuration équilibré. Dans le cas ou dans 3 4 ans il change de GPU, l'impact du CPU en sera autant plus limitant non? Et donc l'OC fera autant plus de différence, non?

C'est comme si aujourd'hui tu fais tourner une GTX 780 sur un bon vieux i7-860, OC celui-ci à 4 GHz au lieu de ses 2.8 GHz de base n'apporte rien dans ce cas de figure?

Pour Skyrim, OK, il est très dépendant du CPU. Et alors? Est-ce que cela change quelque chose, est-ce pour ça qu'il faut ignorer ses gains en performance par rapport au CPU? N'y a-t-il pas d'autre jeux qui aiment un CPU rapide? Et les jeux dans 3 ou 4 ans, ne demanderont-il pas plus de puissance au CPU?
m
0
l
17 Mars 2014 14:00:53

KyrO_82 a dit :

C'est comme si aujourd'hui tu fais tourner une GTX 780 sur un bon vieux i7-860, OC celui-ci à 4 GHz au lieu de ses 2.8 GHz de base n'apporte rien dans ce cas de figure?

Pour Skyrim, OK, il est très dépendant du CPU. Et alors? Est-ce que cela change quelque chose, est-ce pour ça qu'il faut ignorer ses gains en performance par rapport au CPU? N'y a-t-il pas d'autre jeux qui aiment un CPU rapide? Et les jeux dans 3 ou 4 ans, ne demanderont-il pas plus de puissance au CPU?


Je crois que tu confonds ce qu'apporte un CPU OC et ce qui est utile....qu'un CPU fasse passer le framerate de 65 à 78, quel intérêt ?:??: 

Je veux dire....qui va s'en rendre compte ?

Pour prendre l'exemple de Skyrim (non moddé), je crois qu'il plafonnait à 65 fps avec les gros CPU....car la matériel est une chose, le moteur autre chose...un moteur Dx9, faut-il le préciser.....

Quant aux jeux du futur.....la tendance semble être bien plus à charger le GPU que le CPU....le développement des jeux est désormais long, très long...et se fait à patir de ce qui existe déjà, pas de ce qui sera implémenté dans 3 ans....

m
0
l
17 Mars 2014 14:16:32

Citation :
Autant lui conseiller un i3-3220 et une R7 260 dans ce cas, ça tournera à 61 fps, suffisant pour un écran 60 Hz.

Avec ça tu tien du 60fps à BF4 en ultra? Soyons sérieux, avec un écran 60hz on vise 60FPS mini en toute circonstance, en full HD ultra + AA à fond. Donc dès qu'on dépasse cette limite, c'est du gaspillage.

Citation :
Dans le cas ou dans 3 4 ans il change de GPU, l'impact du CPU en sera autant plus limitant non? Et donc l'OC fera autant plus de différence, non?
SSi les CPU ont vraiment progressé d'ici là. Quand je suis passé du core duo 8420 à l'i5 2500k ce fut un énorme gain, mais aucun CPU ne permet un grain aussi flagrant aujourd'hui. Pourtant ça fait 3 ans. Comme Mastertheifgarrett je doute que que les programmeurs se tourne plus vers les CPU dans les prochains jeux, la stagnation des performances est manifeste, ils ont encore du travail pour bien maîtriser les multicore.
m
0
l
17 Mars 2014 14:46:30

Les multithreads sont certes mal gérés par les programmeurs, mais Intel lui-même ne mise rien sur l'accroissement des performances: entre l'ivy bridge de 2012 et les CPU Haswell de 2014 il n'y a eu, sur deux générations de CPU (voire 3) que des améliorations énergétiques.....et les CPU de 2012 (Ivy bridge) tiennent sans soucis la dragée haute à tous les jeux actuels.

Penser qu'il ne sera différemment dans deux ans est ridicule, la tendance restant au statu quo....la course aux Ghz est finie (de toute façon, il suffit de comaprer Sandy Bridge, Ivy Bridge et Haswell: plus de progrès en Ghz...)
m
0
l
17 Mars 2014 15:20:59

Avec la 4k il faudra bien que ça change, à moins que ça retombe complètement sur les GPU. Au niveau des GPU la progression est encore continue, c'est proche du fameux doublement de la puissance tout les 18 mois:
BF 4, full HD ultra:
GTX 480: 30 FPS en moyenne, 20 mini (sortie en mai 2011)
GTX 780: 64 FPS en moyenne, 48 mini (sortie mai 2013)
Le plus important c'est le mini, c'est lui qui donnera l'impression de lag.

Les perfs réelles ont donc été multipliés par 2.5 en 2 ans, c'est une progression énorme par rapport à la stagnation des CPU.

http://www.bit-tech.net/hardware/graphics/2014/02/18/nv...

m
0
l
17 Mars 2014 15:51:44

On verra, pour la 4K....avec le pétard mouillé de la 3D, wait and see....
m
0
l
17 Mars 2014 16:15:16

La 3D ça file la gerbe, ça sert à rien, par contre la 4k c'est vraiment pas mal, je vois bien ça sur les jeux à méga zoom type wargame AB, ça va le faire.
m
0
l
17 Mars 2014 17:03:46

La 4k ça promet, mais avec les futurs évolutions de mantle/direct3d (on attend avec impatience la prochaine annonce de m$ la dessus), les processeur seront de moins en moins sollicité, donc je doute qu'il faille une réelle augmentation de la puissance de calcul pour la 4k.
Je ne crois plus a une percée brutale de la puissance cpu, à moin qu'une nouvelle technologie ne pointe le bout de son nez (mais c'est pas pour demain) ...
m
0
l
17 Mars 2014 17:22:26

karg_se a dit :
La 3D ça file la gerbe, ça sert à rien, par contre la 4k c'est vraiment pas mal, je vois bien ça sur les jeux à méga zoom type wargame AB, ça va le faire.


Cela ne sert à rien..d'accord...mais ce que je voulais dire, c'est qu'on se rappelle le buzz tant autour des moniteurs PC que TV lors de sa sortie..."et Hollywood va produire tant de films", "et c'est too much"...ah ouais, résultat un flop.

Pour la 4K, wait and see....après, pour quel genre d'écran ?

m
0
l
17 Mars 2014 17:29:28

Citation :
Je ne crois plus a une percée brutale de la puissance cpu, à moin qu'une nouvelle technologie ne pointe le bout de son nez (mais c'est pas pour demain) ...

Tout les efforts de R²D sont centré sur le mobile, et à raison, c'est là que les marges et les vente se fond. Le CPU desktop sont coincés entre le marché des serveurs donc très haut de gamme et le marché mobile où c'est la sobriété qui prime. Pas évident pour les fondeurs de dépenser beaucoup pour un publique limité, on n'est pas très nombreux à savoir apprécier la qualité.
m
0
l
17 Mars 2014 20:09:04

3D ou UHD, même combat pour une carte graphique, simplement plus de pixels à gérer. (2 fois plus pour la 3D, 4 fois plus pour le UHD, par rapport à du Full HD)

Pour l'évolution des CPU, la grande révolution pourrait être les CPU photoniques. Ça semble être bien parti pour remplacer les électrons par des photons d'ici quelque années. Et peut-être avec une unité pour le calcul quantique en parallèle... mais pas pour demain effectivement.

karg_se a dit :
Avec ça tu tien du 60fps à BF4 en ultra? Soyons sérieux, avec un écran 60hz on vise 60FPS mini en toute circonstance, en full HD ultra + AA à fond. Donc dès qu'on dépasse cette limite, c'est du gaspillage.

Qui parle de BF4? C'est toi qui me dis que 120 fps c'est complètement inutile, alors que t'as rien contre avoir 110 fps. Alors je te retourne la question, à laquelle tu n'as pas répondu d'ailleurs, à quoi ça sert d'avoir 110 fps dans un jeu, et pourquoi est-ce le mal absolu d'avoir 120 fps dans le même cas? (sur un écran 60 Hz toujours donc)

karg_se a dit :
SSi les CPU ont vraiment progressé d'ici là. Quand je suis passé du core duo 8420 à l'i5 2500k ce fut un énorme gain, mais aucun CPU ne permet un grain aussi flagrant aujourd'hui.

C'est sûr. Mais comme je l'ai déjà expliqué, raison de plus pour l'OC. En OC son CPU dans 4 ans, on se remet au niveau des meilleurs CPU du moments (sans OC), alors pourquoi s'en priver? Pour gagner 50€ sur une config à 1000€?

Je ne comprend pas votre mépris face à l'OC, à toi et masterthiefgarrett. Depuis le début vous critiquer et êtes contre le principe de l'overclocking, mais pas une fois vous donnez un inconvénient concret à l'OC, si ce n'est "ça n'apporte pas grand chose". Pas grand chose, c'est mieux que rien, non? Alors pourquoi s'en priver?
m
0
l
17 Mars 2014 21:40:55

Déjà parce que l'OC n'est pas nécessaire, augmentera le die du dye :D , majore la consommation et la chaleur...à l'époque où c'était nécessaire car trop de limitations de puissance, OK....mais désormais, cela n'a plus lieu d'être...en gaming, s'entend.

C'est comme le SLI/XFire...des pratiques d'un autre temps, et de plus en plus discutables: coût, consommation d'énergie, chaleur, drivers pas disponibles aussitôt...bref, un avantage très discutable....mais les pratiques sont restées dans les esprits....après, si la personne veut OC pour s'amuser ou parce que son CPU est un tromblon antédiluvien, OK.....mais un CPU d'il y a 2 ans gère les situations actuelles sans problème.

Depuis 3 générations tick tock, les gains de puissance sont restés symboliques plus que réellement générationnels....le mur quantique s'approche, de toute façon.Les fondeurs l'ont compris, et axent leur R/D vers les économies d'énergie, etc, etc..
m
0
l
17 Mars 2014 22:01:22

Citation :
pourquoi est-ce le mal absolu d'avoir 120 fps dans le même cas? (sur un écran 60 Hz toujours donc)

Ca sert à rien, argent gâché pas dispo pour un accesoire, un jeux ou un up future

Citation :
Je ne comprend pas votre mépris face à l'OC, à toi et masterthiefgarrett. Depuis le début vous critiquer et êtes contre le principe de l'overclocking, mais pas une fois vous donnez un inconvénient concret à l'OC, si ce n'est "ça n'apporte pas grand chose". Pas grand chose, c'est mieux que rien, non? Alors pourquoi s'en priver?

J'ai overclock un duron 700, un athlon 1800+, aucun gain à chaque fois, ça planté. J'ai eu un barton 2500+ devenu 3000+ grâce à mon premier ventirad à caloduc, une sacré invention, il doit toujours tourner, je l'ai revendu en 2012 50 euro l'UC... Le client avait une UC en rade, genre avec un P4 64bit, il comprenait pas pourquoi ma tour marché mieux que sa bouse de supermarché...

J'ai overclok de la ram aussi, à l'époque de la DDR2, à chaque fois j'ai récolté des instabilités. Avec des potes on mettaient des CAS de 2.5, ça fait rêver non?

Mon i5 2500k tourne à 3.6 Ghz quand il force, ça passe, mais au delà ça tourne vite à l'écran bleu. Bilan de 15 ans de bidouille: sauf exception, ça permet de gagner moins de 10% si on compte conserver une stabilité normale (aka jamais d'écran bleu). Donc payer 50 euro pour espérer gagner 10%, alors que pour 50 euro + la revente de l'ancien système on peut presque renouveler sa machine, l'OC devient franchement dispensable.

Cela dit l'OC est intellectuellement intéressant, gérer la température, les réglages, les tensions, c'est sympa à faire, mais c'est difficile d'avoir un sytème utilisable quand on va trop loin.
m
0
l
17 Mars 2014 22:03:11

Citation :
le mur quantique s'approche
Ouai, faut dire que d'autre technologie risque d'arriver dans les prochaines années, les enjeux sont énormes, les proto sont dans les labos. Quantique, photonique, en graphène...
m
0
l
18 Mars 2014 08:22:31

Pas d'accord, la plupart de mes cpu ont été overclocker de 20% et plus sans perte de stabilité. (à chaque fois que j'ai cru que l'OC était à la base d'un problème, j'ai finit par trouver que c'était autre chose).
Après l'OC à un prix plus élevé que certains pensent à le croire, et est effectivement devenu peu utile (mais tellement amusant :pt1cable: ).
m
0
l