Se connecter avec
S'enregistrer | Connectez-vous

GeForce GTX Titan : le vrai Kepler haut de gamme

GeForce GTX Titan : le vrai Kepler haut de gamme
Par

La population mondiale a récemment dépassé le cap des 7 milliards d’êtres humains. Le GPU GK110 de Nvidia, que l’on ne trouvait précédemment que dans les cartes Tesla K20 et K20X, se compose de 7,1 milliards de transistors. Cela signifie que s’il était possible de diviser le GK110 en pièces à un seul transistor, chaque habitant de la planète pourrait en avoir une ; et dire que nous en avons reçu trois en prêt, sur autant de cartes graphiques GeForce GTX Titan !

D’après Nvidia, le GK110 est la plus grande puce gravée en 28 nm que TSMC soit en mesure de fabriquer. Le bon sens voudrait par conséquent qu’elle soit chère, énergivore, sujette à la surchauffe et victime de faibles rendements en production. Deux de ces prédictions se vérifient ; les deux autres, étonnamment, pas du tout.

Comme un air de déjà vu

En dépit de son nom et de sa puce graphique complexe et imposante, la GeForce GTX Titan n’est pas une carte graphique volumineuse. À 26,5 cm, elle se situe pile entre la GeForce GTX 680 (25,5 cm) et la GeForce GTX 690 (28 cm).

Le cache en plastique bon marché de la GTX 680 fait place chez la GTX Titan à une coque clairement dérivée de celle de la GTX 690, mais on note quelques différences de taille entre les deux cartes haut de gamme. Alors que la GTX 690 avait besoin d’un ventilateur axial pour refroidir correctement ses deux GPU, la GTX Titan fait appel à un classique ventilateur centrifuge qui expulse l’air chaud par l’arrière de la carte ; c’est une bonne nouvelle, la chaleur émise par le GPU ne sera plus recyclée dans le boîtier de l’ordinateur. Malheureusement, Nvidia a estimé que la coque en alliage au magnésium de la GTX 690 était trop onéreuse ; la GTX Titan opte pour l’aluminium, à l’exception d’une fenêtre en polycarbonate (un autre élément repris de la GTX 690).

Les ventilateurs soufflants ont la réputation d’être plus bruyants que les modèles axiaux et il est vrai que si vous réglez manuellement celui de la GTX Titan carte au maximum, il vous hurlera dans les oreilles. Mais il suffit de laisser la GeForce GTX Titan assurer seule la gestion de la ventilation pour qu’elle se fasse totalement oublier. Nvidia attribue en partie cette discrétion à un dissipateur à chambre de vaporisation (une technologie que l’on retrouve aussi sur les cartes graphiques haut de gamme d’AMD), mais aussi à une interface thermique plus efficace, un radiateur aux ailettes plus longues et à l’ajout d’un isolant acoustique autour du ventilateur. 

L’esthétique et le silence ne sont pas les deux seules qualités que la GeForce GTX Titan partage avec la GTX 690. Comme sa grande sœur, la nouvelle carte arbore le logo GeForce GTX le long de sa face supérieure, en un rétroéclairage vert dont l’intensité est contrôlable via un logiciel fourni.

Vous trouverez également sur la Titan deux connecteurs SLI. Il est possible de monter des configurations à deux, trois et quatre cartes, mais Nvidia admet volontiers que les gains délivrés par la quatrième carte ne se verront que dans des benchmarks, pas dans des situations de jeu réelles.

Quel que soit le nombre de cartes connectées, il est possible d’utiliser simultanément quatre écrans : trois en mode surround et un quatrième en annexe. Bien entendu, si vous n’avez qu’une seule GeForce GTX Titan, il sera nécessaire d’employer toutes ses sorties : deux DVI dual-link, une HDMI et une DisplayPort. Les configurations à deux et trois cartes offrent dans ce domaine plus de flexibilité.

Bien que le GPU GK110 qui équipe la Titan soit immense, il consomme moins que les deux GK104 (environ 3,5 milliards de transistors chacun) de la GeForce GTX 690, qui affichait un TDP de 300 watts et nécessitait deux connecteurs auxiliaires à huit broches pour fonctionner.

La GeForce GTX Titan possède un TDP de 250 watts, soit autant que l’AMD Radeon HD 7970 GHz Edition, et n’a donc plus besoin que d’un connecteur auxiliaire à huit broches et d’un autre à six broches. Sachant que le connecteur PCI Express x16 et le connecteur auxiliaire à six broches délivrent chacun 75 watts et que celui à huit broches délivre 150 watts (soit une alimentation totale de 300 W maximum), la carte dispose d’une marge de sécurité confortable. Nvidia recommande de la coupler à une alimentation d’au moins 600 watts, mais il semble que la plupart des revendeurs qui les installent dans des configurations mini-ITX s’en tirent avec des modèles de 450 ou 500 watts.


GeForce GTX Titan
GeForce GTX 690
GeForce GTX 680
Radeon HD 7970 GHz Ed.
Shaders2 688
2 x 1 536
1 536
2 048
Unités de texture
224
2 x 128
128
128
ROP 8 bits
48
2 x 32
32
32
Fréq. GPU
836 MHz
915 MHz
1 006 MHz
1 000 MHz
Débit texels
187,5 Gtex/s
2 x 117,1 Gtex/s
128,8 Gtex/s
134,4 Gtex/s
Fréq. mémoire
1 502 MHz
1 502 MHz
1 502 MHz
1 500 MHz
Largeur bus mém.
384 bits
2 x 256 bits
256 bits
384 bits
Bande passante mém.
288,4 Go/s
2 x 192,3 Go/s
192,3 Go/s
288 Go/s
Capacité mém.
6 Go GDDR5
2 x 2 Go GDDR5
2 Go GDDR5
3 GB GDDR5
Surface du die
569 mm²
2 x 294 mm2294 mm2365 mm2
Nb. transistors (109)
7,1
2 x 3,54
3,54
4,31
Gravure
28 nm
28 nm
28 nm
28 nm
Connecteurs alim.
1 x 8-pin, 1 x 6-pin2 x 8-pin
2 x 6-pin
1 x 8-pin, 1 x 6-pin
TDP (carte)
250 W
300 W
195 W
250 W
Prix (min.)
950 €
900 €
430 €
400 €


Nous avons retiré le gros ventirad de la GeForce GTX Titan afin d’examiner de plus près son GPU, son sous-système mémoire et son étage d’alimentation.

Le GK110 est cadencé à 836 MHz minimum. Cependant, il bénéficie d’une nouvelle version de la technologie Nvidia GPU Boost et monte la plupart du temps à 876 MHz, selon Nvidia. Nous l’avons constaté par expérience (cf. GeForce GTX 680 : Kepler envoie Tahiti à la retraite), GPU Boost est sensible à un nombre de variables, y compris la température ambiante de la pièce. Dans notre benchmark sous World of Warcraft, par exemple, la GeForce GTX Titan ne consomme que 70 % de sa puissance maximale. Du coup, le GPU passe à 993 MHz et se stabilise à 77 °C. Nous allons en reparler.

La carte compte 12 puces de 2 Gbit de mémoire GDDR5 sur la face avant et 12 autres sur la face arrière, pour un total de 6 Go (48 Gbit). De marque Samsung, elles affichent une latence de 0,33 ns et sont prévues pour grimper à 6 000 Mbit/s ; sachant que Nvidia les cadence à 1502 MHz sur un bus de 384 bits au total, cela nous donne une bande passante de 288,4 Go/s.

L’étage d’alimentation totalise six phases pour le GPU et deux phases pour la mémoire sont assez faciles à identifier au dos de la Titan. À titre de comparaison, la GeForce GTX 690 employait cinq phases par GPU (donc 10 au total) et deux pour la mémoire (un par GPU). Cette différence est importante car Nvidia autorise l’utilisateur à pousser la tension de la GTX Titan, ce qui permet mécaniquement de stabiliser le GPU à des fréquences plus élevées en mode GPU Boost. Ainsi, sur notre exemplaire, en poussant les tensions au maximum à l’aide du logiciel EVGA Precision X, nous sommes parvenus à faire passer la fréquence maximale du GK110 de 876 MHz à près de 1,2 GHz, sans que jamais la température du GPU ne dépasse les 87°C. 

Afficher les 19 commentaires.
  • Raviere29 , 19 février 2013 15:39
    et coté gpgpu on aura des chiffres par rapport à la génération précédente ?
  • matthieu lamelot , 19 février 2013 15:43
    Tu penses à quelle carte en particulier ?
  • job31 , 19 février 2013 15:49
    Pour la GPGPU y'aurait moyen d'avoir les PPD sous Folding at Home SVP ?
    Merci.
  • boub popsyteam , 19 février 2013 20:09
    Y'a un dollar qui reste en dernière page ^_^

    La suite jeudi ...
  • dom-2207 , 19 février 2013 23:37
    Un test d'une carte de ce genre sans parler de GPGPU (IRAY / Octane, etc...) n'est vraiment pas complet, il est évident que cette carte s'adresse aussi (beaucoup) à des professionnels de la 3D qui refusent de dépenser 6000 ou 7000 € pour une carte K20, il n'y à pas que des joueurs qui lisent vos rubriques.
  • seb-de , 20 février 2013 11:24
    Geek Box a les soucis du détail, ils vont jusqu'à utiliser le logo de BMW, le M Power dans le nom de leur bécane. J'espère pour eux qu'ils ont aussi de bon juriste
  • delphi_jb , 21 février 2013 12:50
    Vite Vite le test, on est jeudi !

    ;-)
  • delphi_jb , 21 février 2013 13:10
    dom-2207Un test d'une carte de ce genre sans parler de GPGPU (IRAY / Octane, etc...) n'est vraiment pas complet, il est évident que cette carte s'adresse aussi (beaucoup) à des professionnels de la 3D qui refusent de dépenser 6000 ou 7000 € pour une carte K20, il n'y à pas que des joueurs qui lisent vos rubriques.

    J'espère qu'un test démontrera la réel différence entre une K20(X) et cette carte d'un point de vue technique et (surtout) fonctionnel.

    Avant, dans les grandes lignes la différence entre une grand public et une tesla se résumait comme ceci:
    - Double précision débridé
    - Plus de Ram (beaucoup plus même)
    - Ram ECC
    - Drivers Pro

    Les deux premiers points étant ceux qui influait directement de manière significative la performance...

    Maintenant, l'espace mémoire est similaire et la double précision est tout simplement activable dans les drivers !
    C'est un drôle de positionnement de marché... Nvidia vs Nvidia.
    Je ne suis pas sur du coup que l'ECC et les drivers Pro valent le fossé économique entre les deux gammes...


    ... A MOINS que Nvidia soit en train de créer un troisième secteur dans ce marché, celui du semi-Pro grand public.

    Ce n'est pas impossible...
  • dom-2207 , 21 février 2013 15:38
    Citation :
    le GK110 possède la puissance en GPGPU qui fait défaut au GK104. Pour les développeurs qui rêvaient d'une Tesla K20X sans pouvoir se l'offrir, la GTX Titan est une excellente affaire, même à 1 000 €. L'architecture GCN d'AMD garde cependant une avance dans certaines applications comme bitcoin.

    Franchement un peu court, nous sommes nombreux à attendre de savoir ce que permet cette nouvelle carte en matiere de GPGPU, un bench de Octane ou Iray est vite réalisé, ça manque cruellement.
  • itou31 , 21 février 2013 15:53
    Oui, c'est vrai, le test Octane est vide réalisé (version demo et il y a même une scene pour le benchmark).
    A comparer avec le top des GPGPU qui est la 580GTX.
  • jankeke , 21 février 2013 16:51
    A quand une GTX Titan X2 ? C'est vrai quoi, on ne pense jamais aux ultra-riches ! Les pauvres* ...





    * huhuhu ^^
  • -1 Masquer
    Tableau Olivier , 22 février 2013 00:13
    On peut pas avoir des tests pour Boinc et Folding par exemple ?

    Merci.

    @+
    *_*
  • job31 , 22 février 2013 01:57
    GROS +1 QUOI !!!

    On nous rabbache que cette carte excelle en GPGU et pas de folding !
  • matthieu lamelot , 22 février 2013 10:29
    Je réponds aux demandes sur les tests GPGPU :
    - Octane est uniquement CUDA, ce qui empêcherait de comparer avec les Radeon donc no go
    - iray est en cours d'évaluation pour être intégré à notre suite de tests
    - on regarde également VrayRT.
  • job31 , 22 février 2013 20:56
    F@H svp par pitié :o 
  • delphi_jb , 23 février 2013 12:05
    matthieu lamelotJe réponds aux demandes sur les tests GPGPU :- Octane est uniquement CUDA, ce qui empêcherait de comparer avec les Radeon donc no go- iray est en cours d'évaluation pour être intégré à notre suite de tests- on regarde également VrayRT.

    Je reste sur ma position:
    Pourquoi ne pas demander à Nvidia une plateforme de test K20X, et ensuite comparer les applications GPGPU avec cette carte ?
  • dom-2207 , 24 février 2013 23:12
    matthieu lamelotJe réponds aux demandes sur les tests GPGPU :- Octane est uniquement CUDA, ce qui empêcherait de comparer avec les Radeon donc no go- iray est en cours d'évaluation pour être intégré à notre suite de tests- on regarde également VrayRT.


    - Pas grave, je ferai le test moi-même...
  • emmanuel gramusset , 28 février 2013 16:26
    Dommage qu'il n'y a pas plus de test sur des logiciels "PRO" tel que 3dsmax - adobe premiere et after effect par exemple... Pas grave je pense la prendre pour remplacer ma gtx 570 et avec le temps nvidia améliorera les drivers...
  • CPC_Boyboy_FR , 10 mars 2013 00:03
    j ai la gforce titan pourtant j ai un score assez pourri sous directX 11 j ai que 23 fps..... totu le reste est bon sauf directx11 ... comment faire ?
Donnez votre avis