Test de la GeForce GTX 1060 : peut-elle tuer la Radeon RX 480 ?

Deux mois après ses débuts sur le marché, l'architecture Pascal complète peu à peu l'offre de NVIDIA. Après les GeForce GTX 1080 et GTX 1070 que nous avons testées dès leur lancement, voici donc la GeForce GTX 1060, qui vient combler le milieu de gamme du géant de la puce graphique. Annoncé il y a un peu plus d'une semaine, la carte sera vendue 280 euros pour les modèles les moins chers, et 320 euros pour la version Founders Edition de NVIDIA.

A lire aussi :
- Notre comparatif permanent de GPU
- Comparatif : 6 GeForce GTX 1080 et 1070 en test, pour commencer... !
- GeForce GTX 1070 en test : la petite Pascal domine
- Le grand test de la GeForce GTX 1080 : la nouvelle reine

La GeForce GTX 1060 est basée sur le GPU GP106, moins puissant que les GP104 des GTX 1080 et 1070, mais aussi moins gourmand (120 W). NVIDIA affirme que cette carte offre la puissance d'une GeForce GTX 980, lancée il y a deux ans au prix de 600 euros environ. C'est ce que nous allons vérifier, sans oublier de comparer la carte avec la Radeon RX 480, car la GTX 1060 a été lancée en avance pour tenter de tuer dans l'oeuf la dernière carte d'AMD.

Le GP106 en détail

La GTX 1080, fleuron de NVIDIA, est basée sur la puce GP104, dotée de quatre GPC (Graphics Processing Clusters) activés. Cela donne une carte avec 2560 coeurs CUDA et 160 unités de textures. La GTX 1070 embarque trois GPC, soit 1920 coeurs CUDA et 120 unités de textures. La GTX 1060 se contente de deux GPC, soit 1280 coeurs CUDA et 80 unités de textures. En clair, c'est une GTX 1080 coupée en deux.

Voici un rappel de notre premier test de la GeForce GTX 1080 :

« Chaque TPC offre un Streaming Multiprocessor (SM) et une unité PolyMorph. Le SM intègre 1278 coeurs CUDA en simple précision, un fichier de registre de 256 Ko, 96 Ko de mémoire partagés, 48 Ko de cache L1/texture et huit unités de texture. Le moteur PolyMorph inclut quant à lui un nouveau bloc logique qui se situe à la fin du pipeline géométrique et juste avant l'unité de rastérisation. Il rend ainsi possible la technologie Simultaneous Multi-Projection. »

GP106 contre GM204
GPU
GeForce GTX 1060 (GP106)
GeForce GTX 980 (GM204)
SMs
10
16
Coeurs CUDA
1280
2048
Fréquence de base
1506 MHz
1126 MHz
Fréquence Boost
1708 MHz
1216 MHz
GFLOPS
3855
4612
Unités de textures
80
128
Texel Fill Rate
120.5 GT/s
144.1 GT/s
Mémoire
8 Gbit/s
7 Gbit/s
Bande passante
192 Go/s
224 Go/s
ROPs
48
64
Cache L2
1,5 Mo
2 Mo
TDP
120 W
165 W
Transistors
4,4 milliards
5,2 milliards
Die Size
200 mm²398 mm²
Process Node
16 nm
28 nm

Bus mémoire réduit

Six contrôleurs mémoire offrent un bus mémoire d'une largeur totale de 192 bits. Chaque contrôleur est associé à huit ROPs et 256 Ko de mémoire cache L2. On a donc 48 ROPs et 1,5 Mo de cache L2 au total. Les 6 Go de mémoire vive GDDR5 offrent une bande passante totale de 192 Gbits/s. C'est moins que les 224 Gbits/s de la GTX 980, mais n'oubliez pas que NVIDIA intègre dans sa nouvelle architecture de meilleures techniques de compression sans perte, pour économiser de la bande passante mémoire :

« La technique de compression des delta des couleurs de la GP104 réduit de moitié la place que prennent ces informations et un nouveau mode 4:1 permet de réduire les ressources nécessaires lorsque les informations entre plusieurs pixels sont très légèrement différentes. Il y a aussi un mode 8:1 qui utilise la compression 4:1 sur des blocs de 2x2 pixels, en offrant une compression de 2:1 sur les différences entre eux. »
(de notre test de la GTX 1080)

Evidemment, la puce GP106 est produite selon le même processus de gravure TSMC 16 nm FinFET+ que le GP104. Par rapport à ce dernier, le GP106 passe de 7,2 milliards à 4,4 milliards de transistors FinFET, et de 314 à 200 m² de surface. Une puce plus simple, dont le TDP est donc réduit à 120 W.

Une première : pas de SLI pour le milieu de gamme

Vous aurez remarqué l'absence de connecteur SLI sur le PCB de la carte. C'est la carte la plus haut de gamme que nous nous rappelons être dénuée de technologie SLI. La GeForce GTX 750 Ti ne proposait pas non plus de SLI, certes, mais la 760 pouvait se coupler en SLI, tout comme la GTX 950.

L'explication officielle de NVIDIA est simple : peu de joueurs couplent des cartes graphiques milieu de gamme, et la firme souhaite plutôt se concentrer dans l'optimisation du SLI pour les cartes graphiques Pascal haut de gamme. Au delà de cette explication, il faut remarquer un changement de direction : les développeurs de jeu se concentrent plus le post-processing et les effets spéciaux basés sur du calcul GPU, deux techniques difficiles à gérer pour un SLI classique en AFR (Alternate Frame Rendering, les cartes calculent une image chacun leur tour). Avec DirectX 12, les choses vont peut-être changer, avec une nouvelle manière de gérer le multi-GPU, plus simple pour les développeurs, mais qui va contourner le travail d'optimisation de NVIDIA sur le SLI.

DirectX 12 pour le multi-GPU ?

Le seul jeu de notre suite de test qui gère le multi-GPU avec DirectX 12 est Ashes of the Singularity. Après avoir ajouté une seconde GTX 1060, et cliqué sur l'option de gestion multi-GPU, voici les gains de performances :

Ce n'est pas le genre de gain de performances qu'on pouvait voir avec un SLI, mais environ 50 % de performances en plus, c'est plutôt bon. Notez que ce type de gain est donc impossible a obtenir avec les jeux en DirectX 11, et même avec les jeux DirectX 12 sans gestion multi-GPU intégrée.

Sachant que la GTX 1060 est une carte destinée à la définition 1080p, Nvidia pourrait très bien activer un SLI via l'interface PCI Express, par une simple mise à jour de pilotes. On espère que ce sera le cas, car bon nombre de jeux DirectX 11 pourraient en profiter.

Posez une question dans la catégorie Les news : vos réactions du forum
Cette page n'accepte plus de commentaires
14 commentaires
Commenter depuis le forum
    Votre commentaire
  • jseb75
    L'AFR n'est pas propre à NVIDIA plus qu'à AMD et je vois pas ce qui empêcherait de faire d'en faire via Dx12; après les transferts entre 2 frames, déjà déconseillés en SLI classique poseront des pbs (pas de pont).
    0
  • mitch074
    Même remarque que sur la version US de l'article: pourquoi que des tests DX11, et rien ou presque en Mantle/DX12/Vulkan? Les autres sites attestent que la 1060 fait au mieux jeu égal, et au pire se prend des tartes de la part de la RX480 avec les API modernes. En fournissant une carte graphique:
    - moins chère,
    - disponible en quantité,
    - et plus puissante sur les futurs jeux,
    on peut difficilement dire qu'AMD est "écrasé" par Nvidia... En tout cas pas sur le milieu de gamme.
    2
  • Patrice_1
    Enfin un commentaire qui remet l'église au milieu du village.

    Merci MITCH074

    J'ai l'impression que tout les forum Français sont dévoués à NVIDIA
    1
  • job31
    Anonymous a dit :
    Même remarque que sur la version US de l'article: pourquoi que des tests DX11, et rien ou presque en Mantle/DX12/Vulkan?.


    +1

    Après y'a pas besef de jeux dispo :/
    0
  • teppei
    Le test de consommation à différentes charges est une bonne idée et permet de voir quelle consommation "réelle" va avoir la carte (pour ceux qui ne vont pas pousser tout le temps à fond ou augmenter la résolution) . La RX480 étant concurrente il aurait été intéressant d'avoir le même test afin de pouvoir comparer ces consommations. Pour une carte s'adressant au jeu en 1080p (ou 1440p pour les audacieux) c'est un test sur la consommation moyenne sur Metro Last Light en 4k only....Dommage.
    0
  • mitch074
    Après, c'est vrai que la RX480 consomme beaucoup plus que la 1060 (la mienne pompe autant que la R9 270 qu'elle remplace) - mais comme certains le faisaient remarquer sur d'autres forums, on n'est plus dans les 250-300W, maintenant on chipote entre 120 (une 1060 en conso théorique) et 160W (une RX480 en pic de consommation sans le mode de compatibilité - si on inverse les extrêmes, on tombe à une différence entre 125 et 145W). En gros, n'importe qui avec une alim de 500W peut les installer sans plus avoir à se poser de question.
    0
  • Clavus
    Mouais, ça sent quand même beaucoup le test orienté.

    Ok pascal est très puissant sur les jeux DX11 et DX12 dans une certaine mesure, mais dès qu'on touche à tout ce qui est async compute sur DX12 et Vulkan, c'est vraiment pas brillant comparé à AMD et surtout quand on pense que chez nvidia ce sont les seules puces compatible, alors que chez AMD c'est compatible à partir des HD7000.

    Du coup j'ai un sérieux doute sur la longévité de ces cartes si nvidia ne trouve pas le moyen de corriger le tire avec les pilotes, parce que sinon quand on va se retrouver avec des jeux surtout optimiser pour ces techno en délaissant les version dx11/OGL ça risque de ne pas être brillant du tout...

    Pour l'instant je ne parierai pas sur nvidia pour le coup. Même si pour l'instant Pascal fait illusion. Ca ressemble quand même sacrément à un coup de bluff tout ça.
    2
  • Wololo92
    Bonjour,
    Désolé pour la question un peu HS, est-ce que cette 1060 fonctionnerait sur une ancienne config (fête il y a 3 ans) avec en CM une Asus M5A97 R2.0 et en processeur un AMD FX 8320 - Black Edition ? (il y aura un risque de Cpu limited ? edition photo + quelques jeux)
    Merci !
    0
  • Wololo92
    (purée on peut pas éditer ses commentaires ahhh *(faite(!!) il y a 3 ans)
    0
  • norva
    Mais dans le fond, consommer moins ça sera à quoi? Économiser 5€/an d'électricité? Avoir une température de boitier à 50° ou lieu de 55°? nVidia a posé le fameux "perf/watt" sur la table car c'est leur grand argument marketing et c'est une donnée importante sur les serveurs, mais comme dit plus haut il y a quelques années tout le monde d'en fichait... En tout cas ça a pas l'air de valoir les 50€ de plus qu'une RX 480...
    0
  • nanabozorf
    Il y'a quelques années tout le monde ne s'en fichait pas de la conso, alors pas du tout, ça semblait parti pour grimper non-stop et à l'échelle des pays la surconsommation électrique ça commençait à générer divers soucis qui sont évidents quand on se renseigne un peu sur ces sujets. Fournir de plus en plus d'électricité à des peuples qui ne cessent de s'accroitre au bout d'un moment ça pouvait pas continuer, les acteurs de divers domaines (dont l'informatique et l'électroménager) ont été sommés (avant que ça devienne un argument commercial plus ou moins écolo ou économique) de se calmer sérieusement et de faire des efforts sur l'efficience de leurs produits.
    1
  • mitch074
    Anonymous a dit :
    Mouais, ça sent quand même beaucoup le test orienté.

    Ok pascal est très puissant sur les jeux DX11 et DX12 dans une certaine mesure, mais dès qu'on touche à tout ce qui est async compute sur DX12 et Vulkan, c'est vraiment pas brillant comparé à AMD et surtout quand on pense que chez nvidia ce sont les seules puces compatible, alors que chez AMD c'est compatible à partir des HD7000.

    Du coup j'ai un sérieux doute sur la longévité de ces cartes si nvidia ne trouve pas le moyen de corriger le tire avec les pilotes, parce que sinon quand on va se retrouver avec des jeux surtout optimiser pour ces techno en délaissant les version dx11/OGL ça risque de ne pas être brillant du tout...

    Pour l'instant je ne parierai pas sur nvidia pour le coup. Même si pour l'instant Pascal fait illusion. Ca ressemble quand même sacrément à un coup de bluff tout ça.


    Il faut considérer deux choses: AMD a construit ses puces Graphics Core Next (donc HD7xxx+) autour de l'idée d'en faire de vrais coprocesseurs graphiques (ça entre dans leur initiative HSA), et donc de pouvoir leur déléguer une part importante de leur propre gestion; les GCN 1.0 et surtout les GCN 1.1 incluent donc une part non négligeable de silicone dédié à la gestion des ressources.

    Cependant, DX11 et OpenGL ne permettent pas d'exploiter ces ressources, l'abstraction étant trop forte - ce qui rend l'écriture de pilotes alambiquées. AMD a alors proposé l'API Mantle, qui permet justement de gérer ces ressources (ou de déléguer la gestion des ressources à une unité ad hoc) sans avoir à passer par des trous de souris. Mantle a fait ses preuves avec les quelques jeux supportant l'API qui sont arrivés sur le marché. Comme Intel a commencé à s'intéresser à Mantle, Microsoft a développé DirectX12 en l'espace de 6 mois et l'a livré avec Windows 10. AMD, que développer des API n'intéresse pas plus que ça (leur truc à eux c'est le matos), a proposé Mantle comme base pour GLnext (la future "OpenGL 5"). Intel a trouvé ça cool, Apple a créé Metal (c'est Apple, hein, ils ne font rien comme les autres), Google a dit que ça serait bien pour Android, les autres éditeurs de puces mobiles ont jeté un oeil intéressé (écrire un pilote OpenGL ES est compliqué, écrire un pilote Mantle est beaucoup plus simple)... Et Nvidia a hurlé au loup et a demandé plein de modifications, qui ont été acceptées parce que AMD, tant que l'API permet de causer direct au matos, ils s'en foutent un peu.

    Le résultat, c'est Vulkan.

    Mais, sachant que leurs puces Pascal n'étaient pas du tout conçues pour une gestion fine des ressources, Nvidia s'est lancé encore plus avant dans la gestion d'API propriétaires: PhysX est ultra-verrouillé, et GameWorks requiert de signer son âme et la vie de son premier né pour pouvoir s'en servir. Ces API sont optimisées pour le matériel Nvidia et ne fournissent qu'un support sommaire, via CPU uniquement, sur le matos d'autres fabricants.

    Et nous avons donc le résultat actuel: un jeu DX11 + PhysX + Gameworks va littéralement massacrer les performances d'une puce AMD (mais aussi Intel, et les anciennes puces Nvidia). Inversement, un jeu programmé pour faire proprement usage de Vulkan, Mantle ou DX12 va cartonner sur matos AMD GCN 1.0 (2012, quand même) et plus récent, sur les puces Intel les plus récentes, mais aussi sur puces mobiles capables... Et donner des résultats seulement correct sous matos Nvidia.

    Après, c'est un choix: si on souscrit à l'écosystème Nvidia (G-sync, etc.) et qu'on ne joue qu'à des jeux GameWorks+PhysX (essentiellement DirectX 11, donc), la 1060 est la meilleure carte sur le segment 250-300€.

    Ou alors, on veut jouer à des jeux en dehors de l'écosystème Nvidia et faisant appel à des API modernes, et à ce moment-là la RX480 est la meilleure carte sur ce segment de prix.
    1
  • Clavus
    C'est une belle explication complète ça :D Encore une fois nvidia avec ses techno propriétaire joue le cancer du jeu vidéo et freine au maximum les avancés pour se faire du fric avec leur vieux matos complètement dépassé... Mais comme c'est nvidia personne ne dis rien. Et il y en a encore pour crier au génie.

    Faut juste espérer que cette fois ci les dev fassent le bon choix comme iD...
    1
  • speedstream
    Une phrase qui mérite plus de réflexion à propos de Project Cars. Je cite :
    "Project CARS pose depuis longtemps de grosses difficultés aux cartes d'AMD, et l'éditeur soutient qu'il n'y a aucune optimisation de son moteur 3D au profit de la concurrence."

    Lorsque l'on regarde le comportement général de la 390X comparée à la 480 dans les test, elles sont en général quasiment au même niveau. En général... Car régulièrement, lorsque les moteurs de rendus sont considérés avantager AMD, la 390X repasse devant.

    Avec le moteur de Project Cars, on voit 30% d'avantage pour toutes les cartes Nvidia mais on cite l'éditeur qui dit que son moteur n'est pas optimisé Nvidia. De qui se moque-t-on ?

    Là je m'adresse au journalistes de tomshardware : Nous prenez vous pour des billes ? Vous rélféchiseez certainement. Mais pas toujours aux bons endroits.

    Cet éditeur a sans doute un tas de mauvaises raisons de dire qu'il n'a voulu avantager personne. Sans dire qu'il a peut-être reçu les conseils de Nvidia pour le créer, concevoir un moteur, c'est faire des choix d'algorithmes. Certaines approches peuvent favoriser une architecture ou une autre lors de l'affichage ultérieur.
    Si cet éditeur dit qu'il n'a voulu avantager personne et que Nvidia n'a rien à voir là-dedans, c'est qu'il veut tout simplement masquer les limites des compétences de sa société et ne pas avouer que son moteur aurait pu être plus équilibré et équitable pour les cartes en présence en le créant différemment.

    Loin de toutes considérations et préférences quant à une marque de cartes ou l'autre et uniquement aux fins d'équité, volontairement ou non de la part de l'éditeur, le résultat avantage Nvidia. Les faits sont là.
    Donc ne pas le reconnaître revient à vouloir masquer une vérité pour des raisons que lui seul connait.

    Et tout comme cela a été rapporté précédemment, ce test montre bien trop de jeux DX11. Il n'est donc pas représentatif des performances de la carte. A quand des tests incluant Vulkan ou Mantle ? Tom's Hadware devrait être à l'affût des portages, refaire des comparatifs sur Star Swarm et j'en passe. Au moins pour pouvoir décliner un suivi de l'évolution des performances, des API, des drivers.

    Au lieu de cela (et comme d'autres sites), il n'y a rien.

    Les linuxiens sont toujours à la porte sous prétexte que DX12 est sorti... après Mantle ou Vulkan.
    Hé les journaleux ! Va peut-être falloir se mettre sous Linux autrement que pour mettre en ligne le site sous Apache...
    0