Radeon RX Vega 64 et 56 : notre test complet

Performances de minage Ethereum

La dernière version du logiciel Dual Ethereum AMD/Nvidia GPU Miner (v9.8) de Claymore supporte la Radeon RX Vega, c'est donc ce logiciel de mining que nous avons utilisé pour nos tests.

Toutes les cartes d'AMD fonctionnent en mode ASM, ce qui demande un réglage fin à l'aide de la commande -dcri. Notre Radeon R9 Fury X voit son taux de MH/s le plus élevé avec -dcri 85, alors que le réglage optimal pour notre Radeon R9 390X est -dcri 20. Après de nombreux essais, nous obtenons le hashrate le plus élevé avec notre Radeon RX 580 8GB en utilisant le kernel ASM alternatif (-asm 2). La Radeon RX Vega 64 ne semble pas aussi sensible à ce genre d'ajustements : modifier le réglage par défaut (-dcri 30) n'apporte pas grand chose en terme de performances.

Ce qui saute aux yeux, c'est probablement les mauvaises performances de la GTX 1080. Mais cela n'est pas une surprise : le mining d'Ethereum est particulièrement sensible aux timings de la mémoire graphique, et la GDDR5 est plus performante que la GDDR5X à ce petit jeu. Les GTX 1080 Ti et Titan Xp réglent ce problème avec une interface mémoire 384-bit. Si vous aviez la possibilité de fabriquer votre propre carte graphique à partir de composants de chez NVIDIA, il faudrait donc choisir un GP102 avec un bus 384-bit, associé à de la GDDR5 9Gbps overclockée à 10 Gbps. Ah, si seulement c'était aussi simple...

La Radeon RX Vega 64 d'AMD n'est pas le monstre de minage tant attendu, en tout cas avec la version actuelle du mineur de Claymore.

Nous savons que les mineurs professionnels modifient en profondeur le firmware de ces cartes graphiques, en modifiant particulièrement les timings et la fréquence de la mémoire embarquée, afin d'atteindre des hashrates sensiblement plus importants. Gardez simplement en tête que les performances que nous avons mesurées proviennent de cartes sorties d'usine, avant qu'elles soient optimisées pour du minage d'ETH.

Etant donné le prix de la RX Vega 64, les mineurs devraient plutôt se tourner vers les Radeon R9 300 Series et autres RX400/500 en vente sur Ebay, plutôt que de dépenser plus de 500 euros dans une carte graphique Vega...

Posez une question dans la catégorie Les news : vos réactions du forum
Cette page n'accepte plus de commentaires
8 commentaires
Commenter depuis le forum
    Votre commentaire
  • Johan_et_Pirlouit
    Citation:
    les Vega 10 regroupent 12,5 milliards de transistors sur une surface de 486 mm² !

    486... Ils auraient voulu le faire exprès, ils n'y seraient pas arrivé :lol: ..

    Plus sérieusement, quelqu'un peut m'expliquer comment des cartes graphiques avec ces fameux ventilateurs radiaux engoncés dans des packages aussi rectangulaires peuvent se refroidir correctement (et donc maintenir leurs performances au maximum sans throttleling) quand on en place deux ou plus côte à côte ? Bizarrement, très peu de tests en parlent... Je dis ça autant pour AMD que pour nVidia, vu que les packages sont quasi les mêmes.
  • ophiure
    Et les performances sous Blender en OpenCL, Autocad, 3DS, l'encodage vidéo ?
    Même les mineurs ont un test ! pour ceux qui bossent, rien de rien !
  • ulnarevern
    Je plussoie Ophiure, des tests en application pro auraient été plus que souhaitables, pour comparer aux Nvidia (question de polyvalence, puisque les Vega gamer et pro ont une base commune) ; ainsi qu'avec des CPU Ryzen/Threadripper, pour comparer aux CPU Intel
  • ayle__
    La carte explose tout sous blender ses perfs serait 3,5fois superieur a une 1080ti d'apres un test. Sinon elle encaiserait aussi une important baisse en undervolting lui permettant de revenir a environ 40w de la 1070 pour la Vega 56 apparement
  • ayle__
    Bon j'ai un peu déliré sur les résultats sous blender mais elle roule quand meme sur la 1080Ti :D https://www.reddit.com/r/Amd/comments/6tnu9r/vega_64_20_faster_in_blender_than_gtx_1080ti/
  • ulnarevern
    Merci pour l'info, c'est bien ce qui me semblait!
  • Darkjedi69
    Peux t'on esperer un test/une page avec l'undervolting ? on arriverait du coup a de meilleures perfs (lu sur les commentaires d'hardware.fr) car la limite de consommation est atteint beaucoup plus tard.
  • aubert_emmanuel
    Les test sous blender sont biasé, differentes versions, pas la mm api, il vaut mieux tester sur un bon vieux luxmark pour avoir un vrai test