Se connecter avec
S'enregistrer | Connectez-vous

La gestion thermique des cartes graphiques récentes

Cartes graphiques : déboulonnons les mythes !
Par

Depuis quelques temps, Radeon et GeForce embarquent des dispositifs de protection  qui augmentent la vitesse des ventilateurs et réduisent éventuellement fréquences et tensions pour éviter la surchauffe. Cette régulation ne garantit pas la parfaite stabilité du système (surtout si l’on est en train d’overclocker) : son but est surtout d’éviter les dégâts matériels.

Il y a eu beaucoup de débats pour distinguer une température GPU encore acceptable d’une température excessive. Sous réserve que le GPU les tolère, les températures élevées peuvent toutefois être souhaitables dans la mesure où la dissipation thermique en sera meilleure (puisque l’écart avec la température ambiante, et donc la quantité de chaleur pouvant être transférée, est plus élevé). D’un point de vue technique, on peut donc comprendre qu’AMD soit frustré des réactions reçues vis-à-vis du plafond thermique de son GPU Hawaii. A notre connaissance, il n’existe pas d’étude sérieuse montrant la viabilité de températures bien précises dans le temps : nous devons donc nous en tenir aux données constructeur pour le moment.

Ceci étant dit, le fait que les transistors en silicium se comportent généralement mieux avec de basses températures est clairement établi : ce n’est donc pas pour rien que l’azote liquide est utilisé pour l’overclocking extrême.

La Radeon HD 7990 et la GeForce GTX 690 font partie des cartes les plus énergivores qui soient avec des TDP respectifs de 375 et 300 Watts. Toutes deux sont des cartes bi-GPU ; si les cartes mono-GPU tendent bien entendu à consommer moins, les Radeon R9 290/290X se rapprochent du seuil de 300 Watts. Pour ces quatre cartes, la quantité de chaleur à dissiper est franchement conséquente.

Le refroidissement des cartes étant un sujet régulièrement abordé depuis de nombreuses années, voyons plutôt ce qu’il se passe lorsque l’on envoie une charge de travail à un GPU récent :

  1. On lance une application nécessitant des traitements intensifs comme par exemple un jeu 3D ou encore un extracteur de Bitcoin
  2. Les fréquences de la carte augmentent jusqu’à leur valeur nominale/maximale (boost) ; la carte voit ses températures grimper du fait qu’elle absorbe plus de courant
  3. La vitesse du/des ventilateur(s) augmente progressivement jusqu’au niveau défini par le firmware. En général, la ventilation est stabilisée aux alentours de 50 dB(A)
  4. Si la ventilation programmée est insuffisante pour maintenir les températures du GPU sous un certain seuil, les fréquences sont diminuées de manière à repasser sous le seuil thermique défini
  5. La carte doit en principe fonctionner selon une plage de fréquences et températures assez limitée jusqu’à fermeture de l’application exerçant la charge de travail

Comme on peut s’en douter, la mise en sécurité d’un GPU dépend de nombreux facteurs comme par exemple une charge spécifique, la ventilation du boitier, la température ambiante et même la pression de l’air ambiant. De ce fait, les cartes ne se mettent pas en sécurité au même moment, voire pas du tout. Cette protection thermique peut être utilisée pour définir un niveau de  performance servant de référence. De plus, on peut créer une mesure relative au bruit en gérant manuellement la vitesse du/des ventilateur(s) : voyons maintenant quelle en est l’utilité.

Interroger un expert

Votre question aux experts de la catégorie Les news : vos réactions du forum

Exemple : Android, ordinateur portable, usb, disque dur

Afficher les 9 commentaires.
Cette page n'accepte plus de commentaires
  • grosloulou , 24 février 2014 09:01
    Article des plus intéressants mais ne donnant finalement qu'une appréciation parcellaire de l'intérêt d'une carte graphique haut de gamme sous WINDOWS. Avec l'évolution actuelle des équipements et des marchés est-il encore véritablement intéressant de se cantonner à cette formule alors que tout tend à laisser penser qu'à terme les développeurs seront de plus en plus enclins à passer à OpenGL plutôt que DirectX et que des nouveautés comme Mantle risquent elles mêmes de ringardiser les chipsets refroidis artificiellement.?
  • Dejy , 24 février 2014 10:41
    Au delà des chiffres et des millisecondes, la seule chose qui compte est la perception ressentie, vitesse et qualité d'image. Le gamer pro est une exception.Moi, 25fps (comme la télé ou le cinéma) me suffisent. Mon "vieux" I7 860 et une GTX660 me permettent même de la 3D sur un écran 24".
  • Johan_et_Pirlouit , 24 février 2014 14:15
    Citation :
    [...] et que des nouveautés comme Mantle risquent elles mêmes de ringardiser les chipsets refroidis artificiellement.?

    Pour Mantle :
    1. C'est AMD et ce n'est pas une bonne nouvelle ces temps-ci.
    2. Ça n'est pas encore sorti et même déjà repoussé. On risque donc d'attendre encore un peu. Si AMD ne change pas encore de concept entre temps...
    3. Ça fonctionnera, peut-être un jour, si et seulement si AMD fait un environnement correct ET fonctionnel. On en est loin et ce n'est pas forcément dans les habitudes d'AMD de faire vite ET bien côté logiciel.
    Sinon, je plussoie : le concept semble prometteur...
  • c_planet , 24 février 2014 17:04
    pourquoi parler de mythe avec les cg 2go > 1go et démontrer qu'il y a bien une réelle différence ?? où est le mythe, où est le déboulonnage ?
  • fitfat , 24 février 2014 17:22
    c_planet>Le mythe est de croire qu'une GTX770 2Go est moins performante qu'une GTX760 4Go pasqu'elle a 2Go de moins.
  • CR77 , 24 février 2014 21:03
    "le nombre d’ips affichées à l’écran ne cesse de varier sur la base de multiples entiers de la fréquence de l’écran (60, 30, 20, 15 ips et ainsi de suite), provoquant ainsi des saccades (stutter)."Outre d'être illogique, cette explication du V-Sync me semble exactement contredire le graphique qui illustre ce qu'est le 'stutter'. Quand le V-Sync est activé il n'y a à ma connaissance pas d'alignement sur un multiple de quoique ce soit (sauf si nous considérons les multiples entiers de 1).Quand l'image est prête dans le buffer et qu'un scan d'écran débute alors le buffer est envoyé à l'affichage. Puis l'image suivante commence à être préparée dans un 2ème buffer et ainsi de suite en alternant d'un buffer à l'autre (ou en copiant rapidement).Par conséquent une même image peut être affichée sur plusieurs scans si la vitesse de rendu est inférieure à la fréquence de l'écran. Ce qui ne signifie aucunement que c'est divisé par un ratio fixe.
  • fitfat , 25 février 2014 09:48
    CR77>Si tu envois 1 images à 2 scans, ramené à 60 scans par seconde, tu as 30 images sur 60 scans par seconde. Donc 30 images par seconde.Si tu envois 1 images à 3 scans, ramené à 60 scans par seconde, tu as 20 images sur 60 scan par seconde. Donc 20 images par seconde.
  • ender91 , 26 février 2014 00:21
    "la valeur 50 dB est donc deux fois plus bruyante que 40 dB"

    Normalement on double le volume tous les 3 dB, 10 dB équivalent à une multiplication par 10 du niveau sonore.
  • fitfat , 26 février 2014 09:51
    C'est pas la même chose. La pression acoustique double tous les 3 dB. En revanche on perçoit un son comme 2 fois plus bruyant qu'un autre quand ils ont une différence de pression d'environ 10dB.