Se connecter avec
S'enregistrer | Connectez-vous

PowerTune : plus qu'un nouvel overclocking

Radeon HD 6970 et 6950 VS GeForce GTX 570 et 470
Par , Florian Charpentier

Avant…

Au fur et à mesure des années, AMD et Nvidia ont intégré à leurs cartes des fonctions spécialement destinées à permettre à leur matériel de répondre aux besoins des applications les plus exigeantes puis de ralentir lorsque la charge de travail diminue.

En situation de stress extrême (par exemple sous l’action d’un logiciel comme FurMark, spécialement écrit pour appliquer une charge anormalement élevée), les cartes des deux sociétés réduisent automatiquement la tension et la fréquence de leurs composants afin d’éviter de surcharger le dissipateur thermique. Plus récemment, nous avons également vu apparaître des mécanismes de protection liés au régulateur de tension qui réduisent la fréquence du GPU en cas de surtension, et ce, même si aucune surchauffe n’est détectée.

À l’inverse, les Radeon comme les GeForce ralentissent lorsqu’elles n’ont rien à faire, ce qui se traduit par des économies d’énergie, mais également par uune réduction de la dissipation thermique et des nuisances sonores. Cette capacité à monter en puissance ou à décélérer en fonction des circonstance est ce qui permet de placer un GPU pour desktop dans un portable sans se retrouver avec un système inutilisable.

Les technologies de gestion de l’alimentation avancées par AMD se sont longtemps appelées PowerPlay, un nom surtout connu dans le secteur des ordinateurs portables, étant donné que c’est là que les considérations d’ordre thermique ont le plus d’incidence sur les capacités des GPU. Mais tout bien considéré, PowerPlay est un système relativement rudimentaire ; il prend en charge trois états différents : repos, pointe et intermédiaire, pour les opérations de type lecture vidéo. Pour chacun de ces états, la combinaison tension/fréquence est toutefois statique, un peu comme les barreaux d’une échelle.

Le problème est que les applications ne se comportent pas toutes de la même manière, et que leur comportement ne correspond pas nécessairement à ce que les ingénieurs avaient en tête lors de la conception des composants. Par conséquent, même si le GPU se trouve dans l’état « performances maximum », un logiciel comme FurMark va lui faire consommer, disons, 260 watts, alors que Crysis ne poussera la carte que jusqu’à 220 watts. Dans ces conditions, les concepteurs de la carte graphique ne peuvent pas se permettre de ne prendre que Crysis en compte : il est indispensable de faire en sorte qu’elle fonctionne de manière stable sous FurMark. Ce sont les scénarios catastrophes de ce genre qui entrent en ligne de compte dans la fixation du TDP (thermal design power), ce chiffre clé qui revient si souvent dans nos colonnes.

Lorsqu’elles fixent le TDP, les sociétés comme AMD et Nvidia le font pour l’ensemble de la carte ; il s’agit donc de la limite maximale de consommation totale pour garantir le bon fonctionnement, en toute fiabilité, du GPU, du circuit de régulation de la tension, de la mémoire, etc. Lorsqu’elles fixent la tension et la fréquence pour le P-state le plus élevé (performances de pointe), trois choses sont prises en compte : le TDP, la fréquence stable maximale à une tension donnée et le profil de consommation des applications les plus gourmandes.

Dans certains cas, il est donc nécessaire de plafonner artificiellement les performances du GPU pour ne pas dépasser l’enveloppe thermique allouée. C’est particulièrement courant dans les ordinateurs portables. De même, il faut parfois limiter la fréquence pour être sûr de respecter les spécifications techniques d’un élément extérieur à la carte, comme le bus PCI Express, par exemple. Malheureusement, cela signifie que l’on se retrouve parfois à limiter les performances sous World of Warcraft tout simplement parce qu’il a fallu plafonner les fréquences pour éviter que le test « Perlin Noise » de 3DMark Vantage ne fasse planter la CG. On comprend d’un coup nettement mieux pourquoi nos deux fabricants de GPU détestent les programmes comme FurMark ou OCCT : toutes ces applications entravent artificiellement les capacités réelles de leurs produits.

Quoi qu’il en soit, au final, nous nous retrouvons dans une situation où les cartes graphiques sont protégées contre les dégâts, mais où cela se fait au détriment des performances. Si vous exécutez une application qui n’atteint pas les limites de consommation de la carte, vous la sous-utilisez.

…et maintenant

Mais tout cela est sur le point de changer : AMD affirme en effet que sa technologie PowerTune règle les deux gros problèmes auxquels ont dû faire face jusqu’à présent les fabricants de GPU, et ce, via une gestion dynamique du TDP.

Au lieu de faire passer la carte d’un état d’alimentation à l’autre (repos, intermédiaire, pointe), PowerTune adapte dynamiquement la fréquence du GPU en fonction de la consommation. Si vous overclockez la carte puis lancez une application qui la pousse à dépasser son TDP, PowerTune est censé laisser le GPU dans son P-state le plus élevé, mais réduire la consommation en diminuant automatiquement la fréquence.

Ce qui ne veut pas dire que PowerTune vous évitera de crasher votre carte graphique si vous effectuez un overclocking trop agressif. Nous avons par exemple essayé de booster les fréquences de notre Radeon HD 6970 via le Catalyst Control Center en laissant PowerTune sur ses réglages par défaut, et cela n’a pas manqué : Just Cause 2 et Metro 2033 nous ont fait un beau crash. Il est également important de noter que toute utilisation de PowerTune est considérée comme de l’overclocking, ce qui signifie que si vous grillez votre HD 6xxx toute neuve à cause de cette fonction, la garantie n’entrera pas en jeu. C’est sans doute totalement injuste, mais vous êtes prévenus.

Fonctionnement

Mais les performances, dans tout cela ? Le bon point est que grâce à PowerTune, au lieu de concevoir les Radeon HD 6xxx pour un scénario catastrophe hypothétique, AMD peut maintenant régler en usine une fréquence plus élevée qu’auparavant (880 MHz dans le cas de la HD 6970) et laisser à PowerTune le soin de diminuer les performances dans les applications qui l’auraient par le passé forcée à régler cette fréquence d’usine sur quelque chose comme, par exemple, 750 MHz.

Disons, donc, que vous overclockez votre carte sans toucher aux réglages par défaut de PowerTune dans les pilotes AMD. Si vous lancez une application qui n’était pas limitée par le TDP à la fréquence d’usine et qui n’est toujours pas limitée par la nouvelle fréquence, vous constaterez la hausse de performances attendue. Si votre application n’était pas limitée par le TDP avant l’overclocking mais l’est après celui-ci, vous ne remarquerez qu’une légère hausse des performances. Et enfin, si l’application était déjà limitée par le TDP de la carte, l’overclocking ne va rien vous apporter : en effet, PowerTune modulait déjà les performances.

AMD vous permet toutefois de contourner ce comportement dans une certaine mesure : dans l’onglet AMD Overdrive du nouveau Catalyst Control Center, il y a maintenant une règle coulissante libellée « PowerTune » qui va de -20 % à +20 %. Si vous diminuez ce réglage, vous abaissez le TDP maximal et vous réalisez des économies d’énergie au détriment des performances ; à l’inverse, si vous l’augmentez, vous agrandissez l’enveloppe thermique et vous autorisez les applications qui étaient auparavant limitées par le TDP à bénéficier de performances plus élevées.

En pratique : PowerTune vs Metro 2033

Pour tester le comportement de PowerTune, nous avons lancé une série de jeux avant de finir par opter pour Metro 2033 (que nous utiliserons également plus loin dans cet article pour mesurer la consommation de nos cartes). Nous avons aussi légèrement overclocké la Radeon HD 6970 (915/1400 MHz). Résultat des courses : avec PowerTune réglé à -20 %, nous obtenons 48,54 images/s avec les paramètres visuels du jeu réglés sur « High » ; à 0 %, ce chiffre passe à 56,43 images/s ; et à +20 %, nous observons une légère hausse à 57,33 images/s.

La consommation mesurée (graphique ci-dessus) nous explique ces résultats : lorsque nous réduisons les performances via PowerTune, nous diminuons clairement la consommation (-27 watts en moyenne), mais comme Metro 2033 pompe déjà un maximum de courant, il ne reste plus aucune marge pour monter en puissance, d’où la faiblesse de la hausse du framerate.

D’une certaine manière, AMD exploite déjà au maximum la marge d’overclocking de ses Radeon HD 6900 ; on peut toujours utiliser PowerTune pour tenter d’en récupérer un peu plus, mais au final, les résultats obtenus dépendront des applications utilisées.

AMD nous a expliqué que PowerTune était une fonction matérielle, implantée au cœur du GPU à l’aide d’une série de compteurs, qui fonctionne en temps réel et sans nécessiter le moindre pilote ni la moindre prise en charge par les applications. Elle est néanmoins programmable, ce qui lui prédit de beaux jours dans la version portable des Cayman, qui porteront le nom de Blackcomb.