Quand une seule GeForce Kepler remplace trois GTX 580

À la Game Developper Conference (GDC) de l'année dernière Epic montrait sa fameuse démo technologique Samaritain. Cette magnifique vitrine de la prochaine génération de jeux vidéos était tellement gourmande qu'il fallait trois GeForce GTX 580 en SLi pour la faire tourner. À la GDC cette année, il suffit d'une seule GeForce "Kepler".

Le Samaritain était en outre l'occasion de prouver l'efficacité d'un nouveau mode de filtrage, le FXAA (Fast Approximate Anti-Aliasing). Ce mode est encore plus efficace pour réduire le crénelage que le MSAA (pour vous en convaincre, jetez un oeil au gif ci-dessous) tout en consommant beaucoup de moins de mémoire, comme l'explique Ignacio Llamas, chercheur pour Nvidia qui a participé à l'implémentation du FXAA dans la démo : « Sans antialiasing, le rendu des éclairages consomme environ 120 Mo de mémoire GPU. Activer le MSAA 4x nécessite presque 500 Mo, un tiers de ce qui est disponible sur une GTX 580. Cette pression accrue sur la mémoire fait qu'il est plus difficile de stocker les textures très détaillées de la démo dans la mémoire GPU [...] ce qui peut faire baisser le nombre d'images par seconde. Le FXAA est une technique d'antialisaing basée sur les shaders qui ne requiert pas plus de mémoire. »

Posez une question dans la catégorie Les news : vos réactions du forum
Cette page n'accepte plus de commentaires
9 commentaires
    Votre commentaire
  • fredom1989
    C'est cool; on peut donc en conclure que le moteur a été nettement amélioré et que Nvidia reste numéro dans le domaine du marketing de ses GPU.
    -2
  • delphi_jb
    Donc via cette nouvelle technique, on peut conclure qu'il ne faut plus stocker XX la texture en mémoire pour effectuer le traitement de l'antialiasing. C'est une super nouvelle et grosse avancée dans le domaine !
    Traité direct dans les shaders, ca aurait du être fait depuis longtemps tant ça parait logique ^^
    1
  • fitfat
    Ah bah l'était temps que les devs de JV s'y mettent, ça fait prêt de 6 ans qu'ATI et nVidia ont présenté la possibilité.
    0