Retour en images sur plusieurs décennies de cartes graphiques NVIDIA et de technologies que le constructeur a mis au point.
Alors que NVIDIA a ces derniers mois inondé le marché avec ses nouvelles GeForce RTX 4000 Series, revenons rapidement sur l’histoire de ce constructeur de chipsets graphiques, depuis le NV1 cadencé à 75 MHz en 1995 jusqu’aux dernières GeForce RTX en passant par les différentes générations de chipsets graphiques, avec des succès et des échecs.
Retrouvez les dernières actualités concernant NVIDIA :
- Entre progrès douteux et promesses bidons, le cirque technologique continue : c’est le recap’ critique de la semaine !
- Découvrez le GIGA POD, un centre de données évolutif et optimisé pour l’IA
- Le DLSS arrive officiellement dans Starfield, plus besoin de mod !
- Alan Wake 2 montre du gameplay exclusif, mais sans Alan Wake !
NV1 : la première puce NVIDIA
L’histoire de NVIDIA commence en 1995 avec la puce NV1, fabriquée par SGS-THOMSON Microelectronics sous le nom STG-2000. Les cartes qui l’embarquait, comme la célèbre Diamond Edge 3D, rassemblaient une carte 2D, un accélérateur 3D, une carte son et un emplacement pour des manettes Saturn dans la même carte PCI. La carte était interfacée en PCI (133 Mo/s de bande passante) et était équipée de mémoire EDO, cadencée à 75 MHz, qui pouvait être augmentée sur certains modèles (de 2 à 4 Mo). Elle proposait uniquement une sortie VGA, limitée au 1 600 x 1 200 en 15 bits.
Le principal problème du NV1 vient de sa gestion de la 3D : il utilisait le quadratic texture mapping (QTM) au lieu de la technique actuelle, à base de polygones. Comme DirectX, sorti peu après, utilisait les polygones, le NV1 fut un échec. Le NV2 utilisait la même méthode de rendu et n’a jamais été terminé : il devait être utilisé à la base dans la console Dreamcast (qui a succédé à la Saturn) mais Sega a finalement choisi une technologie à base de polygones (PowerVR).
NV3 : Riva 128 et Direct3D
En 1997, NVIDIA passe à la 3D à base de polygones avec le NV3, plus connu sous le nom de Riva 128. Riva signifie Real-time Interactive Video and Animation accelerator (accélérateur interactif d’animation et de vidéo en temps réel). La Riva 128 a été populaire auprès des OEM : pour un prix inférieur à celui d’une Voodoo Graphics elle proposait la 2D et la 3D, avec des performances proches en Direct3D. Il s’agit aussi d’une des premières cartes sur bus AGP.
Deux versions de la puce existent : Riva 128 et Riva 128ZX. La différence est faible : un RAMDAC plus rapide sur la ZX, 8 Mo au lieu de 4 Mo de mémoire et le support de l’AGP 2x. Les deux cartes étaient équipées avec de la mémoire SDRAM sur 128 bits et cadencée à 100 MHz, ce qui offrait une bande passante énorme de 1,6 Go/s. À noter la Riva 128ZX avait un RAMDAC plus rapide pour la sortie VGA, 250 MHz contre 206 MHz. À l’époque, le concurrent le plus sérieux de la Riva 128 était un certain i740 fabriqué par Intel…
NV4 : TwinTexels pour la TNT
1998. 3Dfx dispose d’une carte 3D très performante, la Voodoo2, mais avec des limitations importantes : gestion de la mémoire archaïque (textures séparées), limitation au 16 bits, obligation d’utiliser une carte graphique 2D et limitation dans la pratique au PCI (même si des modèles AGP existent). Arrive alors la Riva TNT : une carte rapide en 3D, équipée de beaucoup de mémoire (pour l’époque) et qui offrait une partie 2D efficace. En dehors de la partie vidéo (pas d’accélération du MPEG2, contrairement à ATI), la TNT est un succès. C’est la première carte NVIDIA capable d’appliquer deux textures en une seule passe, d’où le nom de la carte (TwiN Textel).
La TNT est une carte moins puissante qu’originellement prévu : NVIDIA comptait au départ sortir une carte plus rapide que la Voodoo 2, gravée en 250 nm avec une fréquence de 110 MHz (et 200 MHz pour la mémoire). La TNT sera finalement gravée en 350 nm et cadencée à 90 MHz, comme la carte de 3Dfx, avec de la mémoire à 110 MHz.
NV5 : La première Ultra
En 1999, le NV5, alias TNT2 débarque. Proche de ce que devait être la TNT à la base, on peut la considérer comme un die shrink de la Riva TNT, du 350 au 250 nm. C’est aussi la première fois que NVIDIA utilise le nom Ultra pour une de ses cartes : la société segmente les cartes TNT2 en fonction de la fréquence. À l’époque, NVIDIA n’a utilisé que deux versions (loin des délires actuels) : TNT2 et TNT2 Ultra. La TNT2 est une carte puissante pour l’époque, largement capable d’égaler les Voodoo 3 tout en offrant plus de fonctions, même si le décodage du MPEG2 reste absent. C’est aussi la première carte AGP 4x de NVIDIA, même si cette norme n’a pas réellement été utilisée avec la TNT2.
Notons que le NV6, sorti aussi en 1999, est une version castrée du TNT2. Il a été vendu sous le nom Vanta, Vanta LT et TNT2 M64. Ces cartes sont nettement moins rapides que les TNT2 (et TNT classiques) essentiellement à cause d’une fréquence de fonctionnement plus faible et d’un bus mémoire en 64 bits. Elles ont eu beaucoup de succès chez les OEM, qui mettaient en avant le nom TNT2.
NV10 : GeForce, le premier GPU
Fin 1999, NVIDIA annonce la GeForce 256. Première carte à utiliser ce que NVIDIA appelle un GPU, elle apporte surtout la gestion du T&L (Transform & Lighting). Elle sait donc effectuer les calculs sur les triangles à la place du CPU. Gain effectif ? La GeForce 256 peut gérer 15 millions de triangles, un CPU haut de gamme de l’époque, comme le Pentium III 550 MHz, seulement 4 millions.
La carte utilise une architecture différente de celle de la TNT2 : au lieu de 2 pipelines de rendu équipé chacun d’une unité de texturing, on a 4 pipelines de rendu avec une unité de texturing. Enfin, la GeForce 256 est aussi la première carte à utiliser de la DDR-SDRAM, pour presque doubler la bande passante de la mémoire.
La GeForce 256 est aussi la première carte NVIDIA à prendre en compte l’accélération du format MPEG2, mais de façon partielle (Motion Compensation). Enfin, c’est aussi la première carte grand public qui a été équipée d’une prise DVI (via une puce externe).
A lire aussi, les dernières actualités consacrées aux GeForce de NVIDIA :
NV15 : NVIDIA améliore la GeForce 256
Nous sommes en 2000, NVIDIA dispose d’une carte rapide (la GeForce 256 DDR), mais ATI commence à essayer de concurrencer réellement la firme du caméléon avec la Radeon, plus efficace et plus rapide. NVIDIA sort alors une nouvelle carte, la GeForce 2 GTS (GigaTexel Shader). Gravée en 180 nm, son GPU NV15 double le nombre d’unités de texturing : on passe de une à deux par pipeline de rendu, ce qui permet d’appliquer huit textures en une passe. NVIDIA a sorti plusieurs versions de la carte : GTS (200 MHz GPU/166 MHz DDR-SDRAM), Pro (200/200) et Ti (250/200).
Notons qu’en août 2000, en attendant la GeForce 3, NVIDIA a sorti le NV16 (GeForce 2 Ultra). Ce n’était pas une nouvelle carte, mais un NV15 cadencé plus rapidement, 250 MHz pour le GPU et 230 MHz pour la mémoire contre 200 et 166 MHz sur la carte originale. A l’époque, c’est aussi une des cartes les plus onéreuses produites par la firme.
NV11 : la première déclinaison bas de gamme
Restons en 2000. La GeForce 2 GTS est performante, mais onéreuse et NVIDIA se doit de proposer une carte pour les amateurs de jeux qui ne sont pas capables de placer le SMIC dans une machine. La société développe donc le NV11, la GeForce 2 MX. Son architecture est dérivée de celle des GeForce 2 GTS. NVIDIA a supprimé une partie des pipelines de rendu, mais en multitexturing une GeForce 2 MX offre toujours plus de puissance qu’une GeForce 256. C’est la première carte NVIDIA qui va permettre de gérer plusieurs écrans et cette fonction restera cantonnée au milieu de gamme encore quelques années. La GeForce 2 MX a aussi été la première GeForce déclinée en version mobile (GeForce 2 Go).
De nombreuses versions ont existé : la MX400 (équipée d’un GPU à 200 MHz), la MX200 (équipée d’un GPU à 175 MHz et de mémoire 64 bits à 166 MHz) et la très mauvaise MX100 dont le GPU à 143 MHz était bridé par de la mémoire en 32 bits (0,6 Go/s de bande passante). Notons enfin les rares cartes équipées de DDR en 64 bits, globalement équivalentes aux versions SDR 128 bits.
NV20 : La GeForce 3 débarque
En 2001, la GeForce 3 (NV20) débarque. Cette carte, la première compatible DirectX 8, supporte les pixels shaders programmables. Composée de 57 millions de transistors, la GeForce 3 avait des fréquences assez faibles et une GeForce 2 Ultra arrivait à la battre dans beaucoup de cas (à sa sortie). La carte dispose de quelques améliorations au niveau de la gestion de la mémoire, mais elle a le gros défaut d’utiliser une architecture complexe, qui a empêché NVIDIA de développer une version d’entrée de gamme.
NVIDIA a tout de même proposé deux versions différentes de la GeForce 3 : la Ti 200, un peu moins onéreuse que l’originale, et la Ti 500, plus chère. La première est cadencée à 175/200 (GPU/mémoire), la seconde à 240/250 MHz.
NV17 : La GeForce 4 qui est une GeForce 2
Passons en 2002 : la GeForce 3 est performante, mais complexe. La décliner en version d’entrée de gamme est difficile, NVIDIA utilise donc l’architecture des GeForce 2 pour créer le NV17, appelé GeForce 4 MX. Le NV17 possède deux pipelines capables de rendre deux textures, comme le NV11 des GeForce 2 MX, mais ses fréquences sont plus élevées. Le NV17 est aussi équipé de la gestion de la mémoire apparue avec les GeForce 3, décode le MPEG2 de façon matérielle et supporte plusieurs écrans. Malgré tout, il reste une puce DirectX 7 dépassée au lancement.
La gamme était composée de trois cartes : MX420, MX440 et MX460. La première cadencée à 250 MHz pour le GPU et 166 MHz (SDR) pour la mémoire, la seconde à 275/200 (DDR) et la dernière à 300/275 (DDR). NVIDIA proposera, en plus, des versions mobiles (GeForce 4 Go), des versions AGP 8x, avec la puce NV18, et même une version PCI-Express en 2003, la PCX4300, équipée d’un bridge AGP 8x vers PCI-Express 16x.
NV2A : Une GeForce dans une console
En 2001, Microsoft sort sa première console de jeu, la Xbox. Elle est très proche d’un PC dans son architecture (elle utilise un processeur x86 et fonctionne sous Windows) et la carte graphique est d’origine NVIDIA. Le NV2A (c’est son nom) est une puce intermédiaire entre la GeForce 3 et la GeForce 4. Bien optimisée dans la Xbox, elle supporte DirectX 8.1 (à travers le noyau NT5 de la console) et a permis à la Xbox d’offrir des jeux impressionnants graphiquement pour l’époque.
Pour la Xbox 360, c’est ATI qui va fournir la puce et NVIDIA va passer à l’ennemi avec la puce RSX de la PlayStation 3.
NV25 : GeForce 3 en mieux, la GeForce 4 Ti
En février 2002, la GeForce 4 Ti relève la GeForce 3. Son GPU NV25 est gravé en 150 nm. Grâce à fréquence plus élevée et à deux fois plus d’unités de calcul, le NV25 offre environ trois fois la puissance en Vertex Shader du NV20. De plus, NVIDIA a amélioré le LMA, sa technologie qui permet de limiter les besoins en bande passante mémoire en ne calculant pas les données qui ne sont pas affichées. NVIDIA a vendu trois versions de la carte : la GeForce 4 Ti 4200 (GPU à 250 MHz, mémoire à 250 MHz, la Ti 4400 (275/275) et la Ti 4600 (300/325).
Fin 2002, le NV28 est arrivé. Cette puce, proche du NV25, apporte simplement le support de l’AGP 8x aux cartes GeForce 4 Ti. La GeForce Ti 4800 (300/325) était d’ailleurs identique à la GeForce 4 Ti 4600 en dehors de cette compatibilité. Notons enfin que la GeForce Ti 4200 128 Mo disposait d’une bande passante inférieure à la version 64 Mo : la mémoire ne fonctionnait qu’à 222 MHz contre 250 MHz en version 64 Mo.
NV30 : NVIDIA rate une carte, la FX5800
En janvier 2003, NVIDIA sort la GeForce FX 5800 (NV30). Cette carte a été critiquée, tant pour ses performances indignes d’une carte haut de gamme, que pour le bruit de sèche-cheveux de la carte. ATI, avec sa Radeon 9700 Pro, disposait à l’époque d’une carte bien plus efficace et plus rapide. Le NV30 a été un échec commercial, même si NVIDIA se plaît parfois à affirmer que c’est une des meilleures choses qui soit arrivée à la société (dans le sens où elle a permis à la société de comprendre que rien n’est acquis).
La version Ultra de la carte était encore plus rapide (ou plutôt moins lente) avec une fréquence de 500 MHz pour le GPU et la mémoire (en DDR2).
NV3x : NVIDIA décline les GeForce FX (et PCX)
Même après l’échec du NV30, NVIDIA va garder son architecture. La GeForce FX 5900 va succéder à la GeForce FX 5800 : bus mémoire sur 256 bits et amélioration de la puissance de calcul en Vertex Shader, la FX 5900 est une carte qui est arrivée à concurrencer les cartes concurrentes (Radeon 9800 Pro). NVIDIA a aussi décliné sa gamme GeForce FX en entrée et en milieu de gamme : FX5600 (NV31) et FX5700 (NV36) en milieu de gamme et FX5200 (NV34) en entrée de gamme. Notons que ces cartes ont une particularité : elles se faisaient battre par leurs prédécesseures (GeForce 4 Ti 4200).
NVIDIA a aussi sorti des cartes PCI-Express, les GeForce PCX, mais il s’agissait essentiellement de cartes AGP équipées d’un bridge AGP vers PCI-Express. Enfin, certaines FX 5200 étaient équipées d’un bus 64 bits (au lieu de 128 bits) et d’une fréquence plus faible (166 contre 200 MHz) pour la mémoire.
NV40/NV45 : NVIDIA revient dans la course avec la GeForce 6800 et le SLI
Après les GeForce FX 5000, NVIDIA se devait de réagir. Chose que la société a parfaitement réussie avec le NV40, la GeForce 6800. Cette carte, extrêmement efficace, offre une puissance bien plus élevée que la FX 5900 au prix d’un nombre de transistors important (222 millions). Le NV45, aussi appelé GeForce 6800, n’est rien d’autre qu’un NV40 intégrant un bridge AGP vers PCI-Express, permettant à la carte de supporter cette nouvelle norme et surtout le SLI. Cette technologie permet de coupler deux cartes GeForce 6 en PCI-Express pour augmenter les performances.
Des cartes basées sur le NV41 et le NV42 ont aussi été produites. Le NV41 est un NV40 avec quelques unités en moins (12 pipelines et 5 unités de Vertex), utilisé dans certaines GeForce 6800 alors que le NV42 est un NV41 gravé en 110 nm (donc moins cher à produire).
NV4x : Les GeForce 6 envahissent le monde
Après les GeForce 6800, NVIDIA a dû sortir des cartes moins rapides, mais aussi moins onéreuses. Les deux cartes, les GeForce 6600 et 6200, auront un certain succès. Les GeForce 6600, gravées en 110 nm, étaient basées sur le NV43 et avaient un bon rapport performance/prix. Elles furent les premières cartes NVIDIA nativement PCI-Express, les versions AGP utilisant un bridge PCI-Express vers AGP. En version PCI-Express, les GeForce 6600 pouvaient fonctionner en SLI.
Les GeForce 6200 sont les premières cartes TurboCache du fabricant : en plus de sa mémoire dédiée (de 16 à 512 Mo), le GPU NV44 peut utiliser de la mémoire vive comme mémoire vidéo. Certains constructeurs en ont profité pour vendre des GeForce 6200 « 256 Mo » qui avaient seulement 64 Mo de mémoire dédiée. Une version du NV44, la GeForce 6100, sera intégrée dans certains chipsets NVIDIA. Gravée en 90 nm, cette puce n’offrait qu’un seul pipeline de rendu et était dépourvue de mémoire dédiée.
G70 et G71 : NVIDIA change de nomenclature
En 2005, NVIDIA annonce les GeForce 7. Le nom de code des puces, qui était traditionnellement NVxx, passe à Gxx. La première carte est le G70 (GeForce 7800), suivie assez rapidement par le G71 (GeForce 7900). Plus puissante que les 6800, les GeForce 7800 sont une réussite pour NVIDIA. Notons que les cartes ont été déclinées dans énormément de versions : GTX, GS, etc. Des versions AGP, avec le bridge PCI-Express vers AGP, ont aussi été vendues.
Avec les GeForce 7900, NVIDIA utilise aussi pour la première fois une technique déjà proposée par ses concurrents : les cartes bi-GPU. Les 7900GX2 et 7950GX2 seront deux cartes équipées de deux G71 en parallèle. La société réutilisera cette technique en 2008, avec les GeForce 9800GX2.
G72 et G73 : L’entrée de gamme en GeForce 7
Comme d’habitude, NVIDIA a décliné son architecture haut de gamme en deux versions, une entrée de gamme (G72, GeForce 7300) et une milieu de gamme (G73, GeForce 7600). Les deux puces sont gravées en 90 nm et offrent des performances correctes, sans plus. Comme souvent, les versions mobiles utilisent les puces milieu de gamme et les GeForce 7300 Go ont été très populaires.
Notons que des versions portables moins rapides (7200 Go) et plus rapides (7400 Go) ont été proposées. De plus, une version 80 nm du G73 a aussi été vendue par NVIDIA.
G80 et G92 : NVIDIA et la 8800, GeForce 8 ou GeForce 9 ?
Novembre 2006, NVIDIA annonce le G80. Cette puce et ses dérivés auront une durée de vie très élevée : en mai 2008, les cartes les plus rapides utilisent encore une puce très proche de ce G80 (le G92, die shrink en 65 nm). NVIDIA va modifier le nombre de processeurs de flux, la largeur du bus mémoire et la fréquence pour proposer énormément de versions des GeForce 8800 et 9800. Une version équipée de 2 GPU existe même, la GeForce 9800GX2. Les GeForce 8800 sont toutes DirectX 10.
Rions un brin, et passons en revue toutes les GeForce 8800 sorties : 8800GS 374, 8800GS 768, 8800GTS 320, 8800GTS 640, 8800GTS 640 v2, 8800GTS 512, 8800GT 256, 8800GT 512, 8800GT 1024, 8800GTX 768 et 8800 Ultra 768. Rajoutons les 9600GSO 512, 9600GSO 384 et 9600GSO 768 ainsi que les 9800GX2 et 9800GTX et n’oublions pas les 9800GTS et 9800GT. Et encore, nous vous épargnons les versions mobiles.
G8x et G94 : GeForce 8 en entrée de gamme
Pour arriver à vendre des cartes en entrée de gamme, NVIDIA a dû sévèrement modifier le G80. Étant donné le nombre de transistors de ce dernier, il était hors de question de l’utiliser tel quel. La société a proposé trois puces (globalement) : GeForce 8400 (G86), GeForce 8600 (G84) et GeForce 9600 (G94). D’autres versions existent (GeForce 8300, 8500, etc.) mais ces trois modèles sont les plus importants. Le G84 a été beaucoup utilisé dans les PC portables, comme carte haut de gamme, alors que dans les PC de bureau il s’agit d’un (faible) milieu de gamme.
- A lire aussi : G45 contre Geforce 9400M
Autant le G80 et les GeForce 8800 sont un succès, autant les GeForce 8600 et GeForce 8400 sont des cartes très moyennes. L’écart entre le haut de gamme et le milieu de gamme (avant l’arrivée des GeForce 9600) est très important sur cette génération, ce qui est problématique dans les jeux.
Les GTX 2xx, une franche réussite en haut de gamme
En juin 2008, après quelques errances avec les GeForce 9, NVIDIA annonce la GeForce GTX 280. Cette carte est basée sur le GT200, une puce énorme — 1,3 milliard de transistors en 65 nm — et coûteuse. Performante avec ses 240 processeurs de flux et sa mémoire GDDR3 sur 512 bits, la carte est malgré tout assez peu vendue, à cause de son prix élevé. La puce a été déclinée en quelques versions (GTX 260, 275, 285 et 295) et NVIDIA a proposé, en 2009, une version en 55 nm, plus simple à produire. La GTX 295, une carte bi-GPU haut de gamme, a longtemps été la carte la plus rapide disponible.
- A lire aussi : GeForce GTX 275 : le bon compromis ?
Les cartes basées sur le GT200 et le GT200b sont restées longtemps dans les bacs car NVIDIA eut du mal à lancer la carte suivante, la GTX 480 alias Fermi.
GeForce 100, 200 et 300 : la traversée du désert
Après la sortie de la GeForce GTX 280 en juin 2008 et jusqu’en 2010, NVIDIA n’a pas annoncé de véritables nouveaux produits. Pour combler le vide médiatique que l’absence de produits créait, Nvidia a décidé de renommer les mêmes cartes. Concrètement, les GeForce 100, 200 et 300 sont soit des puces renommées soit des adaptations des puces existantes. En effet, NVIDIA a réussi, après de longs mois, à produire une gamme de produits d’entrée de gamme en 40 nm et compatible DirectX 10.1.
Bien évidemment, cette situation n’est intéressante ni pour les constructeurs (qui doivent essayer de vendre des produits identiques sous plusieurs noms) ni pour les utilisateurs, qui considèrent (à raison) la gamme comme confuse.
ION, la renaissance ?
En octobre 2008, Nvidia annonce le MCP79, qui deviendra par la suite (avec la sortie de l’Atom d’Intel) la plateforme ION. Ce chipset est très intéressant : il intègre (dans une seule puce) une GeForce 9, un northbridge (DDR2 et DDR3) et un southbridge. Très populaire, il sera à la base d’une majorité de machines d’Apple en 2009 et présent dans beaucoup de netbooks. L’ION aura aussi une seconde vie en 2010 avec ION « next gen » qui — selon l’habitude de NVIDIA à l’époque — est un simple renommage d’une GeForce 210…
Dans les faits, ION était une bonne surprise à la base mais il manque de puissance dans sa seconde version, à cause des limitations imposées par Intel (notamment au niveau du PCI-Express). Notons que les netbooks 10 pouces ont une version moins rapide d’ION, limitée à 8 processeurs de flux.
La GeForce GTX 480, une déception
La GeForce GTX 480, c’est une déception. Attendue en novembre 2009 avec 512 processeurs de flux, elle sort à la fin du mois de mars avec 480 processeurs de flux, elle chauffe énormément et elle n’est que marginalement plus rapide que la Radeon HD 5870, sortie en septembre 2009. Plus gênant, la consommation est extrêmement élevée (pas loin de 300 W) et le prix est assez haut. La carte s’avère en revanche (très) performante en GPGPU, même si ce n’est pas un domaine qui intéresse les joueurs.
Au final, la carte déçoit, tout comme son pendant moins onéreux la GeForce GTX 470.
- A lire aussi : GeForce GTX 460 : le Fermi que nous attendions
GeForce GTX 580 : Fermi, en mieux
En 2010, NVIDIA a lancé les cartes basées sur l’architecture Fermi, alias GeForce 5xx. Les GPU de la famille GF11x sont gravées en 40 nm. Le GF110 de la GeForce GTX 580 compte 512 unités de calcul. Les autres variantes sont plus petites : GF114 (jusqu’à 384 unités), GF116 (jusqu’à 192 unités), GF118 et GF119 (96 et 48 unités).
La GeForce GTX 580 était plus rapide et consommait moins que la GTX 480. NVIDIA a ainsi pu sortir une GeForce GTX 590, équipée de deux GPU GF110, avec un TDP assez élevé de 365 W.
Dans le monde mobile, NVIDIA a utilisé des variantes du GF11x (GF114, GF116 et GF119) mais aussi des GF10x, comme pour la GeForce GT 555M, équipée d’un GF106 ou d’un GF108 selon les cas…
GeForce ULV et Tegra
En 2011, NVIDIA a lancé Tegra 2, un SoC intégrant deux cores ARM (Cortex A9) mais — surtout — un GPU maison, vendu sous la marque GeForce ULV. Ce GPU utilise une architecture fixe (contrairement aux GeForce qui sont programmables) et s’approche, plus d’une GeForce 6 que des GPU Fermi. NVIDIA a évidemment utilisé ses rapports avec les développeurs pour proposer des versions améliorées de certains jeux.
NVIDIA va utiliser ce GPU dans différentes versions de Tegra : Tegra 2 dispose de 8 unités, avec 4 dédiés aux vertex shaders et 4 dédiées aux pixels shaders. Avec Tegra 3, on passe à 12 unités : 8 pour les pixels, 4 pour les vertex. Avec Tegra 4, NVIDIA augmente fortement le nombre d’unités, tout en restant sur la même base (ou presque) : on passe à 72 unités, avec 24 unités de vertex shaders et 48 unités de pixels shaders. Tegra 4i, version d’entrée de gamme, dispose tout de même de 60 unités : 48 pour les pixels, 12 pour les vertex.
Kepler, le retour en grâce
En 2012, NVIDIA revient avec Kepler. La GeForce GTX 680 est la première carte Kepler, mais elle n’utilise pas le GPU le plus complet, qui arrivera plus tard. Le GK104 contient 1 536 unités de calcul, supporte une sorte de mode Turbo (GPU Boost), est capable de prendre en charge le DisplayPort 1.2 (et donc les écrans 4K) et est compatible PCI-Express 3.0, une première. On trouve aussi, nouveauté, un encodeur vidéo dans les puces.
- A lire aussi : Nvidia GeForce GTX 670 : oubliez la GTX 680 !
Le GK104 sera aussi utilisé dans une carte dotée de deux GPU, la GeForce GTX 690. Son petit frère, le GK106 contient au mieux 960 unités de calcul et se trouve dans des cartes comme les GTX 650 et 660. Il existe encore un GK107 (384 unités de calcul) et un GK208, une évolution mineure (384 unités de calcul). Dans tous les cas, les puces sont gravées en 28 nm par TSMC.
Enfin, Kepler est au coeur du SoC Tegra K1, qui embarque un GPU équivalent à une demi-puce GK108, soit 192 unités de calcul.
Kepler, version deux
En 2013, NVIDIA a musclé la gamme Kepler, avec des cartes qui utilisent le GPU GK110. Le GK110 est le Kepler le plus gros et le plus rapide, que la société a utilisé d’abord dans la gamme professionnelle avant de l’intégrer dans une gamme grand public « luxe » avec la GTX Titan puis dans une gamme grand public plus classique avec la GeForce GTX 780 et ses déclinaisons. Le GK110 est un GPU énorme, qui contient 2 880 unités de calcul, et compliqué à produire, ce qui explique son intégration dans des cartes vendues 1 000 € (et dans des gammes professionnelles proposées à plusieurs milliers d’euros).
La gamme GeForce 7xx contient les cartes « Titan » (GTX Titan, Titan Black, Titan Z) mais aussi des cartes basées sur le plus ancien GK104, sous un autre nom. Dans le monde mobile, les GeForce 7xx sont soit des Kepler de l’ancienne gamme (GK104, 107, etc.) soit des Fermi, la GeForce 705M utilise par exemple un antique GF119 gravé en 40 nm.
Maxwell arrive
En février 2014, NVIDIA a lancé la première carte Maxwell. Alors qu’on attendait un GM104 ou un GM110, NVIDIA propose dans un premier temps un GM107, et deux cartes d’entrée de gamme, les GTX 750 et 750 Ti. Cette puce a une excellente efficacité énergétique : ses performances sont au niveau de la GeForce GTX 480, mais sa consommation est très faible, environ 60 W.
Maxwell est ensuite décliné en versions mobiles (GM107 avec les GeForce 850M et 860M, puis GM108 avec les GeForce 830M et 840M) et professionnelles (Quadro K420/620 et K1200/2200). Le GM107 contient au mieux 640 unités de calcul, contre seulement 384 dans le GM108.
Par rapport à Kepler, Maxwell apporte le support de CUDA Compute Capability 5.0 et supporte les API DirectX 12, OpenGL 5.5 et OpenCL 1.2. Les moteurs NVENC et PureVideo sont quant à eux plus rapides.
Maxwell, le retour
En septembre 2014, NVIDIA dévoile la seconde génération de GPU Maxwell avec le GM204 et les GeForce 970 et 980 qui prennent enfin la relève des GTX 780 et 780 Ti. Suivent le GM206 (GeForce GTX 960) en janvier 2015, et enfin, en avril 2015, le GM200 de la GeForce GTX Titan X puis la GeForce 980 Ti. Véritable monstre, le GM200 possède 3072 unités de calcul (soit 24 SMM) pour un total de 8 milliards de transistors (et un TDP de 250 watts).
Cette nouvelle gamme de GPU bénéficie de nombreuses nouvelles fonctionnalités telles que Dynamic Super Resolution, Third Generation Delta Color Compression, Multi-Pixel Programming Sampling, Real-Time-Voxel-Global Illumination (VXGI) VR Direct, Multi-Projection Acceleration ou encore Multi-Frame Sampled Anti-Aliasing (MFAA). Le support du HDMI 2.0 fait également son apparition avec cette génération de chipsets graphiques.
Pascal, ou la domination
Au printemps 2016, deux ans après Maxwell, Nvidia lance son architecture Pascal. Quasiment identique à Maxwell, sa fabrication en 16 nm FinFET lui permet de monter plus haut en fréquence et de baisser sa consommation.
Pour Pascal, Nvidia renoue avec ses meilleures années et lance d’abord son haut de gamme, la GTX 1080 et la GTX 1070. Leur GPU est le GP104 qui compte 7,2 milliards de transistors. Avec 2560 CUDA cores, 160 TMUs, 64 ROPs, et 20 PolyMorph engines la GTX 1080 s’avère 70 % plus puissante que le GTX 980. Un an après son lancement, la GTX 1080 domine toujours le haut de gamme, sans concurrence d’AMD.
Pascal phase 2, enfin complet
Le plus gros GPU Pascal sort quelques temps après avec la GeForce Titan X Pascal. Il s’appelle GP102 et compte 12 milliards de transistors. La Titan X Pascal a ensuite une petite soeur, la GeForce GTX 1080 Ti. Elle aussi doté d’un GP102, elle s’avère encore plus performante grâce à une fréquence de fonctionnement de 1582 MHz contre 1531 MHz.
- A lire aussi : Test : deux NVIDIA TITAN X en SLI, ça donne quoi ?
Ceci dit, dans la Titan X Pascal et la GTX 1080 Ti, le GP102 n’est pas complet. Sur les 3840 coeurs CUDA gravés dans le silicium, seuls 3584 sont actifs. Début 2017, Nvidia offre enfin aux puristes le GPU qu’ils attendaient, la GeForce Titan Xp, dont les 3840 coeurs battent à 1582 MHz. Notez que dans un dernier temps, pour contrer la Radeon Vega 56, NVIDIA a aussi lancé la GeForce GTX 1070 Ti (sur GPU GP104 avec 2432 coeurs CUDA).
- A lire aussi : La folle histoire du BIOS des GeForce GTX 1070 Ti…
Fin 2017 : Volta donne la TITAN V
Volta symbolise le nouveau tournant de NVIDIA sur les GPU : l’intelligence artificielle. La firme a déjà entamé le virage des supercalculateurs depuis quelques années, mais compte bien participer à la révolution de l’IA. Ainsi, l’architecture Volta est lancée en juin 2017, mais seulement pour les serveurs dans la gamme Tesla (V100). C’est le premier GPU intégrant des coeurs TensorFlow, pour accélérer en matériel la librairie d’IA TensorFlow de Google, et le premier GPU NVIDIA à exploiter de la mémoire HBM.
Difficile d’en parler dans ce dossier qui ne parle que des cartes graphiques grand public… Mais Volta a donné sa première carte utilisable dans un PC classique, sous le nom de TITAN V. Cette dernière n’a jamais vraiment été destinée aux joueurs, même si quelques tests ont été effectués ici et là. Elle est effectivement plus puissante (5120 coeurs CUDA !), mais pas optimisée pour les jeux, car destinée aux stations de travail. Elle s’apparente toutefois à une TITAN classique.
2018 : Turing, le ray-tracing et l’intelligence artificielle
NVIDIA continue dans son idée : faire du GPU une plateforme d’accélération de calcul de plus en plus complet. Turing succède en 2018 à Volta avec des coeurs Tensor Flow perfectionnés pour l’IA, mais s’offre aussi une nouvelle unité de traitement : les coeurs RTX, qui consistent à accélérer en matériel les calculs nécessaires au lancé de rayons, ou RayTracing. Les nouvelles GeForce du genre ont alors un nouveau suffixe : RTX au lieu de GTX. Elles promettent de révolutionner les effets de reflets, d’ombre et de lumière dans les jeux en organisant un rendu hybride entre rastérisation classique et ray tracing tout en faisant appel à l’intelligence artificielle pour sa technologie DLSS.
Les premières cartes lancées sont les GeForce RTX 2080 Ti, RTX 2080 et RTX 2070. Elles sont les premières à embarquer de la mémoire GDDR6 (pas de HBM cette fois), et sont aussi les premières Founders Edition sans ventilation radiale. On y compte respectivement 4352, 2944 et 2304 coeurs CUDA. Notez que le GPU est aussi présent dans de nouvelles Quadro pour stations de travail, les RTX 5000 et 6000, la dernière montant à 4608 coeurs CUDA, 576 coeurs Tensor, et 72 coeurs RT, le maximum de la puce TU102, comptant 18,6 milliards de transistors sur une surface de 754 mm² !
2019 : Turing en version Super, mais aussi sans ray-tracing
En 2019, NVIDIA rafraichit sa gamme avec des versions “Super” de ses GeForce RTX 20 Series. Il n’y pas de changement architectural, les RTX 2060 Super, RTX 2070 Super et RTX 2080 Super reprenant des chipsets TU104 et TU106 existants mais avec des fréquences en hausse et des différences au niveau des coeurs CUDA activés.
La même année, NVIDIA propose ses GeForce GTX 16 Series, basées sur l’architecture Turing mais sans coeurs RT, avec comme idée de définitivement mettre hors de combat les Radeon RX 590 et RX 580 concurrentes. La GeForce GTX 1660 se montre particulièrement intéressante, avec des performances plus élevées que la GeForce GTX 1060 et de nombreuses technologies propres à l’architecture Turing (Mesh Shading, Variable Rate Shading ainsi que l’encodeur vidéo matériel NVENC amélioré).
2020-2022 : les RTX de deuxième génération, et la suite
Entre septembre 2020 et mars 2022, NVIDIA va lancer une gamme complète de GeForce RTX 30 Series “Ampere”, avec en premier les RTX 3090, RTX 3080 et RTX 3070 basées sur un GA102 pour les deux premières et un chipset GA104 pour la dernière. En pratique, Ampere se présente comme une évolution de l’architecture Turing, avec une augmentation des différentes unités de calcul et des fréquences, mais aussi des optimisations et améliorations du côté des RT Cores et des Tensor Cores dont le rendement est doublé.
Le constructeur sort également des versions Ti de certains modèles, en particulier une GeForce RTX 3060 Ti particulièrement réussie, mais surtout une GeForce RTX 3090 Ti en mars 2022, une carte qui devient alors la plus puissante du marché grand public. Cette génération de cartes graphiques a particulièrement souffert des pénuries de composants et de la “concurrence” du minage de cryptomonnaies, avec pour conséquence des prix réels constatés largement suppérieurs aux tarifs conseillés.
En 2022, à l’heure où ces lignes sont rédigées, l’histoire de NVIDIA est encore en train de s’écrire avec le lancement des GeForce RTX 40 Series basées sur l’architecture Ada Lovelace, en particulier les GeForce RTX 4080 et RTX 4090…
Découvrez les dernières actualités sur les GeForce RTX 40 Series :