Gros plan sur la vidéo : VGA

RAMDAC

Un RAMDAC (Random Access Memory Digital Analog Converter) est composé de trois DAC et d’une petite quantité de SRAM. Le processus d’affichage d’une image sur un moniteur CRT se déroule donc comme suit : le CPU et le GPU calculent les attributs (couleur, intensité) de chaque pixel de l’écran. Ces données sont stockées dans la mémoire vidéo sous la forme de mots de 24 bits (8 bits par couleur RVB). Les trois DAC, un par couleur, lisent ces données et les convertissent en signaux analogiques grâce à la palette de couleurs contenue dans la mémoire SRAM. Ces signaux sont ensuite transmis au tube cathodique et pilotent les variations de l’intensité du faisceau d’électrons au cours de son balayage.

La semaine dernière, nous vous parlions des interfaces de stockage, cette semaine nous allons nous intéresser aux interfaces vidéo, les prises que l’on retrouve à l’arrière de nos cartes graphiques. Commençons par la plus ancienne des normes encore en circulation, le VGA.

VGA, pour Video Graphic Array

Tout d’abord, ne confondons pas la norme VGA et le connecteur VGA. Le VGA est un mode d’affichage utilisé sur les PC, le célèbre 640 x 480. Le connecteur VGA, dont nous allons parler ici, est un connecteur introduit en même temps que les premiers écrans compatibles. Point amusant, le connecteur VGA utilise de l’analogique pour le transfert des données alors que les anciens systèmes travaillaient en numérique (auquel nous sommes revenus ensuite avec le DVI).

Un connecteur D-sub

Le connecteur VGA se présente sous la forme d’un connecteur D-sub à 15 broches. On retrouve les broches mâles du côté du câble et la norme veut que le connecteur soit bleu (même si les très anciens PC ne respectent pas nécessairement ce code). Même si on retrouve souvent l’appellation DB-15, l’appellation officielle (qui est en fait fonction de la taille du connecteur) est DE-15.

Le transfert

Le VGA utilise une transmission analogique, les couleurs (Rouge Green — vert — et Bleu) sont transférées sur le câble après une conversion. Dans une carte graphique, qui travaille de façon numérique, il y a donc un composant capable d’effectuer la conversion du numérique à l’analogique (un DAC), le RAMDAC. Une fois la conversion effectuée, les données sont envoyées à l’écran et ce dernier les affiche. Dans le cas d’un écran CRT, il est capable de traiter directement les données en analogique et de les afficher directement. Avec un écran LCD, uniquement capable de travailler en numérique, une deuxième étape de conversion est nécessaire, avec un ADC (Analog to Digital Converter). Le fonctionnement des écrans CRT implique un signal de synchronisation verticale (le V-Blank), qui est toujours utilisé pour des raisons de compatibilité) sur les écrans LCD et qui doit être transmis à l’écran à partir de la carte graphique.

Le problème du RAMDAC

Image 1 : Gros plan sur la vidéo : VGAUn des problèmes de la norme, c’est l’obligation d’utiliser un RAMDAC. Cette puce est nécessaire, mais sa qualité varie en fonction des modèles de cartes graphiques, ce qui peut engendrer des effets de flou dans les hautes résolutions (les utilisateurs de GeForce 2 doivent se souvenir du mode 1 280 x 1 024 quasiment inutilisable). L’autre problème vient de sa fréquence, qui limite dans la pratique la définition maximale. Une image est composée de pixels, affichés un certain nombre de fois par seconde (c’est la fréquence de rafraîchissement) et de l’envoi du signal de synchronisation verticale. Pour savoir si un RAMDAC est suffisamment rapide, il faut multiplier la largeur et la hauteur de l’écran (en pixels) par le taux de rafraîchissement et ensuite multiplier cette valeur par 1,4 (pour la synchronisation). On remarque avec ce calcul qu’une carte graphique récente, dotée d’un RAMDAC à 400 MHz, se limite donc au 2 048 x 1 536 à 85 Hz (environ). Sur les anciennes cartes graphiques, le RAMDAC était bien plus lent (250 MHz en 1998, par exemple) et certains modèles professionnels sont maintenant plus rapides (420 MHz et plus).

L’analogique, les interférences et les conversions

L’autre problème du VGA vient de sa faible résistance aux interférences. Un câble basique (peu blindé) placé à proximité d’enceintes peut par exemple provoquer des artefacts à l’écran et la seule solution consiste à blinder les composants, ce qui n’est pas nécessairement possible, par exemple en milieu industriel. De plus, depuis l’arrivée des écrans LCD, la double conversion (numérique vers analogique puis analogique vers numérique) peut générer une image dégradée, même si les écrans récents ne posent pas trop de problèmes, du moins dans les diagonales classiques où la différence est imperceptible. Attention aussi, certains écrans (particulièrement les 30 pouces) n’intègrent pas de composant ADC et sont donc limités aux interfaces entièrement numériques.

Une norme très courante

Reste que, malgré ses défauts, le VGA reste très courant, et pour cause : le coût de déploiement est très faible. Pour un constructeur d’écran, ne pas proposer de DVI (et son coûteux câble) permet de diminuer le prix et la majorité des cartes graphiques récentes intègrent au moins un RAMDAC (souvent deux). De plus, le parc d’anciens écrans CRT reste encore très grand et le VGA est omniprésent sur ce type de périphérique. Enfin, certaines cartes graphiques — essentiellement les IGP d’ancienne génération comme le GMA 950 d’Intel — ne sont pas compatibles DVI et ne prennent donc en charge que le VGA.

Comme on le voit, même si le VGA a longtemps été utilisé, il est dépassé actuellement et des normes comme le DVI, le HDMI, le DisplayPort et les autres dérivés de ces normes (dont nous parlerons dans les prochains jours) sont bien plus adaptés aux usages des années 2000.

  • Gros plan sur la vidéo : DVI