Samsung débute la production en masse de la HBM2

La HBM2 de SamsungLa HBM2 de SamsungSamsung vient d’annoncer qu’il avait commencé la production en masse d’un module de DRAM de 4 Go utilisant une interface HBM2. Le module sera destiné aux supercalculateurs, les systèmes réseaux de grandes entreprises et aux machines réalisant des calculs physiques avancés. Bref, son introduction sur le marché grand public n’est pas pour tout de suite, mais il est clair que c’est un pas important pour la HBM qui se limite pour l’instant à des cartes graphiques (cf. « AMD aurait du mal à obtenir de la mémoire HBM 2 pour 2016 »). Pour mémoire, le JEDEC a mis le standard HBM à jour en novembre dernier (cf. « Le JEDEC met le standard HBM à jour »).

La puce de DRAM est gravée en 20 nm et empile quatre dies de 1 Go, offrant ainsi une bande passante de 256 Go/s. Samsung a empilé les dies de mémoire sur un die qui sert de tampon. Il a ensuite gravé plus de 5 000 trous sur chaque die pour les connecteurs TSV (Through-Silicon Via) qui vont traverser les dies pour les connecter entre eux. L’idée d’empiler des dies dans une DRAM est loin d’être nouvelle, mais la HBM est nettement plus complexe et demande par exemple 36 fois plus de trous qu’une DDR4 classique de 1 Go. La solution de Samsung se limite pour l’instant aux SoC, mais il annonce aujourd’hui travailler sur des modules de 8 Go de DRAM indépendants qui seront disponibles cette année et qui seront probablement utilisés sur les cartes graphiques. On pense qu’ils seront intégrés sur les cartes qui sortiront en 2017. En attendant, le Pascal de NVIDIA devrait marquer l’arrivée du HBM2 sur le marché grand public (cf. « Le GPU Pascal de NVIDIA aurait un rendement 2X supérieur à Maxwell »).

Posez une question dans la catégorie Les news : vos réactions du forum
Cette page n'accepte plus de commentaires
Soyez le premier à commenter
    Votre commentaire