SK Hynix annonce le développement de la DRAM HBM3 : jusqu’à 24 Go de capacité, 12 piles hautes et 819 Go/s de bande passante

0
27

SK Hynix a annoncé qu’il est devenu le premier du secteur à développer la norme de mémoire à large bande passante de nouvelle génération, HBM3.

SK Hynix est le premier à terminer le développement HBM3 : jusqu’à 24 Go en pile 12 Hi, bande passante de 819 Go/s

Selon SK Hynix, la société a développé avec succès sa DRAM HBM3, marquant la prochaine génération de produits de mémoire à large bande passante. La nouvelle norme de mémoire améliorera non seulement la bande passante, mais augmentera également les capacités DRAM en empilant plusieurs puces DRAM verticalement en piles.

Galaxy Z Fold 3 semble utiliser un capteur tiers pour son téléobjectif

SK Hynix a commencé le développement de sa DRAM HBM3 en commençant par la production en série de la mémoire HBM2E en juillet de l’année dernière. La société annonce aujourd’hui que sa DRAM HBM3 sera disponible en deux capacités, une variante de 24 Go qui sera la plus grande capacité de l’industrie pour la DRAM spécifique et une variante de 16 Go. La variante 24 Go comportera une pile 12-Hi composée de puces DRAM 2 Go tandis que les variantes 16 Go utiliseront une pile 8-Hi. La société mentionne également que la hauteur des puces DRAM a été réduite à 30 micromètres (m, 10-6m).

« Depuis le lancement de la première DRAM HBM au monde, SK hynix a réussi à développer la première HBM3 de l’industrie après avoir dominé le marché HBM2E », a déclaré Seon-yong Cha, vice-président exécutif en charge du développement de la DRAM. « Nous poursuivrons nos efforts pour consolider notre leadership sur le marché des mémoires premium et contribuer à renforcer les valeurs de nos clients en fournissant des produits conformes aux normes de gestion ESG. »

via SK Hynix

En ce qui concerne les performances, la DRAM SK Hynix HBM3 devrait fournir une bande passante de 819 Go/s par pile. Il s’agit d’une amélioration de 78 % par rapport à la DRAM HBM2E de SK Hynix qui fournit 460 Go/s de bande passante. Un GPU comme le NVIDIA A100 qui comprend 6 piles HBM2E sera capable de fournir jusqu’à 5 To/s de bande passante contre 2,0 To/s de bande passante qu’il fournit actuellement en utilisant les normes DRAM existantes. La capacité de mémoire utilisant les matrices DRAM de 24 Go devrait également théoriquement atteindre 120 Go (5 matrices sur 6 activées en raison des rendements) et 144 Go avec l’ensemble de la pile de matrices activée. Il est probable que les successeurs de NVIDIA Ampere (Ampere Next) et CDNA 2 (CDNA 3) seront les premiers à utiliser la norme de mémoire HBM3.

Le nouveau type de mémoire devrait être adopté par les centres de données hautes performances et les plates-formes d’apprentissage automatique au cours de l’année à venir. Tout récemment, Synopsys a également annoncé qu’elle augmentait les conceptions d’architectures multi-dies avec HBM3 IP et les solutions de vérification, plus à ce sujet ici.