Samsung a annoncé mardi avoir développé la première DRAM HBM3E à 12 piles du secteur, ce qui en fait une mémoire à large bande passante avec la capacité la plus élevée à ce jour.
Le géant technologique sud-coréen a déclaré que la DRAM HBM3E 12H offre une bande passante maximale de 1 280 Go/s et une capacité de 36 Go. La bande passante et la capacité sont toutes en hausse de 50 % par rapport au HBM3 à 8 piles, a déclaré Samsung.
HBM sont composés de plusieurs modules DRAM empilés verticalement, chacun étant appelé pile ou couche. Dans le cas du dernier-né de Samsung, chaque module DRAM a une capacité de 24 gigabits (Go), équivalent à 3 gigaoctets (Go), et ils sont au nombre de douze.
Les fabricants de mémoire Samsung, SK Hynix et Micron rivalisent pour empiler davantage tout en limitant la hauteur des piles afin de rendre la puce aussi fine que possible avec plus de capacité.
Tous les trois prévoient d'augmenter leur production de HBM cette année, le cycle baissier du marché des puces mémoire étant apparemment terminé, et pour répondre à la forte demande liée à la popularité de l'IA, qui a accru la demande de GPU __ surtout ceux fabriqués par Nvidia __ qui sont associés à ces HBM.
Selon Samsung, il a appliqué un film non conducteur à compression thermique avancée (TC NCF) pour que le HBM3E à 12 piles ait la même hauteur que celui à 8 piles afin de répondre aux exigences du boîtier. Le film était plus fin que ceux utilisés précédemment et éliminait les vides entre les piles et l'espace entre eux était réduit à sept micromètres, a indiqué la société, permettant au HBM3E à 12 piles d'avoir une densité verticale de plus de 20 % par rapport à 8 piles.
Samsung a déclaré que TC NCF autorisait également l'utilisation de petites et grandes bosses, où lors de la liaison des puces, de petites bosses sont utilisées dans les zones de signalisation et les plus grandes dans les endroits nécessitant une dissipation thermique.
Le géant de la technologie a déclaré que les performances et la capacité plus élevées du HBM3E 12H permettront aux clients de réduire le coût total de possession des centres de données. Pour les applications d'IA, la vitesse moyenne de formation de l'IA peut être augmentée de 34 % et le nombre d'utilisateurs simultanés de services d'inférence peut être multiplié par 11,5 par rapport au HBM3 8H, a affirmé Samsung.
La société a déjà fourni des échantillons de HBM3E 12H à ses clients et prévoit de démarrer la production en série au cours du premier semestre de cette année.