Samsung a une nouvelle mémoire HBM à venir. La société a annoncé que sa mémoire de nouvelle génération utilisera une pile de 12 hauteurs. Le résultat est une capacité de mémoire de 36 Go. Ce sera un problème plus important pour les accélérateurs de nouvelle génération, car les GPU AI consomment de plus grandes quantités de mémoire.
Samsung HBM3E 12H 36 Go en production au deuxième trimestre 2024
La nouvelle mémoire HBM3E augmente le nombre de couches de 8 couches pour un total de 24 Go à 12 couches et 36 Go au total. Pour ceux qui envisagent le changement NVIDIA H100 vers H200, cela va de 5 packages de 16 Go sur le NVIDIA H100 à 6 piles HBM3E de 24 Go sur le H200. L'augmentation de la mémoire signifie souvent que l'on peut faire davantage sur un seul GPU ou un seul accélérateur d'IA pour les applications les plus en vogue aujourd'hui, à savoir la formation et l'inférence de l'IA. Travailler avec des modèles de plus grande taille signifie souvent une qualité supérieure, de sorte que la capacité de la mémoire est configurée pour augmenter.
Pour ce faire, Samsung affirme que la nouvelle mémoire HBM3E 12H utilise «film non conducteur à compression thermique avancée (TC NCF), permettant aux produits à 12 couches d'avoir la même spécification de hauteur que ceux à 8 couches pour répondre aux exigences actuelles des emballages HBM.» (Source:Samsung)
Samsung affirme que TC NCF aide à atténuer la déformation des puces. À mesure que de plus en plus de chips sont empilées les unes sur les autres, l'emballage devient un défi. Ceux qui fabriquent des puces de calcul ne souhaitent pas que les piles HBM deviennent plus hautes, car leurs puces pourraient alors avoir besoin d'un matériau de remplissage pour atteindre la même hauteur pour le refroidissement. Augmenter le nombre de piles signifie que chacune doit être plus fine, et il y a donc un plus grand risque de déformation lorsque la chaleur est appliquée. Samsung affirme que l'écart entre les puces n'est désormais que de 7 micromètres.
Samsung indique également qu'il utilise des bosses de différentes tailles entre les puces pour faciliter la dissipation et la dilatation thermique.
Derniers mots
Samsung a simplement déclaré que sa nouvelle mémoire HBM3E de 36 Go commencerait sa production en série au premier semestre de cette année, ce qui est le code industriel pour le deuxième trimestre d'une année donnée. Si quelque chose est produit au premier trimestre, les entreprises disent Q1. Contrairement à Annonce du HBM3E de Micron cette semaine. Samsung n'a pas nommé de client. Néanmoins, avec NVIDIA absorbant une grande partie de l'offre HBM haut de gamme avec certains des accélérateurs les plus coûteux (Cerebras est plus élevé), nous pensons que le HBM3E en boîtiers de 36 Go sera utilisé dans presque toutes les quantités produites.
->Google Actualités