Samsung » data-auto-tag-linker= »true » data-before-rewrite-localise= »https://www.techradar.com/tag/samsung »>SamsungLa dernière technologie de mémoire de a atteint des vitesses stupéfiantes de 9,8 Gb/s – ou 1,2 To/s – ce qui signifie qu’elle est plus de 50 % plus rapide que son prédécesseur.

La norme de mémoire HBM3E, surnommée Shinebolt, est la dernière d’une série d’unités de mémoire hautes performances développées par Samsung pour l’ère du cloud computing et de la demande croissante de ressources.

Shinebolt est le successeur d’Icebolt, disponible en variétés allant jusqu’à 32 Go, et peut atteindre des vitesses allant jusqu’à 6,4 Gb/s. Ces puces ont été conçues spécifiquement pour être utilisées avec le meilleurs GPU dans le domaine du traitement de l’IA et des LLM, l’entreprise augmentant sa production cette année à mesure que l’industrie émergente prend de l’ampleur.

Alimenter la prochaine génération de puces IA

HBM3E trouvera inévitablement sa place dans les composants développés par des sociétés comme Nvidiaavec chaque suggestion, il peut se frayer un chemin dans le GH200surnommée Grace Hopper, à la lumière d’un récent accord conclu.

La mémoire à large bande passante (HBM) est beaucoup plus rapide et plus économe en énergie que la mémoire conventionnelle RAMet utilise la technologie d’empilement 3D qui permet d’empiler les couches de puces les unes sur les autres.

Publicité

Le HBM3E de Samsung empile des couches plus hautes que dans les itérations précédentes grâce à l’utilisation de la technologie de film non conducteur (NCF), qui élimine les espaces entre les couches des puces. La conductivité thermique est maximisée et peut ainsi atteindre des vitesses et une efficacité beaucoup plus élevées.

Selon Samsung, l’unité alimentera la prochaine génération d’applications d’IA, car elle accélérera la formation et l’inférence de l’IA dans les centres de données et améliorera le coût total de possession (TCO).

Encore plus excitante est la perspective qu’il soit inclus dans la puce IA de nouvelle génération de Nvidia, la H200. Les deux sociétés ont conclu un accord en septembre selon lequel Samsung fournirait au fabricant de puces des unités de mémoire HBM3, selon le Quotidien économique coréenSamsung devant fournir environ 30 % de la mémoire de Nvidia d’ici 2024.

Si ce partenariat se poursuit, il est fort probable que les composants HBM3E fassent partie de cet accord une fois qu’ils entreront en production de masse.

Plus de TechRadar Pro

4.1/5 - (15 votes)
Publicité
Article précédent7 effets de statut Minecraft que vous ne connaissiez pas
Article suivantNaughty Dog avance le développement de « The Last of Us: Part III Remastered » avant « The Last of Us: Part III »
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici