La société sud-coréenne Samsung Electronics Co. accélère ses efforts pour pénétrer plus profondément le marché de la mémoire à large bande passante 3 (HBM3), un domaine qu’elle a négligé par rapport aux autres puces hautes performances en raison de sa part infime sur l’ensemble du marché des puces mémoire.
Mais l’avènement de l’IA générative telle que ChatGPT pousse le premier fabricant de puces mémoire au monde à accélérer la production de puces HBM, qui offrent des vitesses de traitement des données plus rapides et une consommation d’énergie inférieure à celle des DRAM conventionnelles.
Samsung a récemment expédié des échantillons de produits HBM3 avec une capacité de mémoire de 16 gigaoctets (Go) avec la consommation d’énergie la plus faible de son genre aux clients, selon des sources de l’industrie lundi.
Actuellement, les 16 Go constituent la capacité de mémoire maximale des produits HBM3 existants et traitent les données à une vitesse de 6,4 Go par seconde, la plus rapide du secteur.
Il a également livré les échantillons d’un HBM3 24 Go 12 couches, une puce HBM de quatrième génération et la plus fine de son genre. Son plus petit rival national SK Hynix Inc. a déjà dévoilé le modèle du même type pour la première fois au monde en avril dernier.
Samsung est maintenant prêt à produire en masse les deux types de HBM3, ont indiqué les sources. Au second semestre, il lancera un modèle avancé de mémoire HBM3 avec des performances et une capacité supérieures.
Un HBM est un produit fabriqué en empilant verticalement des puces DRAM. Il est principalement utilisé pour les unités de traitement graphique (GPU) qui alimentent les plates-formes d’IA génératives telles que ChatGPT.
Samsung aurait commencé à expédier les produits HBM3 à ses principaux clients.
Les unités de traitement accéléré MI 300 récemment annoncées par AMD Inc. sont intégrées à la mémoire HBM3 de Samsung. AMD est une société américaine de semi-conducteurs sans usine. Les puces MI 300 sont utilisées pour alimenter les supercalculateurs.
Le supercalculateur Aurora, développé conjointement par Intel Corp. et l’Argonne National Laboratory, serait équipé de puces Samsung, selon les sources.
DANS LES PREMIERES STADES DE CROISSANCE
HBM n’était pas en haut de la liste pour Samsung. Il s’est plutôt concentré sur les puces mobiles et les technologies informatiques hautes performances conçues pour améliorer la capacité de traitement des données et les performances des calculs complexes.
Le marché HBM est encore à ses débuts de croissance, représentant moins de 1% du marché DRAM.
Mais l’incursion agressive de Samsung dans le secteur devrait secouer le marché HBM, donnant une longueur d’avance au marché atone de la DRAM, ont déclaré des observateurs de l’industrie.
Le marché HBM devrait croître à un taux annuel moyen de 45 % ou plus entre cette année et 2025, parallèlement à la croissance du marché de l’IA, selon TrendForce.
SK Hynix contrôle la moitié du marché mondial du HBM, suivi par Samsung avec une participation de 40% et Micron Technology Inc. avec une participation de 10%, a déclaré la société de recherche basée à Taiwan.
En 2021, Samsung a développé HBM-PIM (processing-in-memory) intégré à un accélérateur d’IA. Il améliore la capacité générative d’une application d’IA de 3,4 fois plus qu’un accélérateur GPU alimenté par HBM, selon Samsung Electronics.
Il a également dévoilé les DRAM CXL, qui ont une plus grande capacité de traitement de données que les DRAM conventionnelles afin d’éviter un goulot d’étranglement de la mémoire pour les supercalculateurs IA, ou un ralentissement de la génération de texte et du mouvement des données.
Écrire à Jeong-Soo Hwang à hjs@hankyung.com
Yeonhee Kim a édité cet article