Le géant coréen de la technologie vise à exploiter le marché dominé par TSMC

Image : Nvidia
H100 a HBM3 attaché sur ses côtés. Image : Nvidia

Nvidia travaillait à diversifier son approvisionnement en packages HBM3 et 2.5D utilisés dans les GPU AI pour les centres de données, a appris TheElec.

Le géant américain des puces négociait des accords avec des fournisseurs potentiels, dont Samsung, ont indiqué des sources.

Actuellement, Nvidia, pour ses A100, H100 et d’autres GPU AI, utilise TSMC pour le processus frontal de fabrication des wafers et du package 2.5.

Les puces HBM, ou mémoire à large bande passante, utilisées avec les GPU AI sont exclusivement fournies par SK Hynix.

Publicité

Cependant, TSMC n’a pas la capacité de gérer toute la charge de travail de l’emballage 2.5D que ces puces doivent traverser.

Nvidia est en pourparlers sur le volume et le prix avec des fournisseurs secondaires et alternatifs, ont indiqué des sources.

Ceux-ci incluent Amkor Technology des États-Unis et SPIL de Taiwan. SK Hynix continuera à fournir le HMB3 utilisé.

L’équipe AVP (Advanced Package Team) de Samsung est un autre fournisseur potentiel. Cette équipe a été formée à la fin de l’année dernière par le géant technologique sud-coréen pour augmenter les revenus de l’emballage des puces.

L’équipe AVP peut recevoir les tranches de GPU AI achetées par Nvidia auprès de TSMC ; il peut ensuite se procurer HBM3 auprès de l’unité commerciale des puces mémoire de Samsung et utiliser son propre boîtier I-Cube 2.5D pour terminer le travail.

Samsung a fait cette proposition à Nvidia, tout en ajoutant qu’il peut engager un nombre important d’ingénieurs dans le projet. Samsung propose également de concevoir la plaquette d’interposition pour Nvidia.

Si le géant technologique sud-coréen devrait gérer environ 10 % du volume du package GPU AI de Nvidia grâce à l’accord, ont indiqué des sources.

Cependant, Samsung devra répondre aux exigences de Nvidia et réussir le test de qualité pour son package HBM3 et 2.5D, ont-ils ajouté.

Samsung prévoit de commencer la production de HBM3 plus tard cette année. Plus tôt ce mois-ci, le PDG de Samsung et patron des puces, Kyung Kye-hyun, via le chat interne de l’entreprise, a partagé que le HBM3 de l’entreprise avait été évalué comme excellent par un client. Kyung a déclaré qu’il s’attendait à ce que HBM3 et HBM3P contribuent à l’augmentation des bénéfices de la division des puces à partir de l’année prochaine.

Pendant ce temps, TSMC prévoyait également d’augmenter sa capacité de conditionnement 2.5D de plus de 40 % pour répondre à la demande croissante de Nvidia.

Cela signifie qu’à moins que Samsung ne passe rapidement l’évaluation de Nvidia, il pourrait ne pas conclure l’affaire.

Samsung travaille également au développement d’un package sans bosse d’ici 2025. Le package est destiné au HBM à haute couche et peut aider à réduire la hauteur des packages. La technologie est également appelée Cu to Cu, collage direct ou collage hybride.

저작권자 © THE ELEC, Korea Electronics Industry Media 무단전재 및 재배포 금지

->Google Actualités

4.4/5 - (34 votes)
Publicité
Article précédentTest du Huawei MateBook X Pro (2023) : participer
Article suivantComment cacher votre gamertag dans Minecraft

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici