Samsung, plus largement connu pour la fabrication de moniteurs de télévision, de smartphones et d’autres appareils grand public populaires, est également un leader mondial dans la production de mémoire informatique. Le géant nord-coréen de l’informatique a annoncé qu’il avait développé la première puce de mémoire à large bande passante (HBM) du secteur, intégrée à la puissance de traitement de l’intelligence artificielle, la HBM-PIM.

Comme Intel, AMD, NVIDIA et d’autres intègrent la sécurité, la mise en réseau et d’autres fonctionnalités dans les processeurs, Samsung fait de même, uniquement avec l’IA. La nouvelle architecture de traitement en mémoire (PIM) apporte des capacités de calcul IA en temps réel dans une mémoire haute performance afin d’accélérer le traitement à grande échelle dans les centres de données, les systèmes de calcul haute performance (HPC) et les applications mobiles activées par l’IA.

Le HBM-PIM pionnier est la première solution PIM programmable du secteur conçue pour diverses charges de travail basées sur l’IA telles que le HPC, la formation et l’inférence, a déclaré Samsung. L’entreprise prévoit de s’appuyer sur cela en collaborant davantage avec les fournisseurs de solutions d’IA pour des applications encore plus avancées alimentées par PIM, a déclaré la société.

La conception HBM-PIM a démontré «des gains de performances et de puissance impressionnants sur des classes importantes d’applications d’IA», a déclaré Rick Stevens d’Argonne Labs dans un avis aux médias.

La plupart des systèmes informatiques actuels sont basés sur Architecture von Neumann, qui utilise un processeur et des unités de mémoire séparés pour effectuer des millions de tâches de traitement de données complexes. Cette approche de traitement séquentiel nécessite que les données se déplacent constamment dans les deux sens, ce qui entraîne un goulot d’étranglement ralentissant le système, en particulier lors de la gestion de volumes de données toujours croissants.

Publicité

Au lieu de cela, le HBM-PIM apporte la puissance de traitement directement à l’endroit où les données sont stockées en plaçant un Optimisé DRAM Moteur IA à l’intérieur de chaque banque de mémoire – une sous-unité de stockage – permettant un traitement parallèle et minimisant le mouvement des données. Lorsqu’il est appliqué à SamsungLa solution HBM2 Aquabolt existante, la nouvelle architecture est capable de fournir plus de deux fois les performances du système tout en réduisant la consommation d’énergie de plus de 70%, a déclaré la société. Le HBM-PIM ne nécessite pas non plus de modifications matérielles ou logicielles, permettant une intégration plus rapide dans les systèmes existants, a déclaré Samsung.

L’article de Samsung sur le HBM-PIM a été sélectionné pour être présenté au célèbre Conférence virtuelle internationale sur les circuits à semi-conducteurs (ISSCC), qui a pris fin le 22 février. Le HBM-PIM de Samsung est actuellement testé dans des accélérateurs d’IA par les principaux partenaires de solutions d’IA, toutes les validations devant être terminées au cours du premier semestre de cette année, a déclaré la société.

Rate this post
Publicité
Article précédent5 personnages d’anime qui ont été alimentés par l’amour (et 5 affaiblis par lui)
Article suivantGoogle arrête de développer des outils de suivi Web

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici