Samsung Electronics a annoncé mercredi avoir développé une mémoire à large bande passante (HBM) intégrée avec une puissance de traitement d’intelligence artificielle.
La nouvelle architecture de traitement en mémoire (PIM) ajoute des moteurs d’intelligence artificielle au HBM2 Aquabolt de Samsung, qui lancé pour la première fois en 2018.
La puce, appelée HBM-PIM, double les performances des systèmes d’IA tout en réduisant la consommation d’énergie de plus de 70% par rapport au HBM2 conventionnel, a déclaré Samsung.
Le géant de la technologie sud-coréen a expliqué que cela était possible car l’installation de moteurs d’IA dans chaque banque de mémoire maximise le traitement parallèle tout en minimisant le mouvement des données. En fournissant ces performances améliorées, Samsung a déclaré qu’il s’attend à ce que la nouvelle puce accélère le traitement à grande échelle dans les centres de données, les systèmes informatiques haute performance et les applications mobiles compatibles avec l’IA.
Samsung a ajouté que HBM-PIM utilise la même interface HBM que les anciennes itérations, ce qui signifie que les clients n’auront pas à changer de matériel et de logiciel pour appliquer la puce à leurs systèmes existants.
La puce est actuellement testée dans les accélérateurs d’intelligence artificielle des clients qui devraient être achevés au cours du premier semestre de l’année. Samsung travaille également avec ses clients pour créer un écosystème et normaliser la plate-forme.
Le document de la société sur la puce sera présenté à la conférence virtuelle internationale sur les circuits à semi-conducteurs la semaine prochaine.