Vous n’avez pas pu assister à Transform 2022 ? Découvrez dès maintenant toutes les sessions du sommet dans notre bibliothèque à la demande ! Regardez ici.
Nvidia a annoncé aujourd’hui que l’unité de traitement graphique (GPU) Nvidia H100 Tensor Core est en pleine production, avec des partenaires technologiques mondiaux prévoyant en octobre de déployer la première vague de produits et services basés sur l’architecture Nvidia Hopper.
Le PDG de Nvidia, Jensen Huang, a fait cette annonce lors de l’événement d’automne GTC en ligne de Nvidia.
Dévoilé en avril, le H100 est construit avec 80 milliards de transistors et dispose d’une gamme de percées technologiques. Parmi eux se trouvent le puissant nouveau Transformer Engine et une interconnexion Nvidia NVLink pour accélérer les plus grands modèles d’intelligence artificielle (IA), comme les systèmes de recommandation avancés et les grands modèles de langage, et pour stimuler les innovations dans des domaines tels que l’IA conversationnelle et la découverte de médicaments.
« Hopper est le nouveau moteur des usines d’IA, traitant et affinant des montagnes de données pour former des modèles avec des billions de paramètres qui sont utilisés pour faire progresser l’IA basée sur le langage, la robotique, la santé et les sciences de la vie », a déclaré Jensen Huang, fondateur et PDG. de Nvidia, dans un communiqué. « Le Transformer Engine de Hopper augmente les performances jusqu’à un ordre de grandeur, mettant l’IA et le HPC à grande échelle à la portée des entreprises et des chercheurs.
[Follow along with VB’s ongoing Nvidia GTC 2022 coverage »]
En plus de l’architecture de Hopper et de Transformer Engine, plusieurs autres innovations clés alimentent le GPU H100 pour offrir le prochain bond en avant dans la plate-forme de centre de données de calcul accéléré de Nvidia, y compris le GPU multi-instance de deuxième génération, l’informatique confidentielle, Nvidia NVLink et DPX de quatrième génération. Des instructions.
« Nous sommes ravis d’annoncer que le Nvidia H100 est maintenant en pleine production », a déclaré Ian Buck, directeur général du calcul accéléré chez Nvidia, lors d’un point de presse. « Nous sommes prêts à prendre les commandes pour expédition au premier trimestre (à partir de l’exercice fiscal de Nvidia en octobre). Et à partir du mois prochain, nos partenaires systèmes, d’Asus à Supermicro, commenceront à expédier leurs systèmes H100, en commençant par les produits PCIe et en s’étendant plus tard cette année aux plates-formes NVLink HDX.
Une licence de cinq ans pour la suite logicielle Nvidia AI Enterprise est désormais incluse avec H100 pour les serveurs grand public. Cela optimise le développement et le déploiement des flux de travail d’IA et garantit que les organisations ont accès aux cadres et aux outils d’IA nécessaires pour créer des chatbots d’IA, des moteurs de recommandation, une IA de vision et plus encore.
Déploiement mondial de Hopper
H100 permet aux entreprises de réduire considérablement les coûts de déploiement de l’IA, offrant les mêmes performances d’IA avec une efficacité énergétique 3,5 fois supérieure et un coût total de possession trois fois inférieur, tout en utilisant cinq fois moins de nœuds de serveur par rapport à la génération précédente.
Pour les clients qui souhaitent essayer la nouvelle technologie immédiatement, Nvidia a annoncé que H100 sur les serveurs Dell PowerEdge est désormais disponible sur Nvidia LaunchPad, qui fournit des laboratoires pratiques gratuits, permettant aux entreprises d’accéder au matériel et aux logiciels Nvidia AI les plus récents.
Les clients peuvent également commencer à commander des systèmes Nvidia DGX H100, qui comprennent huit GPU H100 et offrent 32 pétaflops de performances avec une précision FP8. Les logiciels Nvidia Base Command et Nvidia AI Enterprise alimentent chaque système DGX, permettant des déploiements d’un nœud unique vers un Nvidia DGX SuperPOD, prenant en charge le développement avancé de l’IA de grands modèles de langage et d’autres charges de travail massives.
Les systèmes alimentés par H100 des principaux fabricants d’ordinateurs au monde devraient être livrés dans les semaines à venir, avec plus de 50 modèles de serveurs sur le marché d’ici la fin de l’année et des dizaines d’autres au premier semestre 2023. Les systèmes de construction des partenaires incluent Atos, Cisco , Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Lenovo et Supermicro.
De plus, certains des plus grands établissements d’enseignement supérieur et de recherche au monde utiliseront le H100 pour alimenter leurs supercalculateurs de nouvelle génération. Parmi eux figurent le Barcelona Supercomputing Center, le Los Alamos National Lab, le Swiss National Supercomputing Center (CSCS), le Texas Advanced Computing Center et l’Université de Tsukuba.
Par rapport à la génération A100 précédente, Buck a déclaré que le système précédent avait 320 systèmes A100 dans un centre de données, mais avec Hopper, un centre de données n’aurait besoin que de 64 systèmes H100 pour correspondre au débit de l’ancien centre de données. C’est une réduction de 20 % des nœuds et une énorme amélioration de l’efficacité énergétique.
Le credo de GamesBeat lorsque couvrir l’industrie du jeu vidéo est « là où la passion rencontre les affaires ». Qu’est-ce que ça veut dire? Nous voulons vous dire à quel point l’actualité compte pour vous, non seulement en tant que décideur dans un studio de jeux, mais aussi en tant que fan de jeux. Que vous lisiez nos articles, écoutiez nos podcasts ou regardiez nos vidéos, GamesBeat vous aidera à en savoir plus sur l’industrie et à vous engager avec elle. Découvrez nos Briefings.