Puce Nvidia Hopper H100

L’architecture Hopper de Nvidia, qui fait ses débuts dans sa puce H100, accélère les graphiques, les calculs scientifiques et l’intelligence artificielle.

Nvidia

À moins que vous ne soyez un joueur désireux des graphismes les plus rapides, vous n’avez peut-être pas la moindre idée de ce que fait le concepteur de puces Nvidia. Mais ses processeurs, y compris une foule de nouveaux modèles annoncés mardi lors de son événement GTC, sont les cerveaux d’une collection élargie de produits numériques comme les services d’IA, les véhicules autonomes et le métaverse naissant.

Lors du salon, Nvidia a annoncé son nouveau processeur H100 AI, un successeur de l’A100 qui est utilisé aujourd’hui pour former des systèmes d’intelligence artificielle pour faire des choses comme traduire la parole humaine, reconnaître ce qu’il y a sur les photos et tracer l’itinéraire d’une voiture autonome dans le trafic.

C’est le membre le plus haut de gamme de la famille des unités de traitement graphique qui a propulsé Nvidia vers le succès commercial. Grâce à la voie de communication à haut débit NVLink de la société, les clients peuvent également relier jusqu’à 256 puces H100 les unes aux autres dans « essentiellement un GPU époustouflant », a déclaré le directeur général Jensen Huang lors de la conférence en ligne.

Publicité

L’A100 est basé sur une conception appelée Hopper, et il peut être associé à la nouvelle unité centrale de traitement de Nvidia, appelée Grace, a déclaré Nvidia lors de sa conférence sur la technologie GPU. Les noms sont un hommage à pionnière de l’informatique Grace Hopperqui a travaillé sur certains des premiers ordinateurs au monde, a inventé l’outil de programmation crucial appelé le compilateur, a co-développé le langage de programmation COBOL et a inventé le terme « bogue ».

Nvidia a également annoncé le RTX A5500, un nouveau membre de sa série Ampere de puces graphiques pour les professionnels qui ont besoin de puissance graphique pour des tâches 3D telles que l’animation, la conception de produits et le traitement de données visuelles. Cela concorde avec les efforts étendus d’Omniverse de Nvidia pour vendre les outils et les services de cloud computing nécessaires à la construction des royaumes 3D appelés métaverse.

Au total, il s’agit d’une vaste collection de conceptions de processeurs qui touchent de nombreux aspects de notre vie numérique. Nvidia n’est peut-être pas aussi connue qu’Intel ou Apple en matière de puces, mais la société de la Silicon Valley est tout aussi importante pour rendre pratique la technologie de nouvelle génération.

Les GPU H100 seront livrés au troisième trimestre, et Grace est « sur la bonne voie pour être expédiée l’année prochaine », a déclaré Huang.

Il y a beaucoup de concurrence pour le H100, qui est composé de 80 milliards de transistors qui composent son circuit de traitement de données et est construit par Taiwan Semiconductor Manufacturing Co. (TSMC). Les rivaux incluent le prochain processeur Ponte Vecchio d’Intel, avec plus de 100 milliards de transistors, et une foule de puces d’accélération d’IA à usage spécial de startups comme Graphcore, Systèmes SambaNova et Cérébras.

Nvidia intègre également le H100 dans ses modules informatiques DGX qui peuvent être interconnectés dans de vastes systèmes appelés SuperPods. Un client DGX pour les machines antérieures est Meta, anciennement Facebook, dans son Research SuperCluster, la machine la plus rapide au monde en informatique AI selon les estimations de la société. Nvidia s’attend à le dépasser avec son propre système DGX SuperPod, Eos, a indiqué la société.

L’un des concurrents les plus en vue de Nvidia est Tesla, dont la puce D1 alimente sa technologie Dojo former des véhicules autonomes. Dojo, une fois opérationnel, remplacera les puces Nvidia, a déclaré le constructeur automobile. Tesla a également conçu ses propres processeurs pour exécuter ces modèles d’IA dans les voitures elles-mêmes.

Nvidia progresse également. Il a annoncé que deux constructeurs de véhicules électriques, Lucid et BYD basé en Chine, utilisent ses puces Orin AI pour les voitures. Il a également annoncé qu’il travaillait sur une nouvelle génération de sa famille de puces de voiture Hyperion, qui devrait arriver en 2026. Nvidia s’attend à 11 milliards de dollars de puces de voiture au cours des six prochaines années, contre 8 milliards de dollars l’année dernière.

Plus incertain est la façon dont Nvidia profitera du métaverse. Son effort Omniverse couvre plusieurs aspects différents du travail qui sont liés, y compris le travail de conception 3D collaboratif à travers le cloud et les jumeaux numériques qui reflètent des parties du monde réel à l’intérieur d’un système informatique.

Rate this post
Publicité
Article précédent10 films d’animation qui sont en fait des canons de la série
Article suivantDes hommes de Floride accusés d’avoir piraté des pompes à essence avec des gadgets « faits maison » pour réduire les coûts

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici