Connectez-vous avec les meilleurs leaders du jeu à Los Angeles lors du GamesBeat Summit 2023 les 22 et 23 mai. Inscrivez-vous ici.


Le PDG de Nvidia, Jensen Huang, a annoncé une variété de plates-formes que les entreprises pourront utiliser pour surfer sur une vague historique d’IA générative qui transforme les industries à travers le monde.

Huang a fait ces remarques lors d’une Discours programmé au salon Computex à Taïwan. Le discours était son premier discours en direct prononcé en personne depuis la pandémie. Il a également annoncé que les Grace Hopper Superchips sont maintenant en pleine production.

Il a décrit les services informatiques accélérés, les logiciels et les systèmes qui permettent de nouveaux modèles commerciaux et rendent les modèles actuels plus efficaces. Chez Computex, Huang a souligné la tendance de la numérisation industrielle, qui permet aux entreprises de créer des jumeaux numériques de leurs usines pour tester les concepts avant de construire les usines dans la vraie vie. Les capteurs dans les usines du monde réel donnent des informations aux jumeaux numériques pour améliorer la conception globale.

Les superpuces Grace Hopper combinent dans un seul module le processeur Nvidia Grace économe en énergie avec un GPU Nvidia H100 Tensor Core hautes performances. Pour les entreprises, Huang a dévoilé le DGX GH200, un supercalculateur d’IA à grande mémoire. Il utilise Nvidia NVLink pour combiner jusqu’à 256 puces NVIDIA Grace Hopper dans un seul GPU de la taille d’un centre de données.

Publicité

Événement

Sommet GamesBeat 2023

Rejoignez la communauté GamesBeat pour notre journée virtuelle et notre contenu à la demande ! Vous entendrez les esprits les plus brillants de l’industrie du jeu partager leurs mises à jour sur les derniers développements.

Inscrivez-vous ici

Le DGX GH200 offre un exaflop de performances et 144 téraoctets de mémoire partagée, près de 500 fois plus que dans un seul système Nvidia DGX A100 320 Go. Cela permet aux développeurs de créer de grands modèles de langage pour les chatbots IA génératifs, des algorithmes complexes pour les systèmes de recommandation et des réseaux de neurones graphiques utilisés pour la détection des fraudes et l’analyse des données.

Google Cloud, Meta et Microsoft sont parmi les premiers à avoir accès au DGX GH200 pour explorer ses capacités pour les charges de travail d’IA génératives.

« Les supercalculateurs DGX GH200 AI intègrent les technologies de calcul accéléré et de mise en réseau les plus avancées de Nvidia pour repousser les frontières de l’IA », a déclaré Huang.

Nvidia Hélios

Nvidia construit son propre supercalculateur IA massif, Nvidia Helios, qui sera mis en ligne cette année. Il utilisera quatre systèmes DGX GH200 liés à la mise en réseau Nvidia Quantum-2 InfiniBand avec une bande passante allant jusqu’à 400 Gb/s pour augmenter le débit de données pour la formation de grands modèles d’IA.

Le DGX GH200 fait partie des centaines de systèmes annoncés lors de l’événement utilisant les derniers GPU et CPU de Nvidia. Ensemble, ils apportent l’IA générative et l’informatique accélérée à des millions d’utilisateurs, a déclaré Nvidia.

Pour répondre aux besoins des centres de données de toutes tailles, Huang a annoncé Nvidia MGX, une architecture de référence modulaire pour la création de serveurs accélérés. Les fabricants de systèmes l’utiliseront pour créer rapidement et à moindre coût plus d’une centaine de configurations de serveurs différentes adaptées à une large gamme d’applications AI, HPC et Nvidia Omniverse.

MGX permet aux fabricants de créer des processeurs et des serveurs accélérés en utilisant une architecture commune et des composants modulaires.

Faisant un zoom arrière sur la situation dans son ensemble, Huang a annoncé que plus de 400 configurations système arriveraient sur le marché avec les architectures Nvidia Hopper, Grace et Ada Lovelace. Ils visent à résoudre les problèmes les plus complexes
les défis de l’IA, de la science des données et du calcul haute performance.

Grace Hopper aide la 5G

Nvidia Spectrum 4 Image
Commutateurs Ethernet Nvidia Spectrum

Huang a également montré comment Nvidia aide à réinventer la 5G avec Grace Hopper. Il a annoncé que Nvidia travaillait avec un géant des télécommunications pour construire un réseau distribué de centres de données au Japon. Il fournira des services 5G et des applications d’IA génératives sur une plate-forme cloud commune.

Les centres de données utiliseront les DPU Grace Hopper et Nvidia BlueField-3 dans les systèmes MGX modulaires ainsi que les commutateurs Ethernet Nvidia Spectrum pour fournir la synchronisation très précise requise par le protocole 5G. La plate-forme réduira les coûts en augmentant l’efficacité spectrale tout en réduisant la consommation d’énergie.

Les systèmes aideront à explorer des applications dans la conduite autonome, les usines d’IA, la réalité augmentée et virtuelle, la vision par ordinateur et les jumeaux numériques. Les utilisations futures pourraient même inclure la visioconférence 3D et
communications holographiques.

Alimenter les réseaux cloud

Nvidia Spectrum X Image
Nvidia Spectre X

Par ailleurs, Huang a dévoilé Nvidia Spectrum-X, une plate-forme réseau spécialement conçue pour améliorer les performances et l’efficacité des clouds d’IA basés sur Ethernet. Il combine des commutateurs Ethernet Spectrum-4 avec des DPU et des logiciels BlueField-3 pour offrir des gains de 1,7x en termes de performances d’intelligence artificielle et d’efficacité énergétique.

Les commutateurs Nvidia Spectrum-X, Spectrum-4 et les DPU BlueField-3 sont désormais disponibles auprès de fabricants de systèmes tels que Dell Technologies, Lenovo et Supermicro.

Huang a annoncé que NVIDIA construisait Israel-1, un supercalculateur IA génératif dans son centre de données israélien. Il sera construit avec des serveurs Dell PowerEdge, la plate-forme de supercalcul Nvidia HGX H100 et la plate-forme Spectrum-X avec des DPU BlueField-3 et des commutateurs Spectrum-4.

Accélérer Gen AI sur Windows

Huang a décrit comment Nvidia et Microsoft collaborent pour stimuler l’innovation pour les PC Windows à l’ère de l’IA générative.

Des outils, frameworks et pilotes nouveaux et améliorés facilitent le développement et le déploiement de l’IA pour les développeurs de PC. Par exemple, la chaîne d’outils Microsoft Olive pour l’optimisation et le déploiement de modèles d’IA accélérés par GPU et de nouveaux pilotes graphiques amélioreront les performances DirectML sur les PC Windows équipés de GPU Nvidia.

La collaboration améliorera et étendra une base installée de 100 millions de PC équipés de GPU RTX avec des cœurs Tensor qui améliorent les performances de plus de 400 applications et jeux Windows accélérés par l’IA.

Le credo de GamesBeat lorsque couvrir l’industrie du jeu vidéo est « là où la passion rencontre les affaires ». Qu’est-ce que cela signifie? Nous voulons vous dire à quel point l’actualité compte pour vous, non seulement en tant que décideur dans un studio de jeux, mais aussi en tant que fan de jeux. Que vous lisiez nos articles, écoutiez nos podcasts ou regardiez nos vidéos, GamesBeat vous aidera à en savoir plus sur l’industrie et à vous engager avec elle. Découvrez nos Briefings.

4.8/5 - (36 votes)
Publicité
Article précédentTop 5 des équipements pour chevaux dans The Legend of Zelda Tears of the Kingdom
Article suivantLa police surprend un automobiliste en train de prendre une photo de téléphone portable de Falkirk Kelpies alors qu’il conduisait sur M9
Avatar De Violette Laurent
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici