Nvidia effectue un retour stratégique sur le marché chinois en introduisant sa puce H20 AI spécifique à la Chine, une décision qui intervient après que les politiques américaines ont affecté les ventes de l'entreprise en Chine. Nvidia a commencé à accepter des précommandes auprès des distributeurs pour ses puces H20 AI, dont le prix est presque égal à celui de l'Ascend 910B de Huawei, selon Reuters.

Pourquoi est-ce important: Pour répondre aux défis posés par les interdictions américaines sur la vente de certains GPU (Graphics Processing Units) à la Chine, Nvidia a lancé des variantes réduites conformes aux politiques d'exportation américaines. Au milieu des inquiétudes concernant les limitations potentielles de l'accès aux produits Nvidia, La puce de Huawei est largement reconnue comme la principale offre alternative d’IA en Chine.

Détails: Avant les restrictions américaines, Nvidia détenait plus de 90 % du marché des puces IA en Chine, selon le rapport de Reuters. Cependant, il fait désormais face à une concurrence croissante de la part de concurrents locaux comme Huawei. La puce H20 AI coûte entre 12 000 et 15 000 dollars, se positionnant comme un concurrent de l'Ascend 910B de Huawei.

  • Dans octobre 2023, le gouvernement américain a imposé de nouvelles restrictions sur l'exportation de puces d'IA avancées, ce qui a conduit Nvidia à suspendre immédiatement les expéditions de puces d'IA hautes performances, notamment les produits A100, A800, H100, H800 et L40S. Par la suite, Nvidia a lancé le développement de nouvelles puces IA spécialement conçues pour le marché chinois, notamment les H20, L20 et L2. Les trois puces sont des versions modifiées de La puce IA H100 de Nvidia.
  • Même si le H20 devrait fournir moins de puissance de calcul que la puce phare H100 AI de Nvidia, les spécifications suggèrent que ses performances sont également inférieures à celles de l'Ascend 910B de Huawei sur certains aspects clés. Notamment, le H20 pourrait être à la traîne du 910B en termes de performances FP32, une mesure critique qui mesure la vitesse de traitement, et est évalué à moins de la moitié de la capacité de son concurrent, a déclaré à l'agence de presse la source à l'origine du rapport Reuters.
  • Cependant, le H20 est susceptible d'avoir un avantage sur le 910B en termes de vitesse d'interconnectivité, le H20 étant compétitif dans les applications qui nécessitent la connexion d'un grand nombre de puces pour fonctionner comme un système, explique le rapport.
  • En termes de performances, la puissance de calcul IA de la puce H20 est légèrement inférieure à 15 % de celle du H100, selon un média américain. Wccftech. La puce H20 AI offre une capacité de mémoire de 96 Go fonctionnant jusqu'à 4,0 Tb/s, une puissance de calcul de 296 TFLOP et une densité de performances de 2,9 TFLOP/die, contre 19,4 TFLOP/die du H100.
  • Les distributeurs auraient informé leurs clients qu'ils pouvaient commencer les livraisons de produits H20 en petits lots au cours du premier trimestre 2024, avec des quantités plus importantes disponibles à partir du deuxième trimestre. Le mois dernier, il a été annoncé que Nvidia avait l'intention de produire en masse le H20 au deuxième trimestre de cette année.

Contexte: Le 20 janvier, le PDG de Nvidia Jensen Huang a visité les bureaux de l'entreprise à Shenzhen, Shanghai et Pékin pour les fêtes annuelles organisées pour célébrer les vacances du Nouvel An lunaire chinois, l'entreprise ayant précisé que la visite n'impliquait pas d'opérations commerciales.

Publicité

Photo d'avatar

Jessie Wu est une journaliste technique basée à Shanghai. Elle couvre l'électronique grand public, les semi-conducteurs et l'industrie du jeu pour TechNode. Connectez-vous avec elle par e-mail : jessie.wu@technode.com. Plus de Jessie Wu

->Google Actualités

4.2/5 - (25 votes)
Publicité
Article précédentL'acteur d'Abby de The Last Of Us Part II affirme que ses fans ont menacé son enfant
Article suivant7 meilleures idées de construction de cuivre Minecraft

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici