Supercalculateur De Google Et Les Gpu Nvidia Battent Des Records De Performances De L'IaSan Francisco: Google dit avoir construit le monde le plus rapidement apprentissage automatique (ML) formation supercalculateur qui a battu les records de performances de l’IA dans six des huit benchmarks MLPerf leaders du secteur.

En utilisant ce supercalculateur, ainsi que la dernière puce TPU (Tensor Processing Unit), Google a établi de nouveaux records de performances.

« Nous avons obtenu ces résultats avec les implémentations de modèles ML dans TensorFlow, JAX et Lingvo. Quatre des huit modèles ont été formés à partir de zéro en moins de 30 secondes », a déclaré mercredi Naveen Kumar de Google AI dans un communiqué.

Pour mettre cela en perspective, il a fallu plus de trois semaines pour former l’un de ces modèles sur l’accélérateur matériel le plus avancé disponible en 2015.

Le dernier supercalculateur TPU de Google peut entraîner le même modèle près de cinq ordres de grandeur plus rapidement cinq ans plus tard.

Les modèles MLPerf sont choisis pour être représentatifs des charges de travail d’apprentissage automatique de pointe qui sont courantes dans l’industrie et le milieu universitaire.

Publicité

Le supercalculateur utilisé par Google pour le cycle d’entraînement MLPerf est quatre fois plus grand que le « Cloud TPU v3 Pod » qui a établi trois records lors de la compétition précédente.

Géant du graphisme Nvidia dit qu’il a également livré le plus rapide Intelligence artificielle (IA) des performances d’entraînement parmi les puces disponibles dans le commerce, un exploit qui aidera les grandes entreprises à relever les défis les plus complexes de l’IA, de la science des données et du calcul scientifique.

Les GPU Nvidia A100 et les systèmes DGX SuperPOD ont été déclarés les produits disponibles dans le commerce les plus rapides au monde pour la formation à l’IA, selon les benchmarks MLPerf.

Le GPU A100 Tensor Core a démontré les performances les plus rapides par accélérateur sur les huit benchmarks MLPerf.

« Les vrais gagnants sont les clients qui appliquent aujourd’hui cette performance pour transformer leurs entreprises plus rapidement et plus efficacement grâce à l’IA », a déclaré la société dans un communiqué.

L’A100, le premier processeur basé sur l’architecture Nvidia Ampere, est arrivé sur le marché plus rapidement que n’importe quel GPU Nvidia précédent.

Les principaux fournisseurs de cloud au monde contribuent à répondre à la forte demande de Nvidia A100, comme Amazon Web Services (AWS), Baidu Cloud, Microsoft Azure et Nuage de Tencent, ainsi que des dizaines de fabricants de serveurs majeurs, notamment Dell Technologies, Hewlett Packard Enterprise, Inspur et Supermicro.

«Les utilisateurs du monde entier utilisent l’A100 pour relever les défis les plus complexes de l’IA, de la science des données et de l’informatique scientifique», a déclaré la société.

.

Rate this post
Publicité
Article précédentLes mobiles d’occasion vulnérables au piratage
Article suivantUne nouvelle attaque tire parti de HTTP / 2 pour des fuites efficaces dans les canaux latéraux de synchronisation à distance
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici