En utilisant ce supercalculateur, ainsi que la dernière puce TPU (Tensor Processing Unit), Google a établi de nouveaux records de performances.
« Nous avons obtenu ces résultats avec les implémentations de modèles ML dans TensorFlow, JAX et Lingvo. Quatre des huit modèles ont été formés à partir de zéro en moins de 30 secondes », a déclaré mercredi Naveen Kumar de Google AI dans un communiqué.
Pour mettre cela en perspective, il a fallu plus de trois semaines pour former l’un de ces modèles sur l’accélérateur matériel le plus avancé disponible en 2015.
Le dernier supercalculateur TPU de Google peut entraîner le même modèle près de cinq ordres de grandeur plus rapidement cinq ans plus tard.
Les modèles MLPerf sont choisis pour être représentatifs des charges de travail d’apprentissage automatique de pointe qui sont courantes dans l’industrie et le milieu universitaire.
Le supercalculateur utilisé par Google pour le cycle d’entraînement MLPerf est quatre fois plus grand que le « Cloud TPU v3 Pod » qui a établi trois records lors de la compétition précédente.
Géant du graphisme Nvidia dit qu’il a également livré le plus rapide Intelligence artificielle (IA) des performances d’entraînement parmi les puces disponibles dans le commerce, un exploit qui aidera les grandes entreprises à relever les défis les plus complexes de l’IA, de la science des données et du calcul scientifique.
Les GPU Nvidia A100 et les systèmes DGX SuperPOD ont été déclarés les produits disponibles dans le commerce les plus rapides au monde pour la formation à l’IA, selon les benchmarks MLPerf.
Le GPU A100 Tensor Core a démontré les performances les plus rapides par accélérateur sur les huit benchmarks MLPerf.
« Les vrais gagnants sont les clients qui appliquent aujourd’hui cette performance pour transformer leurs entreprises plus rapidement et plus efficacement grâce à l’IA », a déclaré la société dans un communiqué.
L’A100, le premier processeur basé sur l’architecture Nvidia Ampere, est arrivé sur le marché plus rapidement que n’importe quel GPU Nvidia précédent.
Les principaux fournisseurs de cloud au monde contribuent à répondre à la forte demande de Nvidia A100, comme Amazon Web Services (AWS), Baidu Cloud, Microsoft Azure et Nuage de Tencent, ainsi que des dizaines de fabricants de serveurs majeurs, notamment Dell Technologies, Hewlett Packard Enterprise, Inspur et Supermicro.
«Les utilisateurs du monde entier utilisent l’A100 pour relever les défis les plus complexes de l’IA, de la science des données et de l’informatique scientifique», a déclaré la société.
.