SEATTLE, 21 décembre 2020 (GLOBE NEWSWIRE) – OctoML, la société d’automatisation MLOps pour des performances, une portabilité et une productivité supérieures des modèles, a annoncé aujourd’hui que la 3e conférence annuelle Apache TVM et Deep Learning Compilation s’est conclue avec des centaines de participants représentant 35 pays réunis pour discuter des dernières avancées en matière d’optimisation du compilateur d’apprentissage en profondeur. Il s’agissait de la plus grande conférence TVM à ce jour, avec plus de 20 heures de contenu diffusé en direct par 65 orateurs répartis dans plus de 20 organisations.

Dans son discours d’ouverture, Tianqi Chen, co-fondateur et CTO d’OctoML et co-créateur d’Apache TVM, a fait le point sur le projet TVM. Dans un grand pas en avant pour la croissance et le succès du projet, il a annoncé que TVM avait officiellement obtenu son diplôme en tant que projet de haut niveau Apache Software Foundation. Cela s’est accompagné de mises à jour sur quatre domaines majeurs pour lesquels TVM a considérablement amélioré le support au cours de l’année dernière:

  • Optimisation améliorée du modèle grâce à la planification automatique de l’optimisation avec le framework Ansor.
  • Couverture accrue des périphériques de périphérie grâce à µTVM pour la prise en charge des périphériques bare metal tinyML, permettant l’optimisation du modèle pour les cibles intégrées aux ressources limitées.
  • Un nouveau langage intermédiaire unifié pour prendre en charge des modèles et des optimisations encore plus avancés.
  • Prise en charge améliorée des accélérateurs hétérogènes, donnant à TVM la possibilité d’utiliser toute la variété des ressources disponibles sur les systèmes cibles.

Chen a ensuite présenté une feuille de route pour l’avenir de TVM, y compris la poursuite du développement du langage intermédiaire unifié, une intégration plus approfondie avec des bibliothèques de calcul standard telles que Numpy, une rampe d’accès améliorée pour les nouveaux utilisateurs et les développeurs avec une API stabilisée (dans la perspective d’une version 1.0 complète. ), de nouveaux tutoriels utilisateur et une documentation développée pour les développeurs.

«Je ne pourrais pas être plus fier de voir TVM devenir un projet Apache de haut niveau», a déclaré Chen. «Cette reconnaissance de la voie Apache de développement ouvert, combinée à une croissance de 50% du nombre de contributeurs TVM et à l’engagement continu de la plupart des plus grandes entreprises technologiques du monde envers TVM, prépare le terrain pour une autre année de succès incroyable alors que TVM devient le de facto norme de l’industrie pour la compilation d’apprentissage en profondeur. »

Les principaux fournisseurs d’IA du cloud et de la périphérie, notamment Amazon, AMD, Arm et Sima.ai, ont également été présentés lors de séances liminaires sur la manière dont leur engagement avec TVM a amélioré leurs pipelines de ML. Par exemple, Amazon a montré comment TVM permettait un débit 38% plus élevé sur les modèles BERT, ce qui se traduisait par une réduction du coût de 49% pour l’exécution de ses modèles.

Publicité

Parmi les autres sociétés de présentation figuraient Alibaba, Bosch, Google, Huawei, Microsoft, NTT et Qualcomm. Ces discussions ont couvert une gamme de sujets sur la façon dont TVM est utilisé et étendu pour les charges de travail de production. La gamme d’utilisations a mis en évidence la puissance et la flexibilité du framework TVM et la puissance de l’open source en permettant aux utilisateurs d’étendre le logiciel à leurs besoins. Par exemple, Amazon et Bosch étendent activement le cadre d’optimisation, avec des algorithmes de recherche améliorés et une analyse des coûts grâce à la virtualisation. Xilinx, AMD et Arm sont capables de cibler rapidement les plates-formes matérielles nouvelles et émergentes avec le framework de compilateur extensible TVM.

En plus de ces faits saillants de l’industrie, la communauté de recherche et développement était également bien représentée à la conférence, y compris une session complète sur Ansor, le nouveau cadre d’optimisation automatique, a été donnée par Lianmin Zheng de l’UC Berkeley, qui a donné un aperçu complet de ce puissant nouvelle fonctionnalité. Jared Roesch d’OctoML et Joey Chou d’Amazon ont présenté des discussions sur l’extension de TVM pour prendre en charge de nouvelles langues et du matériel ML personnalisé.

La conférence comprenait également des exposés généraux du co-fondateur de KubeFlow David Aronchik de Microsoft sur la sécurisation des systèmes ML, Jacques Pienaar de Google sur le projet MLIR et une présentation du Dr Joey Gonzalez de l’UC Berkeley sur les progrès récents de la recherche ML.

Toutes les présentations de la conférence sont disponibles pour regarder à https://tvmconf.org.

À propos d’Apache TVM Apache TVM est un compilateur et un runtime d’apprentissage profond open source qui optimise les performances des modèles d’apprentissage automatique sur une multitude de types de processeurs, notamment des processeurs, des GPU, des accélérateurs et des puces mobiles / de périphérie. Il utilise l’apprentissage automatique pour optimiser et compiler des modèles pour les applications d’apprentissage en profondeur, comblant ainsi l’écart entre les cadres d’apprentissage en profondeur axés sur la productivité et les backends matériels axés sur les performances. Il est utilisé par certaines des plus grandes entreprises du monde comme Amazon, AMD, ARM, Facebook, Intel, Microsoft et Qualcomm.

À propos de la conférence Apache TVM et Deep Learning Compilation La 3ème conférence annuelle Apache TVM et Deep Learning Compilation a couvert l’état de l’art de la compilation et de l’optimisation du deep learning et des avancées récentes dans les frameworks, les compilateurs, la prise en charge des systèmes et de l’architecture, la sécurité, la formation et l’accélération matérielle. Parmi les intervenants figuraient des leaders technologiques d’Alibaba, Amazon, AMD, ARM, Bosch, Microsoft, NTT, OctoML, Qualcomm, Sima.ai et Xilinx, ainsi que des chercheurs de l’Université Beihang, de l’Université Carnegie Mellon, de Cornell, de l’Université nationale Tsing-Hua (Taiwan ), UCLA, Université de Californie à Berkeley, Université de Toronto et Université de Washington.

À propos d’OctoML OctoML applique une automatisation de pointe basée sur l’apprentissage automatique pour permettre aux équipes d’apprentissage automatique de mettre plus facilement et plus rapidement en production des modèles d’apprentissage automatique hautes performances sur n’importe quel matériel. OctoML, fondé par les créateurs du projet de compilateur d’apprentissage automatique Apache TVM, offre une optimisation et un déploiement transparents de modèles d’apprentissage automatique en tant que service géré. Pour plus d’informations, visitez https://octoml.ai ou suivez @octoml.

Contact médias et analystes: Amber Rowland amber@therowlandagency.com + 1-650-814-4560

89Abd853 A6C9 4D6B B769 B8E26828D6D7

.

Rate this post
Publicité
Article précédentBordeaux vs Reims Preview et prévisions en direct Ligue 1 2020/21
Article suivantOne Piece Theory prédit la grande révélation à venir dans le chapitre 1000
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici