Lors de son premier événement phare sur l’innovation aujourd’hui, Intel a révélé qu’il collaborait avec Google pour développer la première IPU basée sur un circuit intégré (ASIC) spécifique à une application, appelée Mount Evans. Intel dit que Mount Evans – qu’il appelle une « unité de traitement d’infrastructure » ou IPU – sera pris en charge par un langage de programmation « standard de l’industrie » et un kit de développement de programmeur d’infrastructure open source conçu spécifiquement pour simplifier l’accès à la technologie dans Google Cloud centres de données.

Les IPU et les unités de traitement de données (DPU) gagnent du terrain alors que les fournisseurs de services cloud cherchent à décharger certaines fonctions de mise en réseau, de sécurité et de stockage des CPU sur un cluster de systèmes. Ces tâches ont régulièrement aspiré les ressources CPU dans les centres de données et le cloud à mesure que l’adoption du cloud augmente, en particulier pendant la pandémie. Les recherches de Google et Facebook révèlent que les charges de travail d’infrastructure consomment de 22 % à 80 % des cycles de processeur sur une gamme de microservice charges de travail.

Annoncé pour la première fois cet été lors de la journée de l’architecture d’Intel, Mount Evans associe jusqu’à quatre processeurs Xeon à la technologie de traitement de paquets développée par Barefoot Networks, une startup réseau acquise par Intel en 2019. L’IPU contient également jusqu’à seize cœurs Arm Neoverse N1 fonctionnant à une vitesse de 3 Ghz. ainsi que des interfaces d’E/S, des caches et trois contrôleurs LPDDR4 bimode avec 102 Gbit/s de bande passante mémoire.

Dans un article de blog, Patricia Kummrow, directrice générale de la division ethernet d’Intel, explique que le complexe de calcul de Mount Evans est étroitement couplé au sous-système réseau, permettant aux cœurs de l’accélérateur d’utiliser le cache au niveau du système comme leur propre cache de dernier niveau.

« Cet ASIC prend en charge de nombreux cas d’utilisation existants, notamment le déchargement vSwitch, les pare-feu, le routage virtuel » et les fonctions de télémétrie, tout en prenant en charge jusqu’à 200 millions de paquets par seconde et jusqu’à 16 millions de connexions sécurisées, a écrit Kummrow. « L’UIP Mount Evans émule les périphériques NVMe à des taux d’opérations d’entrée et de sortie par seconde (IOPS) très élevés en exploitant et en étendant le contrôleur Intel Optane NVMe. Le même système d’exploitation d’infrastructure Intel qui s’exécute sur des IPU basées sur FPGA fonctionnera également sur Mount Evans. Les innovations technologiques supplémentaires de l’UIP Mount Evans sont un protocole de transport fiable de nouvelle génération, co-innové avec [Google] pour résoudre le problème de latence longue traîne sur les réseaux avec perte, et nos accélérateurs avancés de chiffrement et de compression.

Publicité

Avantages annoncés

Brad Burres, un membre d’Intel qui dirige le travail d’architecture de l’IPU de l’entreprise, affirme que l’avantage des appareils comme Mount Evans réside dans la séparation des fonctions entre les fournisseurs de services et les locataires. Cela offre une sécurité et une isolation accrues pour toutes les parties, dit-il, en plus de prendre en charge des cas d’utilisation tels que l’hébergement sans système d’exploitation pour s’exécuter sur les mêmes plates-formes matérielles exactes, en utilisant les mêmes services que les machines virtuelles. Au-delà de cela, les DPU et les IPU peuvent activer de nouveaux modèles de service pour le stockage en faisant abstraction du stockage initié par le locataire, explique Burres.

« [Mount Evans] permet aux locataires d’avoir un contrôle total sur leur CPU. Ils peuvent faire des choses comme exécuter leur propre hyperviseur. Et dans ce cas, les opérateurs de cloud contrôlent toujours entièrement les fonctions d’infrastructure telles que la mise en réseau, le stockage et la sécurité, car celles-ci vivent dans l’UIP », a déclaré Burres. Fil HPC en août. « L’UIP [also] fournit [an] environnement d’exécution optimisé pour l’infrastructure. Cela comprend un investissement important dans des accélérateurs matériels au sein de l’UIP, qui permettent à l’UIP de traiter les tâches d’infrastructure de manière très efficace. Cela permet un meilleur réglage des logiciels et des cœurs pour ces types de charges de travail. Globalement, cela optimise les performances et l’opérateur cloud peut désormais louer 100% du CPU à son invité, ce qui maximise également les revenus.

Concurrence

Intel est un peu en retard pour le parti DPU/IPU, avec des rivaux comme Nvidia et Marvell déjà plusieurs générations dans leurs conceptions. En avril, Nvidia a annoncé le BlueField-3 DPU pour les charges de travail d’IA et d’analyse, qui regroupe des capacités d’accélération de réseau, de stockage et de cybersécurité définies par logiciel, offrant ce que Nvidia prétend être l’équivalent de jusqu’à 300 cœurs de processeur de puissance. Des startups comme Fongible et Speedata développent également des DPU pour les charges de travail centrées sur les centres de données, tandis qu’Amazon Web Services a lancé il y a plusieurs années le système Nitro, une combinaison de matériel et de logiciels DPU visant à améliorer les performances et la sécurité.

Mais selon Kummrow, l’UIP est positionnée pour devenir un élément stratégique dans la stratégie plus large de matériel cloud d’Intel. En effet, le marché mondial des accélérateurs de centres de données pourrait valoir 53 milliards de dollars d’ici 2027, contre seulement 4,2 milliards de dollars en 2020, selon Valuates Reports. projets — affichant un taux de croissance annuel composé de près de 44 %.

« Nous pensons que notre portefeuille IPU de premier plan fournit la base d’infrastructure commune qui permet à nos clients du cloud d’exploiter pleinement leurs ressources de calcul, XPU et d’accélération à usage général dans les architectures de centres de données hétérogènes du futur proche », a-t-elle écrit. « La combinaison de ces capacités correspond parfaitement aux tendances actuelles du développement de microservices et offre une opportunité unique de créer une infrastructure optimisée basée sur les fonctions qui correspond aux composants de réseau matériel à haute vitesse et aux cadres logiciels communs. L’IPU offre aux fournisseurs de services cloud l’opportunité de repenser l’architecture du centre de données, d’accélérer le cloud et d’héberger davantage de services générateurs de revenus – des applications locataires s’exécutant sur des machines virtuelles – sur chaque processeur de serveur du centre de données.

VentureBeat

La mission de VentureBeat est d’être une place publique numérique permettant aux décideurs techniques d’acquérir des connaissances sur la technologie transformatrice et d’effectuer des transactions. Notre site fournit des informations essentielles sur les technologies et les stratégies de données pour vous guider dans la gestion de vos organisations. Nous vous invitons à devenir membre de notre communauté, pour accéder à :

  • des informations à jour sur les sujets qui vous intéressent
  • nos newsletters
  • contenu de leader d’opinion fermé et accès à prix réduit à nos événements prisés, tels que Transformer 2021: Apprendre encore plus
  • fonctionnalités de mise en réseau, et plus

Devenir membre

Rate this post
Publicité
Article précédentTraceur GPS LTE 4G étanche LaView
Article suivantLes jeux cryptographiques, les NFT et Web3 devraient intégrer le prochain milliard d’utilisateurs à la cryptographie ?
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici