Google Cloud a embauché le vétéran de l’ingénierie Intel, Uri Frank, pour diriger les efforts de conception de nouvelles puces de serveur dans le cadre des investissements croissants du fournisseur de services cloud dans le silicium personnalisé.
Le fournisseur de cloud basé à Mountain View, en Californie, a annoncé lundi qu’il «doublait» les puces personnalisées comme «un moyen d’améliorer les performances et l’efficacité» de ses serveurs, allant au-delà du travail qu’il a accompli en introduisant l’unité de traitement Tensor, l’unité de traitement vidéo et le projet open-source de racine de confiance en silicium OpenTitan au cours des six dernières années.
[Related: Intel CEO Pat Gelsinger To Discuss Comeback Plan In Live Webcast]
Avec l’embauche d’un ingénieur expérimenté d’Intel pour travailler sur de nouvelles puces de serveur, Google Cloud suit les traces de Services Web Amazon et Microsoft Azure, tous deux à différents stades de développement et de déploiement de processeurs en interne pour les nouvelles instances cloud. Ces mesures créent une nouvelle concurrence pour les entreprises cloud non seulement d’Intel, mais également d’AMD rival x86, qui s’attend à ce que le nombre de instances cloud utilisant ses processeurs EPYC pour atteindre 400 d’ici la fin de l’année.
Dans un article de blog, Amin Vahdat, membre de Google et vice-président de l’infrastructure des systèmes, a déclaré que Frank dirigera une «équipe de classe mondiale» en Israël et que la société se concentrera sur les systèmes sur puce. [SoC] designs, une méthode précédemment adoptée par Intel et AMD qui consiste à placer plusieurs fonctions sur la même puce ou plusieurs puces sur un seul boîtier.
L’objectif est d’augmenter les performances et de réduire la consommation d’énergie, a déclaré Vahdat, car se concentrer sur la carte mère car le point d’intégration n’est plus suffisant.
«En d’autres termes, le SoC est la nouvelle carte mère», a-t-il déclaré.
En adoptant une approche informatique basée sur le SoC, Vahdat a déclaré que Google pouvait améliorer la latence et la bande passante entre les différents composants de «plusieurs ordres de grandeur». De plus, le coût et la puissance requis pour les SoC personnalisés peuvent être «considérablement réduits» par rapport aux ASIC individuels sur une carte mère.
Vahdat a déclaré que Google concevrait des composants individuels des futurs SoC si nécessaire, mais la société est également ouverte à l’achat de composants auprès d’autres fournisseurs. En outre, a-t-il déclaré, l’entreprise «visera à créer des écosystèmes qui profiteront à l’ensemble du secteur».
«Avec notre écosystème mondial de partenaires, nous sommes impatients de continuer à innover à la fine pointe de l’infrastructure de calcul, en fournissant la prochaine génération de capacités qui ne sont pas disponibles ailleurs et en créant un terrain fertile pour la prochaine vague d’avenir. – des applications et des services imaginés », dit-il.
Frank était auparavant chez Intel depuis plus de 20 ans, selon son profil LinkedIn. Il était plus récemment à la tête du groupe de développement Intel Core and Client et avait été promu vice-président d’entreprise le mois dernier, selon le média israélien. Calcalistech.
Calcalistech a rapporté que Google prévoyait de recruter «plusieurs centaines d’employés» pour un nouveau centre de développement axé sur le matériel en Israël qui sera dirigé par Frank.
«Google a conçu et construit certains des systèmes informatiques les plus grands et les plus efficaces au monde. Pendant longtemps, les puces personnalisées ont été un élément important de cette stratégie », a écrit Frank dans un article sur LinkedIn. « J’ai hâte de développer une équipe ici en Israël tout en accélérant les innovations de Google Cloud en matière d’infrastructure de calcul. »
Dominic Daninger, vice-président de l’ingénierie chez Nor-Tech, un intégrateur de systèmes de calcul haute performance basé à Burnsville, au Minnesota, qui s’associe à Intel et AMD, a déclaré que la montée en puissance des architectures de processeur alternatives pouvant être concédées sous licence par Arm et d’autres concepteurs de puces a permis à des entreprises comme Google Cloud de créer leurs propres processeurs.
«Cela montre juste la maturité du marché de la conception de processeurs», a-t-il déclaré.
Au-delà de l’amélioration des performances et de l’efficacité énergétique, une autre raison potentielle pour laquelle Google Cloud conçoit une puce de serveur personnalisée est de mieux concurrencer Microsoft Azure et AWS, selon Daninger. Alors que Microsoft travaillerait sur des processeurs basés sur Arm pour de nouvelles instances Azure, AWS a déjà lancé plusieurs instances à l’aide de ses processeurs Graviton2 basés sur Arm.
«Il n’y a rien de tel que les concurrents qui le font qui [Google Cloud] une raison de le faire », a-t-il déclaré.
Daninger a déclaré que Google Cloud serait également en mesure d’optimiser son silicium pour certaines charges de travail, et il s’attend à ce que davantage de grandes entreprises technologiques construisent du silicium personnalisé à l’avenir.
«Je ne serais pas surpris d’en voir plus», a-t-il déclaré.
.