Le métaverse est toujours une chose, une expérience, un service en devenir, un monde 3D imaginé alimenté en grande partie par l’intelligence artificielle et des graphismes immersifs qui, beaucoup l’espèrent, seront un endroit où les consommateurs pourront jouer à des jeux et interagir avec les autres et les entreprises. peut faire des affaires d’une manière qui ne peut pas être faite aujourd’hui.
Le métaverse a une multitude de descriptions disparates basées sur qui parle et génère un large éventail d’opinions de la part des observateurs de l’industrie, allant du fait qu’il s’agit d’une technologie qui change la donne à un peu plus que la seconde venue de Second Life. , avec la promesse d’un résultat similaire.
Cela dit, des milliards de dollars sont dépensés pour créer les fondements du métaverse, avec Meta Platforms, anciennement connu sous le nom de Facebook, menant le battage médiatique, avec le co-fondateur et PDG Mark Zuckerberg et d’autres dans l’entreprise. maintenir un rythme de tambour fort. Microsoft a annoncé le mois dernier qu’il dépensait 69 milliards de dollars pour acheter le fabricant de jeux Activision Blizzard et ses technologies d’expérience immersive. Apple et Google prennent également des mesures pour créer des expériences informatiques immersives ; Nvidia s’appuie sur ses GPU, ses DPU et bientôt ses CPU pour créer sa plate-forme de simulation 3D Omniverse, son propre rendu du métaverse.
Il faudra des années pour voir comment le métaverse se joue, mais il est certain qu’il accélérera la décentralisation de l’informatique, le dernier en date des allers-retours en accordéon qui sont déjà en cours grâce à des tendances telles que l’IdO et informatique de pointe. Lors de la conférence Ignite il y a un an, le PDG de Microsoft, Satya Nadella, l’a noté, affirmant que l’industrie avait atteint une « centralisation maximale ». Le type d’expériences immersives dont parlent les partisans du métaverse nécessitera des capacités de bande passante élevée et de faible latence, ce qui nécessitera que le calcul soit plus proche de l’utilisateur final.
« L’idée est que si vous allez avoir une expérience immersive, même comme Meta le montre, vous allez devoir exécuter une grande partie de cela localement », Matt Baker, vice-président senior de la stratégie d’entreprise chez Dell Technologies, raconte La prochaine plateforme. « Si vous regardez les choses actuelles qui, selon nous, ressemblent au métaverse, il y a une raison pour laquelle il s’agit en grande partie de totems et d’avatars. C’est parce qu’il est facile de rendre ces animations presque comiques de moi sous la forme d’un avatar qui ressemble à un bloc. Pourquoi fais-tu cela? C’est parce que vous ne pouvez pas rendre quelque chose de vraiment sophistiqué et tridimensionnel à distance.
Comme indiqué dans un récent article de blog par Baker, le calcul et les données seront hautement distribués, ce qui nécessitera une grande capacité de traitement dans les centres de données et à la périphérie, ainsi que des PC plus puissants et d’autres clients équipés d’accélérateurs, de plus de mémoire et d’un nombre de cœurs plus élevé. Il y aura également un besoin de normes et d’interfaces ouvertes.
La demande des entreprises pour des expériences immersives en temps réel hautement réalistes « va finalement tirer la puissance de calcul des centres de données hyper-centralisés vers le monde qui nous entoure. Il peut s’agir de sites pour les opérateurs de télécommunications ou plus probablement de sites de tours de téléphonie cellulaire. Cela se passe en ce moment. Il y a toute une série de fournisseurs de colocation de niveau 2 et de niveau 3 qui essaient de se tailler une place parmi les grands comme Equinix pour créer de petits centres de données sur des marchés plus petits parce qu’ils veulent être en mesure de fournir cela.
Essayer de créer ce monde 3D à partir de centres de données centralisés et éloignés défierait les lois de la nature, dit Baker. Il souligne les limites généralement acceptées des opérations en temps réel de 5 millisecondes à 9 millisecondes de latence. Les deux régions d’Amazon Web Services qui sont relativement proches l’une de l’autre – en Virginie du Nord et en Ohio – sont encore à 300 miles ou plus avec une latence d’au moins 28 millisecondes.
Cela signifiera des centres de données plus petits – ou des environnements de type centre de données – dans plus d’endroits, tels que les opérateurs de tours sans fil, avec calcul, stockage et mise en réseau. Cela signifiera également plus d’ordinateurs dans des endroits tels que les magasins de détail et d’autres sites, dit Baker. Cela créera également un monde auquel les hyperscalers comme AWS, Microsoft Azure et Google Cloud devront s’adapter.
« Vous n’allez pas voir cette vidange à somme nulle des centres de données à grande échelle », dit-il. « Au fur et à mesure que les choses sortent, elles seront davantage liées les unes aux autres, c’est pourquoi cette idée de multicloud dont nous parlons sans cesse a été considérée comme une guerre entre sur site et hors site. La véritable action se passe potentiellement dans les «troisièmes prémisses». Tout ce qui n’est pas ces deux-là.
Cela pourrait inclure la création de centres de données plus petits et l’exploitation d’installations de colocation. Cela signifiera également probablement que les fournisseurs de cloud continueront d’étendre leurs services en dehors de leurs propres centres de données, a déclaré Baker. AWS l’a fait avec Outposts – du matériel placé sur site pour permettre aux entreprises d’accéder aux services cloud depuis leurs centres de données – et plus récemment avec son programme EKS et ECS Anywhere pour proposer des services AWS dans des serveurs grand public. Microsoft fait de même avec Azure Arc et Google Cloud avec Anthos.
À l’inverse, comme nous en avons déjà parlé, les entreprises d’infrastructure traditionnelles telles que Dell, Hewlett Packard Enterprise, Lenovo et Cisco placent leurs environnements dans le cloud. Dell s’est associé à VMware pour activer leurs technologies dans le cloud et propose de plus en plus de ses produits en tant que service via son initiative Apex. D’autres, comme IBM avec Red Hat, HPE avec GreenLake, Lenovo avec TruScale et Cisco Systems avec Cisco+ font de même.
À mesure que la nature distribuée de l’informatique s’accélère avec le métaverse, la périphérie et les forces similaires, les architectures matérielles et logicielles s’adapteront. Il existe une innovation croissante autour du silicium, avec la montée en puissance de puces optimisées pour l’IA, l’analyse et d’autres charges de travail et qui peuvent alimenter le passage à des systèmes plus composables. De plus, les entreprises continuent d’adopter des architectures pilotées par logiciel comme les infrastructures hyperconvergées – dans le cas de Dell, VxRail – pour réduire la complexité et améliorer la flexibilité.
« Nous allons commencer à voir des systèmes avec une composabilité plus fine, où vous pouvez mélanger et assortir des architectures de manière nouvelle et intéressante pour obtenir de nouveaux types de résultats et également être en mesure d’apporter dynamiquement plus de mémoire dans cette application », dit-il. « La façon dont j’aime y penser, c’est que les futures architectures feront exploser la tôle des serveurs et du stockage. Ces limites disparaîtront et elles seront connectées via des tissus à très haut débit et à faible latence. Il y a des aperçus de cela dans ce que nous faisons avec NVMe-over-Fabric. Ce sont les forces qui conduisent [changes in architecture]. C’est la soif insatiable de puissance de calcul qui est à l’origine des changements architecturaux.
Les conteneurs, les microservices, les logiciels natifs du cloud et la montée en puissance de la méthodologie à douze facteurs pour la création d’applications SaaS (logiciel en tant que service) contribueront également à la décentralisation du calcul qui sera nécessaire à mesure que le métaverse se concentrera.
« Ils ont été conçus pour faciliter le parallélisme dans un centre de données », explique Baker. « Mais la même approche pourrait être utilisée pour segmenter l’exécution des applications – deux services différents fonctionnant dans des localités différentes pour obtenir un résultat. Donc, la conteneurisation, les microservices, tout cela est un outil qui n’a pas nécessairement été conçu pour faciliter la décentralisation, mais cela aide certainement à la décentralisation car nous avons maintenant libéré nos esprits de la réflexion sur les applications monolithiques pour les applications segmentées.
Le retour du balancier vers une architecture informatique plus distribuée profitera à des fournisseurs comme Dell, HPE et Lenovo, qui à l’aube de l’ère du cloud étaient considérés comme des dinosaures incapables de rivaliser avec les Google et les Amazon et leurs énormes centres de données. Les hyperscalers sont devenus aptes à gérer des quantités massives de calcul dans un petit nombre d’emplacements. Dell et d’autres ont historiquement été « incroyablement bons pour déployer et gérer des systèmes par poignées, par racks et par centres de données à partir de millions d’emplacements », dit-il.