Le Web 2.0 nous a apporté du contenu généré par les utilisateurs et de l’interactivité – pensez à Twitter, Facebook, Slack et Zoom. Il a permis à la startup en ligne Dollar Shave Club d’acquérir une reconnaissance mondiale en 2012 avec une vidéo YouTube qui n’a coûté que 4 500 $ (3 300 £) à produire. La société a secoué les opérateurs historiques auparavant à l’épreuve des bombes sur son marché à un point tel qu’Unilever aurait payé 1 milliard de dollars pour l’acquérir quatre ans plus tard.
Le Web 3.0 nous a apporté encore plus de perturbations, sous la forme de technologies telles que le big data, l’apprentissage automatique et la blockchain. Les entreprises sont donc naturellement désireuses de devancer le Web 4.0. Les définitions de celui-ci varient, mais cette itération promet des services en ligne immersifs et hautement personnalisés, brouillant le physique et le numérique.
À quoi cela ressemblera-t-il ? Le métaverse est à la fois la plus grande promesse et la plus grande menace du Web 4.0. C’est une menace pour les opérateurs historiques tels que Facebook (maintenant Meta), en grande partie à cause de sa nature décentralisée. C’est une promesse pour les startups car elles peuvent être en mesure d’exploiter la technologie de manière à leur donner un avantage concurrentiel.
Tous les secteurs sont désireux de monter sur le devant de la scène. Microsoft a récemment dépensé 68,7 milliards de dollars pour la société de jeux Activision Blizzard. JPMorgan, quant à lui, a créé son propre salon métavers – dans lequel les visiteurs sont accueillis par, de toutes choses, un tigre virtuel.
Une question qui fait moins la une des journaux est ce que les DSI doivent faire pour que cette technologie fonctionne bien.
Les entreprises qui proposent la réalité augmentée (AR) et la réalité virtuelle (VR) dans le métaverse devront presque certainement reconfigurer leur puissance de calcul pour que les expériences se sentent correctement immersives. La fourniture centralisée de cloud computing, aussi percutante soit-elle, ne suffira pas. La raison en est la latence – le décalage temporel sur le réseau.
La compagnie de téléphone suédoise Ericsson a souligné que les jeux vidéo critiques, tels que les jeux de tir à la première personne, n’ont pas besoin de pire que 30 millisecondes de latence du réseau de bout en bout pour garantir une expérience de haute qualité. Plus le centre de données est éloigné de l’appareil final, plus la latence est importante. Même sur les liaisons fibre les plus rapides, il y a une latence de 5 microsecondes (0,005 millisecondes) pour chaque 1 km de câble parcouru par les données, selon les recherches d’Infinera.
C’est pourquoi les joueurs sérieux utilisent du matériel coûteux qui peut effectuer le traitement sur-le-champ. Le problème pour les entreprises est qu’il est peu probable que les consommateurs veuillent dépenser beaucoup en matériel spécial pour accéder aux services du métaverse. Ce qu’il faut faire?
Gagner un avantage concurrentiel
L’informatique de périphérie, où le muscle de traitement est placé plus près des données en cours de traitement, est la prochaine étape à partir du cloud.
« Les gens parlent de la périphérie depuis deux décennies, mais cela s’est limité à des cas d’utilisation de niche », explique Ishu Verma, évangéliste des technologies émergentes chez Red Hat, un fournisseur de logiciels d’entreprise open source. « Maintenant, l’idée de rapprocher l’informatique et le stockage des sources de données est adoptée plus largement dans l’industrie et les applications grand public. »
Une raison importante à cela est que les systèmes de données sont devenus beaucoup plus performants, rentables et économes en énergie, de sorte que les déployer à la périphérie à grande échelle est beaucoup plus faisable qu’il ne l’était.
« Dans le cloud, vous augmentez la capacité. Au bord, tu le redimensionnes en dehors à des millions de sites », déclare Verma, qui ajoute qu’il existe une demande dans tous les secteurs qui ont besoin de services à faible latence ou qui veulent simplement éviter le traitement par lots.
Certaines industries sont déjà très en avance sur le peloton. Les entreprises manufacturières, par exemple, utilisent l’informatique de pointe pour construire des jumeaux numériques – des répliques virtuelles intelligentes de l’infrastructure physique.
Rolls-Royce, par exemple, peut offrir à ses clients un moteur d’avion virtuel en vol qui répond comme le fait la machine physique. Les capteurs du moteur renvoient des données via une liaison satellite, bien que la plupart des informations soient collectées après l’atterrissage de l’avion. Les modèles d’apprentissage automatique informent le jumeau numérique et, par extension, l’objectif final, qui est une meilleure conception et maintenance du moteur physique.
Le directeur de l’information et du numérique de Rolls-Royce, Stuart Hughes, affirme que cette installation de simulation est importante pour l’entreprise, car certaines des choses qu’elle fait sont « vraiment à la limite de la physique ». Disposer d’une réplique virtuelle d’un moteur permet aux testeurs de le soumettre à bien plus de scénarios qu’ils ne pourraient le faire physiquement.
L’objectif à plus long terme de l’entreprise est d’avoir un moteur « de plus en plus connecté, sensible au contexte et compréhensif ».
Dans l’état actuel des choses, la plupart des entreprises ont leur principale capacité de calcul dans le cloud, bien qu’il existe des cas quotidiens d’informatique de pointe. Chaque guichet automatique est un minuscule centre de données, par exemple. Et l’interface utilisateur de l’assistant virtuel à commande vocale d’Amazon, Alexa, ne repose pas sur l’aller-retour de chaque élément de données vers le cloud. Une partie est analysée sur la machine.
Les offres fournies par Amazon Web Services (AWS) forment un continuum, jusqu’aux capteurs de l’Internet des objets dans les locaux des utilisateurs. C’est ce que déclare le directeur du développement de produits d’AWS, George Elissaios, qui ajoute : « L’informatique de périphérie est l’informatique en nuage.
Les entreprises qui ne sont pas des hyperscalers cloud ont tendance à toujours faire une distinction claire entre le cloud et la périphérie. La règle générale est que le cloud offre des économies d’échelle, un meilleur contrôle du traitement et une plus grande capacité de calcul.
« La formation et le développement de modèles d’apprentissage automatique se déroulent dans le cloud, tandis que l’inférence avec des données en temps réel se produit à la périphérie », explique Verma.
Les entreprises ont également plus qu’une simple latence à prendre en compte lorsqu’elles examinent la périphérie. La souveraineté des données, par exemple, est une question épineuse. Comme Facebook le découvre dans l’UE, certaines juridictions n’aiment pas voir les données transférées vers des serveurs au-delà de leurs frontières.
La sécurité est une autre considération clé. « L’approche à adopter est ‘ne faire confiance à personne' », conseille Verma. « Toute donnée provenant d’un appareil distant est suspecte. »
Cela s’explique en partie par le fait que les appareils distants peuvent facilement être altérés, contrairement à ceux sur le cloud ou sur site.
L’utilisation de la périphérie remplacera-t-elle l’utilisation du cloud ? Le consensus parmi les experts est que ce ne sera pas le cas.
« Je ne pense pas que la périphérie remplace le cloud. je ne pense pas que le bord rivalise avec le cloud », explique Matt George, directeur du marketing par segment et de la transformation d’entreprise pour Equinix dans la région EMEA. « Au fur et à mesure que vous avancez sur le chemin [towards more real-time services]ce que vous voulez, c’est la configuration informatique la plus agile et la plus flexible possible.