L’une des nouvelles opportunités de revenus les plus prometteuses dans la 5G est le découpage du réseau. Cela permet aux propriétaires de spectre de créer des réseaux sans fil privés qu’ils peuvent ensuite louer à des utilisateurs d’entreprise pour des durées courtes ou longues. Selon certaines estimations, le marché des réseaux 5G privés pourrait atteindre jusqu’à 30 milliards de dollars en revenus annuels.
Par exemple, dans les zones rurales, les propriétaires de spectre peuvent allouer du spectre sous-utilisé à des équipements agricoles autonomes. Ou dans les quartiers financiers qui sont bondés pendant la journée avec des travailleurs (et leurs appareils) mais qui se vident ensuite le soir et la nuit, les propriétaires de spectre peuvent louer des portions du spectre à des équipements IoT commerciaux pour réacheminer les données des capteurs de la journée ou déployer de nouveaux algorithmes sans fil à ce même équipement.
Mais les fournisseurs de services de communication (CSP) doivent s’assurer que même s’ils explorent de nouveaux modèles commerciaux 5G, ils continuent à fournir des niveaux minimaux de qualité de service ou sinon faire face à un examen réglementaire accru. Afin d’offrir à la fois un réseau flexible capable d’allouer automatiquement la bande passante du spectre en fonction de la demande tout en garantissant les niveaux de service aux consommateurs, les CSP devront déployer des analyses de réseau à faible latence sur des milliers d’emplacements périphériques pour comprendre et prédire la qualité du réseau en temps réel.
Les deux principaux oublis de l’exécution du ML à la périphérie du réseau
Les CSP ne sont pas nouveaux dans la science des données. Selon Aperçu analytique, le secteur des télécommunications est le plus grand investisseur dans la science des données, représentant déjà environ un tiers du marché du big data. Ces dépenses devraient doubler de 2019 à 2023, pour atteindre plus de 105 milliards de dollars en 2023.
Cela dit, prendre des modèles d’apprentissage automatique complexes formés dans des environnements cloud ou sur site et les déployer à la périphérie est encore relativement nouveau. L’environnement de développement peut être si différent de l’environnement de production en direct qu’il peut s’écouler des mois de réingénierie avant qu’un seul modèle puisse être déployé avec succès à la périphérie. Et une fois en direct, les scientifiques des données qui ont développé le modèle n’ont souvent aucune vue sur les performances continues de leur modèle jusqu’à ce que quelque chose tourne mal.
Dans l’ensemble, nous avons constaté deux obstacles majeurs à la création d’un programme Edge ML évolutif et rentable pour les fournisseurs de services de communication :
1) Surveillance de la précision continue des modèles vivants : Les équipes de science des données peuvent tellement se concentrer sur le déploiement et l’exécution de modèles à la périphérie qu’elles oublient de penser au lendemain du déploiement d’un modèle. L’environnement réseau est en constante évolution (par exemple, une nouvelle classe d’appareils peut être mise en ligne) et donc la qualité du réseau passé et les modèles de demande se dégradent rapidement. Vos opérations Edge ML ont-elles la capacité de surveiller les performances, de pousser des modèles mis à jour, d’exécuter des tests A/B sur des parties de votre flotte ou d’effectuer des tests fantômes ?
2) Contraintes de calcul de l’environnement Edge : La plupart des architectures de réseau 5G modernes reposent sur des dizaines de milliers de petites cellules dans le but de centraliser autant de fonctions de gestion de réseau dans le cloud tout en limitant les applications de périphérie à celles qui nécessitent absolument une faible latence (par exemple, optimiser l’allocation de la bande passante locale). Ce que cela signifie pour le déploiement de Edge ML est un appareil très limité en termes de calcul et de puissance, ce qui rend difficile l’exécution de modèles ML complexes. Il existe plusieurs méthodes différentes pour réduire la charge de calcul requise par vos modèles d’apprentissage automatique, comme quantification & élagage et distillation des connaissancesmais peut-être que le plus simple est d’utiliser un moteur spécialisé pour exécuter ML à la périphérie.
Mais dans l’ensemble, les CSP doivent reconsidérer leur approche de l’apprentissage automatique non pas comme un déploiement ponctuel d’un modèle, mais plutôt comme un cycle de déploiement, de gestion et de surveillance des modèles basé sur des performances continues. La 5G a un potentiel incroyable pour générer de nouvelles sources de revenus, mais des cas d’utilisation tels que les réseaux privés reposent sur des modèles ML à faible latence déployés à la périphérie. Compte tenu de leur investissement dans la science des données, les fournisseurs de services cloud créent souvent par défaut des solutions ML de production internes, mais découvrent rapidement que ces solutions sont plus coûteuses à entretenir, ont des performances inférieures et ne parviennent pas à évoluer. Heureusement, il existe des solutions prêtes à l’emploi qui permettent aux CSP de décharger les opérations d’apprentissage automatique non essentielles (alias, MLOps) comme le déploiement et la surveillance, tandis que leurs équipes de données peuvent se concentrer sur les fonctions MLOps qui génèrent des résultats commerciaux, comme la construction de plus des modèles précis de prévision de la demande du réseau.