Il y a environ un an, Google a annoncé le lancement de Vertex AI, une plate-forme d’IA gérée conçue pour aider les entreprises à accélérer le déploiement de modèles d’IA. Pour marquer l’anniversaire du service et le lancement du Sommet Applied ML de Google, Google a annoncé ce matin de nouvelles fonctionnalités en direction de Vertex, notamment un serveur dédié à la formation au système d’IA et des explications « basées sur des exemples ».
« Nous avons lancé Vertex AI il y a un an dans le but de permettre à une nouvelle génération d’IA de permettre aux scientifiques et aux ingénieurs des données de faire un travail satisfaisant et créatif », a déclaré Henry Tappen, chef de produit du groupe Google Cloud, à TechCrunch par e-mail. « Les nouvelles fonctionnalités d’IA vertex que nous lançons aujourd’hui continueront d’accélérer le déploiement de modèles d’apprentissage automatique dans les organisations et de démocratiser l’IA afin que davantage de personnes puissent déployer des modèles en production, surveiller en permanence et générer un impact commercial grâce à l’IA. »
Comme Google l’a toujours présenté, l’avantage de Vertex est qu’il rassemble les services Google Cloud pour l’IA sous une interface utilisateur et une API unifiées. Des clients tels que Ford, Seagate, Wayfair, Cashapp, Cruise et Lowe’s utilisent le service pour créer, former et déployer des modèles d’apprentissage automatique dans un environnement unique, affirme Google, faisant passer les modèles de l’expérimentation à la production.
Vertex est en concurrence avec les plateformes d’IA gérées de fournisseurs de cloud tels qu’Amazon Web Services et Azure. Techniquement, il s’inscrit dans la catégorie des plates-formes connues sous le nom de MLOps, un ensemble de bonnes pratiques permettant aux entreprises d’exécuter l’IA. Deloitte Prédit le marché des MLOps vaudra 4 milliards de dollars en 2025, soit une croissance multipliée par près de 12 depuis 2019.
Projets Gartner l’émergence de services gérés comme Vertex entraînera une croissance du marché du cloud de 18,4% en 2021, le cloud devant représenter 14,2% des dépenses informatiques mondiales totales. « Alors que les entreprises augmentent leurs investissements dans la mobilité, la collaboration et d’autres technologies et infrastructures de travail à distance, la croissance du cloud public [will] être maintenus jusqu’en 2024 », a écrit Gartner dans une étude de novembre 2020.
Nouvelles fonctionnalités
Parmi les nouvelles fonctionnalités de Vertex figure le serveur de réduction de la formation IA, une technologie qui, selon Google, optimise la bande passante et la latence de la formation distribuée multi-systèmes sur les GPU Nvidia. Dans l’apprentissage automatique, la « formation distribuée » fait référence à la répartition du travail de formation d’un système sur plusieurs machines, GPU, CPU ou puces personnalisées, réduisant ainsi le temps et les ressources nécessaires pour terminer la formation.
« Cela réduit considérablement le temps de formation requis pour les charges de travail linguistiques importantes, comme BERT, et permet en outre la parité des coûts entre différentes approches », a déclaré Andrew Moore, vice-président et directeur général de l’IA cloud chez Google, dans un article publié aujourd’hui sur le blog Google Cloud. « Dans de nombreux scénarios métier critiques, un cycle de formation raccourci permet aux scientifiques des données de former un modèle avec des performances prédictives plus élevées dans les limites d’une fenêtre de déploiement. »
En préversion, Vertex propose également des flux de travail tabulaires, qui visent à apporter une plus grande personnalisation au processus de création de modèle. Comme Moore l’a expliqué, Tabular Workflows permet à l’utilisateur de choisir les parties du flux de travail qu’il souhaite que la technologie « AutoML » de Google gère par rapport aux pièces qu’il souhaite concevoir lui-même. AutoML, ou apprentissage automatique automatique – qui n’est pas unique à Google Cloud ou Vertex – englobe toute technologie qui automatise certains aspects du développement de l’IA et peut aborder les étapes de développement, du début avec un ensemble de données brut à la création d’un modèle d’apprentissage automatique prêt à être déployé. AutoML peut gagner du temps, mais ne peut pas toujours battre une touche humaine, en particulier lorsque la précision est requise.
« Les éléments des flux de travail tabulaires peuvent également être intégrés dans vos pipelines Vertex AI existants », a déclaré Moore. « Nous avons ajouté de nouveaux algorithmes gérés, y compris des modèles de recherche avancés comme TabNet, de nouveaux algorithmes pour la sélection de fonctionnalités, la distillation de modèles et … plus.
En ce qui concerne les pipelines de développement, Vertex gagne également une intégration (en préversion) avec Spark sans serveur, le sans serveur version du moteur d’analyse open source géré par Apache pour le traitement des données. Désormais, les utilisateurs de Vertex peuvent lancer une session Spark sans serveur pour développer du code de manière interactive.
Ailleurs, les clients peuvent analyser les fonctionnalités des données dans la plate-forme Neo4j, puis déployer des modèles à l’aide de Vertex grâce à un nouveau partenariat avec Neo4j. Et grâce à une collaboration entre Google et Labelbox, il est désormais plus facile d’accéder aux services d’étiquetage de données de Labelbox pour les images, le texte, les données audio et vidéo du tableau de bord Vertex. Les étiquettes sont nécessaires pour que la plupart des modèles d’IA apprennent à faire des prédictions; les modèles s’entraînent à identifier le relentre les étiquettes, également appelées annotations, et les exemples de données (par exemple, la légende « grenouille » et une photo d’une grenouille).
Dans le cas où les données sont mal étiquetées, Moore propose des explications basées sur des exemples comme solution. Disponibles en préversion, les nouvelles fonctionnalités de Vertex exploitent des explications « basées sur des exemples » pour aider à diagnostiquer et à traiter les problèmes liés aux données. Bien sûr, aucune technique d’IA explicable ne peut détecter toutes les erreurs; Le linguiste computationnel Vagrant Gautam met en garde contre les outils et les techniques de confiance excessive utilisés pour expliquer l’IA.
« Google a une documentation sur les limitations et un livre blanc plus détaillé sur l’IA explicable, mais rien de tout cela n’est mentionné nulle part [today’s Vertex AI announcement]», ont-ils déclaré à TechCrunch par e-mail. L’annonce souligne que « la maîtrise des compétences ne devrait pas être le critère de participation » et que les nouvelles fonctionnalités qu’elles fournissent peuvent « faire évoluer l’IA pour les experts non logiciels ». Ce qui m’inquiète, c’est que les non-experts ont plus confiance en l’IA et en l’explicabilité de l’IA qu’ils ne le devraient, et maintenant divers clients de Google peuvent construire et déployer des modèles plus rapidement sans s’arrêter pour se demander s’il s’agit d’un problème qui nécessite une solution d’apprentissage automatique en premier lieu, et appeler leurs modèles explicables (et donc dignes de confiance et bons) sans connaître toute l’étendue des limitations autour de cela pour leurs cas particuliers. »
Néanmoins, Moore suggère que les explications basées sur des exemples peuvent être un outil utile lorsqu’elles sont utilisées en tandem avec d’autres pratiques d’audit de modèles.
« Les scientifiques des données ne devraient pas avoir besoin d’être des ingénieurs d’infrastructure ou des ingénieurs d’exploitation pour garder les modèles précis, explicables, évolutifs, résistants aux catastrophes et sécurisés, dans un environnement en constante évolution », a ajouté Moore. « Nos clients exigent des outils pour gérer et maintenir facilement les modèles d’apprentissage automatique. »