Dans le contexte: En matière de produits technologiques, les concepts sont souvent plus élégants que la réalité. Les capacités et les fonctions qui semblent logiques et simples s’avèrent souvent beaucoup plus compliquées ou ardues qu’elles ne le paraissent au premier abord.
Une partie du problème, bien sûr, est que bon nombre des technologies les plus avancées sont complexes et qu’il peut être très difficile de les concrétiser. Mais un problème encore plus courant est que les exigences préexistantes ne sont pas entièrement expliquées, ou que le nombre d’étapes requises peut s’avérer beaucoup plus difficile qu’il n’y paraît.
Pour faire simple, « le diable est dans les détails ».
C’est le cas de nombreuses technologies cloud et IA. Des idées de produits de haut niveau, telles que la capacité d’analyser rapidement tout type de données pour aider à générer des modèles basés sur l’intelligence artificielle (IA) ou l’apprentissage automatique (ML) à l’aide des nouveaux types d’accélérateurs matériels, font l’objet de discussions depuis des années.
Comme Google l’a clairement indiqué à travers plusieurs annonces lors de sa Nuage suivant événement, cependant, il y a beaucoup de détails importants qui doivent être mis en place pour que ces idées deviennent réalité.
Pour commencer, tous les outils d’analyse de données et toutes les plates-formes de données ne peuvent pas fonctionner avec n’importe quel type de données. C’est pourquoi la possibilité d’importer ou d’ingérer des types de données de formats nouveaux et différents dans une gamme plus large d’outils d’analyse est si importante. L’ouverture de la possibilité pour les plates-formes de données telles qu’Elastic d’accéder aux données stockées sur Google Cloud, et l’intégration par Google de la prise en charge d’Elastic dans sa nouvelle gamme d’outils d’analyse commerciale Looker, ne sont que deux des nombreuses annonces liées aux données ouvertes faites à Cloud Prochain.
De même, différents types de données sont souvent stockés dans différents formats, et les outils d’analyse doivent spécifiquement permettre la prise en charge de ces structures de données afin de les rendre plus utiles à une plus grande variété d’utilisateurs et de développeurs d’applications.
Dans le domaine en plein essor des data lakehouses, par exemple, où de grands « lacs » de données non structurées, telles que la vidéo et l’audio, peuvent être interrogés avec les types d’outils trouvés dans les entrepôts de données structurées, le format de table open source Apache Iceberg devient de plus en plus populaire.
C’est pourquoi Google a ajouté la prise en charge de ce format et d’autres formats, y compris Delta et Hudi, à son moteur de stockage BigLake et a ajouté la prise en charge de l’analyse des données non structurées à ses outils d’analyse de données BigQuery. Non seulement cela offre une flexibilité supplémentaire, mais cela signifie également que les données non structurées peuvent tirer parti d’autres outils Big Query de Google Cloud Platform (GCP), y compris des fonctions de ML telles que la reconnaissance vocale, la vision par ordinateur, le traitement de texte, etc.
Un autre domaine de développement important concerne l’utilisation de divers types de puces d’accélération matérielle pour améliorer les performances du modèle d’IA. Google a créé plusieurs générations de TPU (unités de traitement de tenseurs), par exemple, qui offrent des avantages importants pour des applications telles que la formation de modèles d’IA ou l’inférence. En outre, il y a eu de nombreuses annonces récentes de sociétés de semi-conducteurs établies comme Intel, AMD, Nvidia et Qualcomm, ainsi qu’un grand nombre de startups de puces axées sur ce domaine en plein essor.
Comme vous vous en doutez, chacune de ces sociétés de puces utilise des techniques différentes pour accélérer les modèles d’IA et de ML. Ce qui n’est pas aussi clair, c’est que les méthodes nécessaires pour écrire des logiciels ou créer des modèles pour les différents accélérateurs sont également propriétaires. Par conséquent, il peut être difficile pour les développeurs de logiciels et les créateurs de modèles AI/ML de tirer parti de ces différentes puces en raison de la difficulté d’apprendre toutes ces approches uniques.
Pour résoudre ce problème, quelques-unes des annonces les plus intrigantes de Google de Cloud Next sont le lancement d’un nouveau consortium industriel appelé le projet OpenXLA et le lancement de nouveaux outils logiciels open source conçus pour faciliter le processus de travail avec plusieurs types différents d’accélérateurs matériels. .
OpenXLA est conçu pour augmenter la flexibilité des choix dont disposent les développeurs d’IA/ML en fournissant des connexions entre la plupart des frameworks frontaux populaires utilisés pour créer des modèles d’IA, notamment TensorFlow, PyTorch et JAX, et une multitude de backends d’accélérateurs matériels différents. Les premiers outils logiciels publiés incluent un compilateur XLA mis à niveau et un ensemble portable d’opérations informatiques ML appelé StableHLO.
Les entreprises qui ont également rejoint Google dans l’initiative incluent Intel, Amazon Web Services, AMD, Nvidia, Arm, Meta et plus encore. L’inclusion d’Intel est intéressante car, à bien des égards, l’objectif du projet OpenXLA est similaire à celui d’Intel OneAPI, qui vise à permettre aux développeurs d’exploiter plusieurs types d’architectures informatiques d’Intel telles que les processeurs, les GPU et les accélérateurs Habana Gaudi AI, sans avoir à apprendre à programmer pour chacun des différents types de puces. OpenXLA porte ce concept à l’échelle de l’industrie et, grâce à l’inclusion de nombreux acteurs clés du cloud computing, devrait ouvrir un certain nombre de nouvelles opportunités importantes et accélérer l’adoption d’accélérateurs matériels.
Comme de nombreuses annonces faites par Google lors de Cloud Next, les avantages concrets du projet OpenXLA et des outils qui lui sont associés mettront un certain temps à avoir un impact significatif. Dans l’ensemble des tendances de l’industrie technologique, ces outils peuvent sembler un peu modestes en eux-mêmes. Collectivement, cependant, ils représentent des avancées très importantes et témoignent du type d’efforts déployés par Google pour rendre ses outils plus utiles à un public plus large.
Ils reflètent également un fort accent sur les outils open source et une volonté de rendre sa plate-forme Google Cloud et les offres associées plus transparentes et plus flexibles. Le processus d’exploitation de tous les outils technologiques proposés par Google est sans aucun doute complexe, mais avec la vaste collection d’annonces que l’entreprise a dévoilées à Cloud Next, il est clair que l’évolution de l’entreprise en tant que fournisseur majeur de cloud continue de progresser.
Bob O’Donnell est le fondateur et analyste en chef de TECHnalysis Research, LLC une société de conseil en technologie qui fournit des services de conseil stratégique et d’étude de marché à l’industrie technologique et à la communauté financière professionnelle. Vous pouvez le suivre sur Twitter @bobodtech.