J’ai mentionné dans mon aperçu du Google Data Cloud Summit cette semaine, je m’attendais à des annonces technologiques passionnantes pour l’IA, l’apprentissage automatique, la gestion des données et l’analyse. Google n’a pas déçu dans ce département.

La mission déclarée de Google Cloud est d’accélérer la capacité de chaque organisation à se transformer grâce à une innovation basée sur les données. Un thème qui ne devrait surprendre personne, mais dans le cas de Google, soutenu par une flopée de nouvelles technologies et d’innovations.

Dans cet article, je vais déballer et analyser certaines des annonces de cette semaine chargée. Il ne s’agit là que d’un «époussetage» de ce qui a été annoncé.

Vertex AI

Publicité

Au cas où vous l’auriez manqué, Google a annoncé Vertex AI à Google I / O le 18 mai.

Un fait bien connu dans le monde de l’apprentissage automatique (ML) est qu’il faut beaucoup plus de temps pour déployer des modèles de ML en production que pour les développer. Cela suppose que vous puissiez trouver le talent pour travailler sur le projet en premier lieu.

Au fil du temps, Google a appris des leçons essentielles sur la création, le déploiement et la maintenance de modèles de ML en production. Ces connaissances ont formé la base et la conception de Vertex AI, qui combine les services Google Cloud pour la création de ML sous une seule interface utilisateur et API unifiées afin de simplifier la création, la formation et le déploiement de modèles d’apprentissage automatique à grande échelle.

Vertex AI dispose de tous les outils nécessaires pour gérer les données sur une seule plate-forme, prototyper, expérimenter, déployer, interpréter et surveiller des modèles en production sans nécessiter de formation formelle en ML.

Ce dernier point est critique compte tenu de la rareté des talents. Vos data scientists ne sont pas obligés d’être des ingénieurs ML.

C’est formidable de voir Google Cloud ajouter cette capacité car personne n’a remis en question sa capacité technique, mais les entreprises cherchaient un moyen de simplifier et de coordonner le ML. Et voilà.

Dataplex

Les données résident dans plusieurs emplacements tels que des lacs de données, des entrepôts de données et d’autres data marts spécialisés dans la plupart des organisations. Dans ce scénario, les clients doivent définir et appliquer des politiques cohérentes sur toutes les données, quel que soit leur emplacement physique.

Dataplex est une structure de données intelligente qui permet une gestion, une surveillance et une gouvernance centralisées des données sur tous les systèmes de stockage et d’analyse et les rend accessibles en toute sécurité par divers outils d’analyse et de science des données. Dataplex comprend Google Cloud et des outils open source, avec des fonctionnalités intégrées d’intelligence artificielle (IA) et d’apprentissage automatique (ML) de Google.

Dataplex est un autre exemple de fonctionnalité qui vous extrait de l’infrastructure pour libérer du temps et des efforts pour vous concentrer sur l’entreprise.

Flux de données

Tout le monde souhaite intégrer et analyser les données plus rapidement et utiliser moins de ressources système pour y parvenir. Change Data Capture (CDC) identifie les modifications pour synchroniser les bases de données plus efficacement. CDC est une exigence pour fournir des capacités de réplication à travers des sources de données disparates. Les méthodes de réplication de données standard sont coûteuses, lourdes à mettre en place et nécessitent des frais généraux de gestion importants pour fonctionner à grande échelle.

Datastream est un service de capture et de réplication des données de changement (CDC) et sans serveur natif dans le cloud. Datastream lit les événements CDC (insertions, mises à jour et suppressions) à partir des bases de données source et écrit ces événements avec une latence minimale vers une destination de données.

Datastream est un grand pas en avant par rapport au traitement par lots utilisé par de nombreuses entreprises. Les entreprises peuvent désormais synchroniser les données sur des bases de données, des systèmes de stockage et des applications hétérogènes avec une latence minimale pour prendre en charge l’analyse en temps réel, la réplication de bases de données et les architectures basées sur les événements.

Centre d’analyse

Le partage et l’échange de données avec d’autres organisations ne sont pas faciles, en particulier avec les menaces de sécurité et les réglementations en matière de confidentialité en augmentation. Mais certaines entreprises ont besoin de données partagées pour gérer efficacement l’entreprise.

Les pipelines de données par lots sont coûteux et peu fiables à exécuter. Le résultat est plusieurs copies de données qui peuvent interrompre les processus de gouvernance des données.

Analytics Hub est un nouveau service basé sur BigQuery, L’entrepôt de données cloud sans serveur à l’échelle du pétaoctet de Google.

L’architecture de BigQuery assure la séparation entre le calcul et le stockage, permettant aux éditeurs de données de partager des données sans copies multiples. Les données peuvent être fournies et consommées en temps réel à l’aide des capacités de streaming de BigQuery.

Analytics Hub s’appuie sur les capacités de BigQuery pour échanger des données en introduisant des ensembles de données et des échanges partagés. Les ensembles de données partagés contiennent les vues des données que vous souhaitez fournir à vos abonnés. Les échanges garantissent que les ensembles de données partagés sont organisés et sécurisés. Par défaut, les échanges sont entièrement privés, ce qui signifie que seuls les utilisateurs et les groupes auxquels vous donnez accès peuvent afficher ou s’abonner aux données. Vous pouvez également créer des échanges internes ou tirer parti des échanges publics fournis par Google. L’une des différences intéressantes par rapport aux autres sur le marché est que le hub d’analyse inclura la visualisation (plutôt que de devoir compter sur des tiers) et peut fournir aux clients un accès à des ensembles de données uniques que Google peut fournir, tels que Google Search Trends, comme un exemple. Enfin, vous publiez des ensembles de données partagés dans un Exchange pour les mettre à la disposition des abonnés.

BigQuery Omni et Looker pour Microsoft Azure

BigQuery Omni est une solution d’analyse multi-cloud qui permet d’analyser les données en toute sécurité sur Google Cloud, Amazon Web Services (AWS) et maintenant Microsoft Azure. L’interface utilisateur (UI) de BigQuery est le seul volet de verre utilisant les API SQL et BigQuery standard dans les silos de données. BigQuery Omni, optimisé par Anthos, permet des requêtes de données sans avoir à gérer l’infrastructure sous-jacente.

Looker est une plateforme de Business Intelligence qui vous aide à explorer, analyser et partager facilement des analyses commerciales en temps réel. Avec Looker, vous pouvez vous connecter, analyser et visualiser des données sur Google Cloud, AWS, des bases de données sur site et, avec cette annonce, Microsoft Azure.

La glissade d’argent

Je déteste le dire, mais j’adore les diapositives. Beaucoup de gens disent, « nous ne voulons pas vous mettre à mort » et je réponds, « apportez les diapositives. » Vous voyez, je suis un apprenant visuel et je vois des idées plus grandes dans de grands graphiques noueux. Le graphique ci-dessous en dit long sur la promesse de Gooogle Cloud de fournir de la valeur à chaque utilisateur de données tout au long du cycle de vie des données. Et je pense que c’est un gros problème.

Emballer

Google a annoncé de nouvelles fonctionnalités qui répondent aux principaux défis des clients en matière de gestion, de partage et d’analyse des données.

Depuis le début, Google est une société de données, et nous les voyons maintenant apporter des capacités développées pour un usage interne aux clients. D’autres fournisseurs de cloud peuvent avoir des capacités similaires, mais je pense que Google devrait avoir un avantage dans la gestion et l’analyse des données en raison de l’héritage. Dans mes nombreuses conversations avec les DSI et les chefs d’entreprise, s’ils utilisent Google Cloud, c’est pour les «données» et «l’IA». Tout cela a du sens, non?

Le sommet Google Data Cloud est un événement à ne pas manquer par quiconque utilise ou envisage d’utiliser les technologies Google Cloud. Mais si vous l’avez fait, ne vous inquiétez pas car le contenu sera disponible pour une visualisation à la demande immédiatement après la diffusion en direct de chaque événement ici.

Remarque: les rédacteurs et rédacteurs de Moor Insights & Strategy peuvent avoir contribué à cet article.

Moor Insights & Strategy, comme toutes les sociétés de recherche et d’analyse, fournit ou a fourni des recherches, des analyses, des conseils ou des conseils rémunérés à de nombreuses entreprises de haute technologie du secteur, notamment 8×8, Advanced Micro Devices, Amazon, Applied Micro, ARM, Aruba Réseaux, AT&T, AWS, Stratégies A-10, Bitfusion, Blaize, Box, Broadcom, Calix, Cisco Systems, Clear Software, Cloudera, Clumio, Cognitive Systems, CompuCom, Dell, Dell EMC, Dell Technologies, Diablo Technologies, Digital Optics, Dreamchain, Echelon, Ericsson, Extreme Networks, Flex, Foxconn, Frame (maintenant VMware), Fujitsu, Gen Z Consortium, Glue Networks, GlobalFoundries, Google (Nest-Revolve), Google Cloud, HP Inc., Hewlett Packard Enterprise, Honeywell, Huawei Technologies, IBM, Ion VR, Inseego, Infosys, Intel, Interdigital, Jabil Circuit, Konica Minolta, Lattice Semiconductor, Lenovo, Linux Foundation, MapBox, Marvell, Mavenir, Marseille Inc, Mayfair Equity, Meraki (Cisco), Mesophere, Microsoft , Réseaux Mojo, National Instruments, Net App, Nightwatch, NOKIA (Alcatel-Lucent), Nortek, Novumind, NVIDIA, Nuvia, ON Semiconductor, ONUG, OpenStack Foundation, Oracle, Poly, Panasas, Peraso, Pexip, Pixelworks, Plume Design, Poly, Portworx, Pure Storage, Qualcomm , Rackspace, Rambus, Rayvolt E-Bikes, Red Hat, Residio, Samsung Electronics, SAP, SAS, Scale Computing, Schneider Electric, Silver Peak, SONY, Springpath, Spirent, Splunk, Sprint, Stratus Technologies, Symantec, Synaptics, Syniverse, Synopsys, Tanium, TE Connectivity, TensTorrent, Tobii Technology, T-Mobile, Twitter, Unity Technologies, UiPath, Verizon Communications, Vidyo, VMware, Wave Computing, Wellsmith, Xilinx, Zebra, Zededa et Zoho qui peuvent être cités dans les blogs et recherche.

.

Rate this post
Publicité
Article précédentLa bande-annonce de la guerre de demain entraîne Chris Pratt dans le futur pour combattre les extraterrestres
Article suivant10 Shonen Anime qui se sentent plus comme Seinen
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici