Google a officialisé son travail de réalité augmentée (AR) lors de l’I/O 2022 en mai et utilise désormais Glass Enterprise pour tester les capacités axées sur la productivité à l’aide des téléphones Workspace et Pixel.
Glass, qui est actuellement sur Enterprise Edition 2 (EE2) annoncé en 2019, n’offre pas ce que la plupart des gens considéreraient comme une expérience AR moderne. Les informations ne sont pas directement superposées devant vous, mais plutôt dans le coin supérieur droit de votre vision. Au début des années 2010, il s’agissait d’une décision de conception délibérée – associée à la technologie d’affichage miniaturisée disponible à l’époque – afin que vous puissiez choisir quand voir et interagir avec Glass.
Cependant, ce matériel – alimenté par Android 8.1 Oreo, le Snapdragon XR1 de Qualcomm, 3 Go de RAM et 32 Go de stockage – est déjà disponible dans le monde et sert de terrain d’essai facilement disponible.
La société lance un « programme d’accès anticipé axé sur l’apport d’un plus grand nombre d’applications de productivité et d’outils de collaboration de Google sur la plate-forme Glass Enterprise ». Dans les coulisses, Google attribue explicitement une « nouvelle plate-forme compatible avec les téléphones qui utilise la puissance de calcul du silicium Google Tensor sur Pixel ».
Cette plate-forme offre des graphiques et des fonctionnalités AR plus puissants et uniques sur l’écran Glass Enterprise. Il est contrôlé par l’application Glass Enterprise Companion, ce qui facilite la configuration et la gestion des paramètres prêts à l’emploi pour les travailleurs.
Glass Enterprise fonctionnait auparavant comme un appareil autonome qui s’appuyait sur le processeur intégré. Ce qui est annoncé aujourd’hui utilise la puce Google Tensor, en particulier les modèles ML, sur un Pixel 6 (ou version ultérieure) pour « une transcription et une traduction plus précises et efficaces », ainsi que « d’autres avantages informatiques globaux ».
C’est une combinaison très intéressante, si ce n’est un aperçu technique de ce qui s’en vient, si l’on considère que les premières lunettes AR nécessiteront un téléphone couplé pour le traitement et la connectivité.
Il y a un lanceur « Google apps » avec une icône de téléphone verte qui indique vraisemblablement qu’une connexion de périphérique est active. La première nouvelle application Glass est Google Tasks avec des cartes disposées horizontalement sur l’écran 640 x 360. Cet écran d’accueil, qui comporte exactement le même logo Tâches que sur les téléphones dans le coin supérieur gauche, vous permet de parcourir les listes à l’aide du pavé tactile latéral.
À l’aide de n’importe quel appareil pris en charge, un responsable d’entrepôt peut créer un flux de travail sur les tâches et le partager directement avec un coéquipier préparant une expédition, qui peut voir et rayer les tâches en temps réel sur l’écran Glass Enterprise.
Après en avoir sélectionné un, un robinet marquera une tâche comme terminée et vous fera passer automatiquement à la suivante. Il est présenté comme permettant aux utilisateurs de voir des instructions étape par étape en temps réel et devient la deuxième application Workspace sur Glass après Google Meet, qui a été prévisualisée pour la première fois en 2020 et a été utilisée par les membres de l’équipe à distance pour rester « connecté pendant plus de 750 000 minutes. »
Il existe également une application « Langue » qui utilise le trio de microphones à formation de faisceaux en champ proche pour transcrire puis vous permettre de lire des traductions en temps réel. Vous voyez un indicateur « écoute… » au lancement qui notera alors la langue identifiée au fur et à mesure que les traductions apparaissent ci-dessus en temps réel.
L’anglais, le français, l’allemand, l’italien, le portugais et l’espagnol sont les langues officiellement prises en charge, mais il y a aussi le chinois (mandarin), le vietnamien, l’arabe, le coréen, le russe, l’hindi, le japonais, le tamoul et le néerlandais en version bêta pour un total de 15 avec plus prévu.
Ce qui est remarquable à propos de cette fonctionnalité Glass, c’est la façon dont Google à I/O 2022 a présenté des prototypes de lunettes de traduction AR qui ressemblent à North Focals. La vidéo de démonstration impliquait des personnes voyant une transcription en direct directement dans leur champ de vision. Glass Enterprise pourrait constituer une autre piste de test pour la capacité de traduction sous-jacente.
Enfin, les images que vous prenez sur l’appareil photo 8MP de Glass EE2 (FoV en diagonale de 83°, f/2.4, mise au point fixe et vidéo jusqu’à 1080p30), qui utilise l’icône de l’appareil photo Google, seront enregistrées directement sur votre téléphone Pixel. Cela facilite la sauvegarde et le partage de Google Photos.
Les clients actuels de Workspace « intéressés à tester comment ces nouveaux outils AR peuvent bénéficier à votre équipe » peuvent postuler pour rejoindre le Programme d’accès anticipé Glass Enterprise. Ces fonctionnalités pourraient être proposées à tous les partenaires et clients à l’avenir, mais cela n’est pas encore établi.
Nous sommes impatients d’élargir l’accès au fur et à mesure que nous apprenons aux côtés de nos partenaires dans les mois à venir,
et à la sortie de fonctionnalités AR plus utiles dans les programmes à venir.
L’avis de 9to5Google
Glass Enterprise avec un Google Pixel 6 ou plus récent alimenté par Tensor ressemble beaucoup à un aperçu de l’avenir. L’approche de Google aujourd’hui est de développer des services qui seront les mieux adaptés aux lunettes sur téléphones. Les exemples incluent Google Maps Live View avec une recherche à proximité qui superpose les informations sur le monde réel et la recherche visuelle Google Lens.
Google teste déjà des prototypes AR dans le monde réel et selon la rumeur, il travaillerait sur un casque AR pour 2024. Les nouvelles de Glass d’aujourd’hui ressemblent à un tremplin vers plus de tests afin qu’il puisse obtenir des données du monde réel le plus tôt possible.
FTC : Nous utilisons des liens d’affiliation automatique générateurs de revenus. Suite.
Découvrez 9to5Google sur YouTube pour plus d’informations :