En septembre, Google a prévisualisé la possibilité de rechercher des lieux à proximité en utilisant la réalité augmentée. La recherche AR dans Google Maps Live View commencera à être déployée la semaine prochaine, tandis que la recherche multiple de Google Lens vous permettra de prendre une photo de nourriture et de voir où le plat est disponible à proximité.
Lorsque vous lancez Live View, qui est désormais possible via l’icône de l’appareil photo dans la barre de recherche de Google Maps, une feuille de fond vous permettra de « Rechercher des lieux près de chez vous » qui sont « à moins de 5 minutes à pied ». Les épingles colorées de la vue de la carte à plat sont utilisées pour mettre en évidence les points d’intérêt, celui qui est actuellement centré faisant automatiquement apparaître sa carte.
Vous obtenez le nom, l’icône, la note, la catégorie/description, la fourchette de prix, les heures et si c’est occupé. Google mettra également en évidence les endroits « hors de vue » qui « ne sont pas dans votre champ de vision immédiat (comme un magasin de vêtements autour du pâté de maisons) pour avoir une véritable idée du quartier en un coup d’œil ».
Pour effectuer une recherche, un carrousel de bas de page comprend des catégories courantes telles que les restaurants, les distributeurs automatiques de billets, les vêtements. et achats. Vous obtenez également des filtres pour Ouvert maintenant, Offres et Meilleures notes, ainsi que la possibilité d’obtenir une vue de liste.
Après avoir fait une sélection, les matchs seront superposés avec des flèches et la distance notée sur la carte. Tapoter démarrera les directions. La recherche Live View dans Google Maps sera déployée à partir de la semaine prochaine sur Android et iOS à Los Angeles, San Francisco, New York, Londres et Paris.
Pendant ce temps, la recherche multiple de Google Lens, qui vous permet d’ajouter des requêtes textuelles aux images analysées, prendra en charge la prise d’une photo ou d’une capture d’écran de la nourriture, puis l’ajout de « près de moi » pour « trouver rapidement un endroit qui le vend à proximité ». Il est lancé aujourd’hui en anglais américain.
Google a également réitéré que la mise à niveau de Lens AR Translate sera déployée plus tard cette année. Cette méthode utilise la même technologie d’intelligence artificielle derrière Pixel Magic Eraser pour supprimer le texte d’origine, puis le recréer – tout en respectant le style – pour mieux préserver le contexte que l’approche actuelle des blocs de couleur, qui couvre le texte d’origine, puis superpose le texte.
En ce qui concerne les achats, une nouvelle fonctionnalité AR facilitera la recherche du bon fond de teint, qui figure « parmi les catégories de maquillage les plus recherchées ». Pour améliorer la précision, Google a une nouvelle photothèque de « 148 modèles représentant un large éventail de tons de peau, d’âges, de sexes, de formes de visage, d’ethnies et de types de peau ».
Voici comment cela fonctionne : recherchez une teinte de fond de teint sur Google parmi une gamme de prix et de marques, comme « Armani Luminous Silk Foundation ». Vous verrez à quoi ressemble ce fond de teint sur des modèles avec un teint de peau similaire, y compris des photos avant et après, pour vous aider à décider lequel vous convient le mieux. Une fois que vous avez trouvé celui que vous aimez, sélectionnez simplement un détaillant à acheter.
Vous pourrez également « tourner, zoomer et voir des chaussures dans votre espace » de marques telles que Saucony, Vanas et Merrell en recherchant « Acheter des baskets VANS bleues » et en utilisant « Afficher dans mon espace ». Ces deux fonctionnalités commencent à être déployées aujourd’hui.
FTC : Nous utilisons des liens d’affiliation automatique générateurs de revenus. Suite.
Découvrez 9to5Google sur YouTube pour plus d’informations :