Google a ouvert son Conférence des développeurs d’E/S avec un sac à main d’une keynote. Sur deux heures Mercredi, un casting de personnages du géant de la technologie de Mountain View, en Californie, a tout couvert, des leçons de ukulélé assistées par l’IA aux ambitions sans carbone de l’entreprise pour ses centres de données.

Il n’y avait pas toujours beaucoup de nouveautés dans l’événement, mais quatre éléments d’E/S se sont révélés surprenants.

Augmentation des recherches AR

Google mises à niveau à venir de ses fonctionnalités de recherche inclura « l’exploration de scène », qui mélange essentiellement les fonctionnalités de reconnaissance d’image de Google Lens avec les travaux antérieurs de Google dans superpositions d’informations en réalité augmentée.

Par exemple, vous pouvez tenir l’appareil photo de votre téléphone devant une étagère pleine de chocolat gourmet pour voir des informations sur chaque produit superposé à la vue de l’appareil photo. Ou vous pouvez pointer la caméra sur l’étalage de crèmes hydratantes d’une pharmacie pour trouver des options sans parfum.

Ce type de superposition d’informations de forme libre représente une implémentation beaucoup plus ambitieuse de la RA que, par exemple, l’application Yelp affichage du nombre d’étoiles pour les restaurants à proximité dans la vue d’une rue de l’appareil photo de votre téléphone.

Publicité

« C’est comme avoir un Ctrl F suralimenté pour le monde qui vous entoure », a déclaré Prabhakar Raghavan, vice-président principal de Google Search, lors de la keynote.

Cela pourrait également surcharger Google en tête sur les moteurs de recherche concurrents qui peuvent offrir une meilleure confidentialité, mais proviennent d’entreprises qui ne peuvent pas égaler les prouesses d’apprentissage automatique qui alimentent cette fonctionnalité.

Un assistant qui aspire à votre regard

Si le fait de devoir dire « Hey, Google » pour attirer l’attention de Google Assistant se classe parmi les points faibles de votre vie numérique, préparez-vous à vous réjouir: une option à venir sur l’écran intelligent Nest Hub Max vous évitera d’avoir à exprimer ces mots de réveil.

Ceci Fonction « Look and Talk » permettra plutôt à cet appareil de table de commencer à écouter une fois que vous le regardez. Le Nest Hub Max décidera que votre regard n’est pas qu’un simple coup d’œil en appliquant des modèles d’apprentissage automatique à ce qu’il voit et entend avec sa caméra et son microphone, et il le fera sans l’aide des serveurs de Google.

YouTube video

« La vidéo de ces interactions est entièrement traitée sur l’appareil, elle n’est donc pas partagée avec Google ou qui que ce soit d’autre », a déclaré Sissie Hsiao, vice-présidente de Google Assistant, dans le keynote.

« Nous minimisons votre empreinte de données », a déclaré Jen Fitzpatrick, vice-présidente principale, en décrivant la philosophie « Protected Computing » de Google. « Si les données n’existent pas, elles ne peuvent pas être piratées. »

Mais alors que son aperçu des efforts de minimisation des données de Google – « collecter moins et supprimer plus », comme elle l’a dit – aurait pu s’intégrer dans une keynote Apple, la présentation des E/S était légère sur la façon dont Google applique des techniques telles que la confidentialité différentielle pour réduire les détails personnels exposés par ses principaux services de recherche et de cartes.

La keynote a toutefois mis en lumière une récente initiative de Google visant à donner aux gens un droit de veto sur les résultats de recherche qui révèlent leurs coordonnées. La capacité de demander à Google d’arrêter d’afficher ces résultats par le biais d’un formulaire Web en libre-service pourrait faire sauter un trou dans le modèle d’affaires de sites de recherche de personnes.

Toute personne tiraillée entre l’achat d’un Pixel 6 maintenant ou d’un Pixel 6a dans quelques semaines, par exemple, doit maintenant considérer l’arrivée annoncée à l’automne d’une série de téléphones Pixel 7, avec le modèle Pro doté d’un système à triple caméra à l’arrière. Prix? Demandez plus tard.

https://www.youtube.com/watch?v=nfhHicUoNqk

Les acheteurs de montres intelligentes qui envisagent de lancer le système d’exploitation Wear OS relancé de Google, quant à eux, savent maintenant que Google introduira un Montre Pixel cet automne, également à un prix inopiné.

Et bien que peu de gens aient acheté des tablettes fonctionnant sous Android, Google semble avoir décidé que des années après avoir cessé le Nexus 9, il ne se contente plus de laisser ce marché à des gens comme Samsung (en anglais seulement. L’année prochaine, il introduira une tablette Pixel à un prix inopiné dans une taille non annoncée.

La keynote s’est terminée par un clip conceptuel montrant comment le travail de Google dans la traduction automatisée en temps réel et les interfaces de réalité augmentée permettrait aux gens de transcender les barrières linguistiques en portant un futur ensemble de lunettes AR. Oui, il semble que le Google Glass le rêve est vivant et a-t-il toujours fière allure dans une vidéo de démonstration.

Rate this post
Publicité
Article précédentNeal Stephenson, auteur qui a inventé « Metaverse », vient d’acheter ses premiers NFT
Article suivantLa crypto-monnaie jouera-t-elle un rôle dans le financement de l’accès à l’avortement ?
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici