Google prévoit de tester des prototypes de réalité augmentée (RA) en public à partir du mois prochain, a annoncé mardi la société. Google a exploré des concepts tels que Lunettes AR qui affichent les traductions en temps réel, mais l’entreprise veut faire passer ses idées du laboratoire au monde réel. La Verge précédemment signalés que Google espère livrer son casque AR « Project Iris » en 2024.

« Cela nous permettra de mieux comprendre comment ces appareils peuvent aider les gens dans leur vie quotidienne », Juston Payne de Google écrit dans un article de blog. « Et à mesure que nous développons des expériences comme la navigation en RA, cela nous aidera à prendre en compte des facteurs tels que la météo et les intersections achalandées – ce qui peut être difficile, parfois impossible, à recréer complètement à l’intérieur. »

D’après une page d’assistance Google, la société testera un « petit nombre » de prototypes dans certaines régions des États-Unis avec « des limitations strictes sur l’endroit où les testeurs peuvent opérer et les types d’activités dans lesquelles ils peuvent s’engager ». Les testeurs devront suivre une « formation sur les appareils, les protocoles, la confidentialité et la sécurité ».

Et la société avertit qu’elle aura des prototypes qui ressemblent à des lunettes normales, bien qu’ils aient un écran intégré à l’objectif et des « capteurs visuels et audio » comme un microphone et une caméra à bord. Un indicateur LED indique aux personnes à proximité si des données d’image sont enregistrées pour « analyse et débogage », qu’elles peuvent demander à supprimer.

Google prévoit d’explorer des cas d’utilisation tels que la transcription et la traduction de la parole, ainsi que des scénarios de détection visuelle tels que la traduction de texte ou l’aide à la navigation. La société affirme que ses prototypes ne prennent pas en charge la photographie ou la vidéographie, bien que toutes les données d’image capturées lors de ses tests soient supprimées à moins que les données ne soient utilisées pour une analyse ou un débogage plus approfondis. « Dans ce cas, les données d’image sont d’abord nettoyées pour le contenu sensible, y compris les visages et les plaques d’immatriculation », écrit la société. Ensuite, il est stocké sur un serveur sécurisé, avec un accès limité par un petit nombre de Googlers pour l’analyse et le débogage. Après 30 jours, il est supprimé. »

Publicité

Google répertorie « traduction, transcription et navigation » comme fonctionnalités dans les tests et Avant-première lunettes à Google I / O plus tôt cette année qui peuvent montrer la langue traduite juste devant vos yeux. Mais en annonçant ces tests bien avant le moment où ils auront réellement lieu dans le monde réel et en décrivant ce qu’ils impliqueront, Google semble essayer d’éviter une répétition de la débâcle de « Glasshole » qui a tourmenté l’entreprise tristement célèbre casque Google Glass.

Rate this post
Publicité
Article précédentL’iPhone perd son plus grand avantage sur Android, qu’est-ce qu’Apple va faire ensuite ?
Article suivantFortnite Anime Legends Pack n’est pas le crossover Dragon Ball que vous attendiez
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici