Meta met à jour ses lunettes intelligentes Ray-Ban avec une nouvelle fonctionnalité mains libres, a déclaré la société annoncé mercredi. Plus particulièrement, les utilisateurs peuvent désormais partager une image de leurs lunettes intelligentes directement sur leur Story Instagram sans avoir besoin de sortir leur téléphone.
Après avoir pris une photo avec les lunettes intelligentes, vous pouvez dire : « Hey Meta, partage ma dernière photo sur Instagram. » Ou vous pouvez dire : « Hey Meta, publie une photo sur Instagram » pour prendre une nouvelle photo sur le moment.
Le lancement de la nouvelle fonctionnalité rappelle les Snap Spectacles, qui ont fait leurs débuts en 2016 et permettaient aux utilisateurs de capturer des photos et des vidéos avec leurs lunettes intelligentes pour les partager directement sur leurs Snapchat Stories.
Les lunettes intelligentes Ray-Ban de Meta bénéficient également d’intégrations mains libres avec Amazon Music et l’application de méditation Calm.
Les utilisateurs peuvent désormais diffuser de la musique depuis Amazon Music sans avoir à sortir leur téléphone en disant « Hey Meta, joue Amazon Music ». Vous pouvez également contrôler votre lecture audio avec des commandes tactiles ou vocales pendant que votre téléphone reste dans votre poche.
Pour accéder à la nouvelle intégration mains libres Calm, les utilisateurs peuvent dire « Hey Meta, joue au Daily Calm » pour avoir des exercices de pleine conscience et du contenu de soins personnels accessibles directement via leurs lunettes intelligentes.
En outre, Meta augmente le nombre de styles disponibles dans 15 pays, dont les États-Unis, le Canada, l’Australie et certaines parties de l’Europe. L’extension comprend le style Skyler en gris crayeux brillant avec des verres dégradés rose cannelle ; Skyler en noir brillant avec transitions Verres bleu céruléen ; et Headliner Low Bridge Fit en noir brillant avec des verres Polar G15. Les lunettes sont disponibles sur les deux Méta et Ray-Ban sites Web.
Le lancement des nouvelles fonctionnalités intervient un mois après les lunettes intelligentes obtenu une mise à niveau de l’IA. Meta a déployé l’IA multimodale sur les lunettes intelligentes pour permettre aux utilisateurs de poser des questions sur ce qu’ils voient. Par exemple, si vous voyez un menu en français, les lunettes intelligentes pourraient utiliser leur caméra intégrée et Meta AI pour traduire le texte pour vous.
L’idée derrière le lancement est de permettre aux lunettes intelligentes d’agir comme un assistant personnel d’IA en dehors de votre smartphone, d’une manière similaire à la broche AI de Humane.