Live-Photos-Ios-15-Wwdc

Pomme

Cette histoire fait partie de Événement Apple, notre couverture complète des dernières nouvelles du siège d’Apple.

Apple tire plus d’informations des photos : sa nouvelle fonctionnalité Live Text à venir sur iOS 15, annoncée lors de sa WWDC virtuelle conférence des développeurs, ressemble à une variante de la vision par ordinateur intelligente de Google intégrée à Lens.

La fonctionnalité reconnaîtra le texte sur les photos ou via l’application Appareil photo d’Apple et reconnaîtra sept langues pour commencer. L’outil basé sur la vision par ordinateur sera capable de rechercher le texte trouvé dans les photos, un peu comme Objectif Google le fait déjà.

Bien que Live Text ne soit pas tout à fait une réalité augmentée telle que définie par des technologies telles que L’ARKit d’Apple, Live Text pourrait très bien être un outil clé pour les futurs logiciels de réalité augmentée (ou Matériel). La capacité de reconnaître et d’extraire des informations à la volée semble être une astuce assez nécessaire pour les lunettes, bien que son fonctionnement dans iOS 15 reste à voir.

Rate this post
Publicité
Article précédentActifs cryptographiques : de plus en plus de géants de la finance américains se lancent sur la pointe des pieds dans les actifs cryptographiques
Article suivantNetflix annonce une série animée dérivée de Far Cry Blood Dragon
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici