Apple tire plus d’informations des photos : sa nouvelle fonctionnalité Live Text à venir sur iOS 15, annoncée lors de sa WWDC virtuelle conférence des développeurs, ressemble à une variante de la vision par ordinateur intelligente de Google intégrée à Lens.
La fonctionnalité reconnaîtra le texte sur les photos ou via l’application Appareil photo d’Apple et reconnaîtra sept langues pour commencer. L’outil basé sur la vision par ordinateur sera capable de rechercher le texte trouvé dans les photos, un peu comme Objectif Google le fait déjà.
Bien que Live Text ne soit pas tout à fait une réalité augmentée telle que définie par des technologies telles que L’ARKit d’Apple, Live Text pourrait très bien être un outil clé pour les futurs logiciels de réalité augmentée (ou Matériel). La capacité de reconnaître et d’extraire des informations à la volée semble être une astuce assez nécessaire pour les lunettes, bien que son fonctionnement dans iOS 15 reste à voir.