Dans le cadre de la Journée mondiale de sensibilisation à l’accessibilité (GAAD), Google annoncé un certain nombre de mises à jour sur Android, Chrome et d’autres services, y compris une fonctionnalité de questions-réponses sur les images dans Lookout.
Sous-titre en direct, qui génère des sous-titres en temps réel sur Android, Chrome et Google Meet, sera disponible sur davantage d’appareils et de personnes « cet été ». Il est en cours d’optimisation pour les tablettes Android avec une « nouvelle boîte de sous-titres » dans le cadre d’une campagne plus large sur grand écran.
De même, la possibilité de répondre essentiellement aux sous-titres en direct en tapant des réponses qui seront lues à haute voix à l’appelant à l’autre bout du fil « s’étend aux Pixel 4 et 5, ainsi qu’à d’autres appareils Android, comme certains téléphones Samsung Galaxy et autres. .» De même, les Pixel 4, 5 et d’autres appareils prennent en charge Live Caption en français, italien et allemand.
Attention prépare une nouvelle fonctionnalité de questions-réponses sur les images qui utilise un modèle de langage visuel Google DeepMind (Flamant) pour décrire des images qui n’ont pas de texte alternatif. À leur tour, les gens peuvent alors poser plusieurs questions sur l’image, soit par la voix, soit par saisie.
Par exemple, Lookout peut analyser une photo d’un chien courant sur une plage et générer la description suivante : « Sur cette image, je vois un chien qui court sur le sable. Je peux aussi voir une balle dans sa bouche. En arrière-plan, je peux voir l’eau, les montagnes et le ciel. Quelqu’un peut alors demander : « Le chien a-t-il l’air enjoué ? Et Google répondra : « Oui, le chien est joueur. »
Après des mois de tests internes auprès de personnes aveugles et malvoyantes, nous travaillons avec le Royal National Institute of Blind People (RNIB) pour inviter un nombre limité de personnes à tester cette fonctionnalité et prévoyons de la rendre accessible à encore plus de personnes. les gens bientôt.
Dans PlansGoogle s’efforce de rendre l’icône du lieu accessible aux fauteuils roulants plus visible, tandis que Chrome peut « désormais détecter les fautes de frappe dans les URL et suggérer des sites Web en fonction des corrections ».
Cela augmente l’accessibilité pour les personnes dyslexiques, les apprenants en langues et toute personne faisant des fautes de frappe en facilitant l’accès aux sites Web précédemment visités malgré les fautes d’orthographe. Cette fonctionnalité est désormais disponible sur le bureau Chrome et sera déployée sur mobile dans les mois à venir.
Talkback dans Chrome pour Android a été mis à jour pour analyser la grille d’onglets avec prise en charge des groupes d’onglets, des actions d’onglets groupées et de la réorganisation.
Enfin, Google réitère Portez des OS 4 à venir «une expérience de synthèse vocale plus rapide et plus fiable». Il fait suite à l’ajout de deux nouveaux modes son et affichage sur Wear OS 3
[ad_2]