Google teste un moyen pour les personnes aveugles et malvoyantes de courir en toute sécurité en utilisant l’intelligence artificielle pour fournir des invites audio lorsqu’elles commencent à s’éloigner de la route. Project Guideline utilise une application mobile fonctionnant sur un smartphone Android suit les lignes peintes sur la route à partir d’un harnais porté par le coureur et combine les informations visuelles avec des données GPS pour déterminer si et comment le coureur dérive, puis utilise les sons joués par les écouteurs du coureur. pour les alerter de la façon de s’ajuster pour se remettre sur la bonne voie comme on peut le voir dans la vidéo ci-dessus.
Lignes directrices
L’application de Project Guideline utilise un modèle AI pour repérer une ligne peinte sur la route et déduire où se trouve le coureur par rapport à la ligne. Si le coureur commence à s’éloigner trop de la ligne, l’application envoie un signal aux écouteurs à conduction osseuse qu’ils portent pour émettre des bruits désagréables. Quelle oreille le son joue et à quel point il devient fort permet au coureur de savoir dans quelle direction il doit se déplacer et à quelle distance il se trouve de la ligne. Le système peut fonctionner à partir du smartphone sans Internet, ce qui est crucial s’il fonctionne sur des pistes de course qui peuvent avoir une mauvaise connexion Wi-Fi. Google a conçu Project Guideline en collaboration avec l’association à but non lucratif Guiding Eyes for the Blind, dont la direction a joué un rôle direct dans le test du système.
«Nous avons commencé par esquisser le fonctionnement du prototype, en optant pour un concept simple: je porterais un téléphone sur une ceinture et des écouteurs à conduction osseuse», a expliqué le président de Guiding Eyes for the Blind, Thomas Panek, dans un article de blog. «La caméra du téléphone recherchait une ligne directrice physique au sol et enverrait des signaux audio en fonction de ma position. Si je dérivais vers la gauche de la ligne, le son deviendrait plus fort et plus dissonant dans mon oreille gauche. Si je dérivais vers la droite, la même chose se produirait, mais dans mon oreille droite.
C’est un peu comme l’alerte de proximité utilisée dans les voitures, de plus en plus bruyante et rapide à mesure que la voiture est proche d’une éventuelle collision, mais avec une composante directionnelle ajoutée. Panek a terminé avec succès la course virtuelle de New York Road Runners pour Thanks 5K à Central Park en utilisant Project Guideline cette année. Il l’a également couru l’année dernière avec l’aide d’une équipe de relais de trois chiens-guides. La prochaine étape consistera à peindre les lignes sur plus de routes dans différentes villes.
Accessibilité Google
Project Guideline est une autre facette des initiatives d’accessibilité de Google impliquant l’IA, telles que formation des assistants vocaux dans le projet Euphonia pour comprendre ceux qui ont des troubles de la parole. Plus récemment, Google a ajouté la fonctionnalité de notifications sonores à Android pour alerter les gens qui n’entend pas les bruits critiques comme les alarmes ou les pleurs des bébés. Dans le cadre de la célébration du mois de sensibilisation à la communication internationale augmentée et alternative (CAA) par l’entreprise. Google a ajouté commandes de suivi oculaire de l’Assistant Google et amélioration de l’accessibilité pour les blocs d’action le même mois. Pour les personnes ayant une déficience visuelle, Google a ajouté des fonctionnalités telles que signaux vocaux dans les directions de Google Maps. Google a également récemment effectué une mise à jour majeure de l’application Lookout. D’abord conçu pour fournir des descriptions audio continues de l’environnement de l’utilisateur à l’aide de la caméra, il peut désormais scanner et identifier les aliments emballés et prendre des instantanés de texte à lire à haute voix plus tard.
Suivez @voicebotai Suivez @erichschwartz
La nouvelle fonctionnalité d’accessibilité Android vous avertit des sons que vous n’entendez pas