Apple a annoncé une gamme de fonctionnalités d'accessibilité pour les utilisateurs d'iPhone, d'iPad et de Vision Pro, qui devraient faire leurs débuts plus tard cette année. Ceux-ci incluent le suivi oculaire, l’haptique musicale, les raccourcis vocaux, les signaux de mouvement du véhicule, etc.
Apple annonce de nouvelles fonctionnalités d'accessibilité (Crédits image : Apple)
Apple a annoncé de nouvelles fonctionnalités d'accessibilité pour les iPhones et iPads, qui devraient arriver plus tard cette année. Ceux-ci incluent le suivi oculaire pour les utilisateurs ayant un handicap physique pour leur permettre de contrôler l'iPad ou l'iPhone avec leurs yeux, Music Haptics pour les utilisateurs sourds ou malentendants pour écouter de la musique à l'aide du moteur Taptic sur iPhone, des raccourcis vocaux pour effectuer des tâches avec un son personnalisé. , des indices de mouvement du véhicule pour réduire le mal des transports lors de l'utilisation d'un iPhone ou d'un iPad dans un véhicule en mouvement, et bien plus encore. Apple a également annoncé de nouvelles fonctionnalités d'accessibilité pour le casque Vision Pro. Jetons un coup d'œil détaillé.
Nouvelles fonctionnalités d’accessibilité à venir sur iPhone, iPad
Suivi de l'oeil arrive sur iPad et iPhone, permettant aux utilisateurs, en particulier ceux souffrant d'un handicap physique, de naviguer sur leurs appareils en utilisant uniquement leurs yeux. Il utilise la caméra frontale pour une configuration et un calibrage rapides, qui sont conservés en toute sécurité sur l'appareil. La fonctionnalité ne nécessite aucun matériel supplémentaire et permet aux utilisateurs de naviguer dans les applications et d'activer des fonctions avec leurs mouvements oculaires, grâce à Dwell Control.
Haptique musicale améliore l'accessibilité de la musique pour les utilisateurs sourds ou malentendants sur iPhone. Cette fonctionnalité utilise le Taptic Engine pour jouer des taps, des textures et des vibrations synchronisées avec l'audio de la musique. Il est compatible avec des millions de chansons sur Apple Music et sera proposé sous forme d'API que les développeurs pourront intégrer dans leurs applications.
Raccourcis vocaux sur iPhone et iPad permettent aux utilisateurs d'attribuer des énoncés personnalisés à Siri pour exécuter des raccourcis et effectuer des tâches complexes. De plus, la fonction Écouter la parole atypique améliore la reconnaissance vocale pour un plus large éventail de modèles de parole. Utilisant l'apprentissage automatique sur l'appareil, il s'adresse aux utilisateurs souffrant de maladies acquises ou progressives affectant la parole, telles que la paralysie cérébrale ou la SLA. Ces fonctionnalités étendent la personnalisation et le contrôle, complétant les fonctionnalités iOS 17 existantes pour les utilisateurs non parlants ou à risque.
Indices de mouvement du véhicule est une nouvelle fonctionnalité pour iPhone et iPad conçue pour soulager le mal des transports chez les passagers des véhicules en mouvement. Il aborde le conflit sensoriel souvent vécu lorsqu'une personne voit diffère de ce qu'elle ressent. Les points animés sur les bords de l'écran représentent les changements dans le mouvement du véhicule, visant à réduire les conflits sensoriels sans perturber le contenu principal. Les utilisateurs peuvent choisir d'activer la fonctionnalité automatiquement ou manuellement via les paramètres du Control Center.
CarPlay reçoit également de nouvelles mises à jour d'accessibilité, notamment la commande vocale, les filtres de couleur et la reconnaissance sonore. La commande vocale permet une navigation mains libres et un contrôle des applications via des commandes vocales. La reconnaissance sonore alerte les conducteurs ou les passagers sourds ou malentendants des klaxons et des sirènes des voitures. Les filtres de couleur s'adressent aux utilisateurs daltoniens, améliorant ainsi l'accessibilité visuelle.
Nouvelles fonctionnalités d’accessibilité pour Vision Pro
visionOS est sur le point d'introduire de nouvelles fonctionnalités d'accessibilité, notamment des sous-titres en direct à l'échelle du système, pour aider les utilisateurs, y compris ceux qui sont sourds ou malentendants, à suivre les dialogues parlés dans les conversations en direct et l'audio de l'application. Les sous-titres en direct pour FaceTime amélioreront l'expérience de collaboration, permettant à davantage d'utilisateurs de se connecter à l'aide de leur Persona.
De plus, Apple Vision Pro permettra de déplacer les sous-titres pendant Apple Immersive Video et étendra la prise en charge à d'autres appareils auditifs Made for iPhone et à des processeurs auditifs cochléaires.
Les mises à jour pour l'accessibilité visuelle incluront des fonctionnalités telles que la réduction de la transparence, l'inversion intelligente et les lumières clignotantes faibles pour répondre aux utilisateurs malvoyants ou sensibles aux lumières vives. Ces ajouts complètent la suite existante de fonctionnalités d'accessibilité dans Apple Vision Pro, notamment VoiceOver, Zoom et filtres de couleur, et bien plus encore.
Suivez-nous sur les réseaux sociaux
->Google Actualités