Pourquoi est-ce important: Les entreprises technologiques ont eu tendance à se surpasser en ce qui concerne les fonctionnalités d’accessibilité ces derniers temps. Tout, des jeux aux systèmes d’infodivertissement de voiture, semble avoir diverses fonctions qui aident les personnes handicapées à naviguer dans les menus et à communiquer via la synthèse vocale. Apple, qui ne sera jamais en reste, proposera bientôt un lot de fonctionnalités pour rendre ses produits plus conviviaux pour les personnes souffrant de troubles cognitifs.
Mardi, Apple annoncé une multitude de fonctionnalités d’accessibilité pour iPhone et iPad. La nouvelle fonctionnalité aide principalement les clients souffrant de troubles cognitifs tels que l’aphasie, la SLA et d’autres conditions qui rendent difficile la parole, la lecture ou l’utilisation d’un téléphone ou d’une tablette. Certaines fonctionnalités remarquables incluent une interface plus simple, une fonctionnalité pointer et parler et une synthèse vocale qui peut imiter la voix de l’utilisateur.
« Chez Apple, nous avons toujours cru que la meilleure technologie est une technologie conçue pour tout le monde », a déclaré le PDG Tim Cook. « Aujourd’hui, nous sommes ravis de partager de nouvelles fonctionnalités incroyables qui s’appuient sur notre longue histoire de rendre la technologie accessible, afin que chacun ait la possibilité de créer, de communiquer et de faire ce qu’il aime. »
Apple a commencé par développer une interface tactile plus indulgente. Surnommée « Assistive Access », la fonctionnalité prend certaines des applications natives les plus utilisées et rend leur interface utilisateur plus facile à utiliser en agrandissant les boutons et la grille de l’écran tactile. L’écran d’accueil aura également une grille plus grande avec des applications plus espacées. Lorsqu’elle est activée, cette fonctionnalité devrait aider les personnes dont la fonction motrice est altérée.
Les applications qui verront ces changements incluent Photos, Téléphone, Appareil photo, Messages, Musique et FaceTime. Les messages auront également de nouvelles options comme un clavier agrandi uniquement pour les emoji et la possibilité d’enregistrer des messages vidéo.
Une autre fonctionnalité utile pour ceux qui ont des difficultés à lire ou à voir est Point and Speak, qui résidera dans l’application Magnifier existante. Apple a introduit Magnifier il y a quelque temps afin que les utilisateurs n’aient pas à manipuler les fonctions d’appareil photo et de zoom pour utiliser leur iPhone comme une loupe, ce que la plupart d’entre nous ont probablement fait.
La loupe possède déjà quelques fonctionnalités d’accessibilité pratiques, notamment des réglages de daltonisme, la possibilité de geler l’écran et une mise au point automatique modifiée. Il dispose également d’une détection de personnes et de portes et peut lire les panneaux aux utilisateurs.
Point and Speak étend la fonctionnalité de lecture de panneaux en permettant à l’utilisateur de pointer vers des parties spécifiques d’un panneau ou d’une interface du monde physique pour que seule cette partie soit lue. Par exemple, Apple a démontré la fonctionnalité en utilisant les boutons d’un four à micro-ondes. Lorsque l’utilisateur pointe vers des boutons étiquetés, l’iPhone les prononce à haute voix plutôt que d’essayer de lire l’intégralité de l’interface.
L’une des fonctionnalités les plus intéressantes s’appelle Personal Voice. Personal Voice fait partie d’un autre composant d’accessibilité appelé Live Speech. Live Speech convertit le texte en mots prononcés lors de conversations téléphoniques, FaceTime ou en personne.
Personal Voice est une extension de Live Speech qui permet aux utilisateurs de former une IA à parler avec leur voix. Apple affirme que Personal Voice invite les utilisateurs à lire plusieurs (150) phrases équivalant à environ 15 minutes de discours. L’IA utilise les échantillons pour copier la voix de l’utilisateur lors de l’utilisation de Live Speech. Live Speech dispose également d’une mémoire personnalisable qui enregistre les phrases les plus courantes de l’utilisateur afin que des choses comme bonjour, au revoir, je suis en route, etc., n’aient pas à être tapées à chaque fois.
Apple affirme que Live Speech with Personal Voice pourrait aider les patients atteints de SLA à préserver leur voix réelle lorsque la maladie finit par prendre leur capacité à parler. Le physicien Stephen Hawking est connu pour sa voix robotique (entre autres choses plus importantes). Avec Personal Voice, il aurait pu continuer à parler avec sa cadence habituelle, son accent britannique et tout.
Apple a quelques autres fonctionnalités d’accessibilité mises en évidence dans son communiqué de presse pour les intéressés. Bien qu’il n’ait pas précisé quand ces mises à jour arriveraient, une bonne estimation serait en septembre avec la sortie d’iOS 17.
Crédit d’en-tête : Avis fiables