I-TECH

Apple présente de nouvelles fonctionnalités idéales pour les personnes handicapées 

Photo : Handirect

En prélude à la Global Accessibility Awareness Day, une journée mondiale de sensibilisation à l’inclusion et l’accessibilité des personnes handicapées au numérique le 19 mai prochain, Apple vient de dévoiler quelques nouvelles fonctionnalités, qui prendront en compte la situation des personnes malvoyantes en facilitant leurs déplacements, ou celles avec un déficit auditif. Les nouvelles fonctions reposent sur l’intégration entre le logiciel et le matériel, et la capacité des produits Apple à faire tourner des IA localement. 

La première nouvelle fonction nommée Détection de porte, est destinée aux personnes aveugles ou malvoyantes. Elle permet à l’utilisateur de trouver la bonne porte quand il se trouve dans un environnement qui lui est inconnu.  

L’iPhone ou l’ipad sur lequel elle est activée, indiquera quelle distance sépare l’utilisateur de la porte et pourra même la lui décrire, en communiquant un numéro éventuel ou un symbole, et lui indiquer également si elle est ouverte ou fermée. L’iPhone précisera aussi le type de poignée de la porte, et pourra signaler à son utilisateur s’il faudra la pousser ou la tirer pour l’ouvrir. 

Intéressant non? Pour ça, l’iPhone ou l’iPad utilise le lidar et les modules caméras, les données sont ensuite traitées localement par un algorithme d’apprentissage machine. 

Cette fonction sera activée dans le mode détection au sein de l’application Loupe et s’ajoute à la fonction détection de personnes, déjà disponible, et description d’images. Apple Plans ajoutera également des rendus sonores et haptiques pour VoiceOver, qui devront faciliter la navigation dans le monde extérieur des personnes malvoyantes, en les indiquant notamment dans quelle direction partir à la sortie d’un métro, par exemple. 

Les utilisateurs pourront recopier l’écran de leur Apple Watch sur leur iPhone pour le contrôler depuis le smartphone avec les dispositifs de contrôle vocal ou contrôle de sélection. Toutes les applications seront accessibles depuis l’iPhone, ou l’Ipad, de même que la lecture de la fréquence cardiaque ou l’oxygénation du sang. 

Advertisements

Une autre nouveauté d’ Apple, c’est Live Caption, idéale surtout pour les personnes atteintes d’un déficit auditif. Elle permettra de sous-titrer n’importe quel contenu avec une piste audio. Ils pourront ainsi savoir ce que disent leurs interlocuteurs lors d’un appel FaceTime, pendant une vidéoconférence, dans une application de média social ou lorsqu’ils regardent une vidéo en streaming, même si plusieurs autres plates-formes proposent déjà leur propre solution. 

Sur Mac, lors d’un chat, il sera possible de taper une réponse au clavier et de la faire lire par la machine à voix haute. 

Ces informations sont toujours gérées en local et ne transitent pas en ligne par les serveurs d’Apple ou d’un partenaire. Cependant, Live Caption ne sera disponible en bêta que plus tard cette année, et seulement en anglais dans un premier temps, et il faudra posséder un iPhone 11 ou plus récent, un iPad doté d’un SoC A12 Bionic ou ou d’un Mac Apple Silicon. 

Siri attendra plus longtemps pour que vous lui répondiez, Livres va ajouter plus d’options de personnalisation, et les cours Place à la marche et Place à la course sur Apple Fitness+ seront renommés pour les utilisateurs en fauteuil roulant. 

Ces nouvelles fonctionnalités arriveront dans les prochains mois avec la sortie des futurs systèmes d’exploitation iOS 16, watchOS 9 et macOS 12. 

Facebook Comments

Sam Sarah Devilus
Journaliste / Communicatrice / Bookstagrameuse.