Apple hat mehrere neue Funktionen für seine Software und seine Betriebssysteme
angekündigt, die für Menschen mit Behinderungen konzipiert wurden.
So sollen später im Jahr Updates für die Betriebssysteme von
Apple erscheinen, die es Menschen mit körperlichen Behinderungen ermöglichen sollen, die Apple Watch mit Assistivetouch zu nutzen. Mithilfe der eingebauten Bewegungssensoren, wie dem Gyroskop und dem Beschleunigungssensor, zusammen mit dem optischen Herzfrequenzsensor und Machine Learning kann die Apple Watch subtile Unterschiede in der Muskelbewegung und der Sehnenaktivität erkennen. Dies soll es dem Benutzer ermöglichen, den Cursor auf dem Display der Apple Watch durch eine Reihe von Handgesten navigieren, wie beispielsweise durch ein Zwicken oder ein Zusammenpressen.
Ab sofort ist auch der neue Apple-Service Signtime verfügbar. Damit können Kunden direkt im Browser in Gebärdensprache mit Applecare und dem Retail Customer Care kommunizieren. Kunden, die Apple Stores besuchen, können Signtime nutzen, um auf einen Gebärdensprachdolmetscher zuzugreifen, ohne diesen im Voraus buchen zu müssen. Signtime wird zunächst in den USA, Grossbritannien und Frankreich ausgerollt. Später soll der Service auch auf weitere Länder ausgeweitet werden.
Darüber hinaus soll iPadOS Unterstützung für Eye-Tracking-Hardware von Drittanbietern erhalten. Damit sollen Nutzer in der Lage sein, ihre iPads mit Augenbewegungen zu steuern. Und Apples Bildschirmleser Voiceover soll die Intelligenz der Apple-Geräte nutzen können, um Objekte in Bildern zu erkunden. Die Nutzer sollen dadurch noch mehr Details zu Personen, Text, Tabellendaten und anderen Objekten in Bildern erfahren können.
Apple will auch Nuerodiversität unterstützen und führt deshalb Hintergrundgeräusche ein, die Ablenkungen minimieren sollen. Und nicht zuletzt wird Made for iPhone in Kürze neue bidirektional Hörgeräte unterstützen. Die Mikrofone in diesen neuen Hörgeräten ermöglichen gehörlosen und schwerhörigen Menschen, freihändig zu telefonieren und Facetime-Gespräche zu führen. Hinzu komme die Unterstützung für die Erkennung von Audiogrammen. Nutzer können die Audioeinstellungen in ihren Geräten schnell aufgrund ihrer letzten Hörtestergebnisse anpassen. Diese können aus einem Audiogramm auf Papier oder im PDF-Format importiert werden.
Und weiter bringt
Apple auch ein neues Feature, das physische Tasten und Schalter durch Mundgeräusche ersetzt. Dies soll Menschen, die nicht sprechen und in ihrer Mobilität eingeschränkt sind, helfen, ihre Geräte zu steuern. Neu können für Benutzer mit Farbenblindheit oder anderen Sehbehinderungen auch die Einstellungen für die Anzeige und Textgrösse in jeder App angepasst werden. Und nicht zuletzt gibt es auch neue Memojis mit Sauerstoffschläuchen, Cochlea-Implantaten und einem weichen Helm als Kopfbedeckung.
(luc)