Die meisten Dinge lernt man erst dann zu schätzen, wenn man sie braucht. Die Bedienungshilfen von Apple beispielsweise. Mit einem gebrochenen Arm im Bett liegend freut man sich über die einhändige Bedienbarkeit des iPhones, über Sprachkommandos oder sonstige Abkürzungen, die das mühsame Tippen mit einer Hand vereinfachen. Wenn die Augen nachlassen, strahlen Funktionen rund um Textgröße, Kontrast und Helligkeit in einem ganz neuen Licht.

Seit rund 40 Jahren hat sich der US-Konzern auf die Fahnen geschrieben, Hilfestellungen für körperliche und motorische Tätigkeiten mit Apple-Geräten anzubieten – oftmals unter dem Radar der Öffentlichkeit. In den Communitys würde man die Funktionen kennen, ist immer wieder in Presseaussendungen oder in Statements von Apple zu lesen. Allerdings gibt es viele Features, wie so oft bei Apple, von denen man gerne wüsste – auch wenn man noch keine Brille braucht oder mit anderen Beeinträchtigungen leben muss.

Wer mit Sehbeeinträchtigungen leben muss, freut sich über die Erkennung von beispielsweise Türen und deren Schildern.
Foto: Apple

Text- und Türerkennung

Apple will Hardware verkaufen. Das ist weder eine große Überraschung noch besonders verwerflich. Ein Punkt, mit dem man sich vom Mitbewerb abheben möchte, der nebenbei auch den positiven Effekt höherer Absätze haben soll, ist das Thema Bedienungshilfen und Barrierefreiheit. Obwohl es laut Apple ein "core value", also ein zentraler Wert des US-Unternehmens ist, fallen so attraktive Neuerungen wie Assistive Touch bei der Apple Watch oder Texterkennung in Fotos oft unter die mediale Aufmerksamkeit.

Ohne körperliche Einschränkung ist einem oftmals nicht bewusst, mit wie vielen Hürden man konfrontiert sein kann, wenn man beispielsweise schlecht sieht, hört oder eine Hand weniger zur Verfügung hat. Apple arbeitet hier schon seit Jahren an Features, die solche Beeinträchtigungen egalisieren sollen. So gibt es beispielsweise Voice-Over-Befehle, also die Möglichkeit, dass das Smartphone Objekte auf dem Bildschirm vorliest. Auch Bilder können mittlerweile dank künstlicher Intelligenz umschrieben werden.

Speziell mit "maschinellem Lernen" hat sich hier in den letzten Jahren viel getan. Sprachassistenten und andere KI-gestützte Tools werden mit Trainingsdaten gefüllt, bis sie nicht nur die bekannten Beispiele kennen, sondern auch Muster und Gesetzmäßigkeiten in Lerndaten erkennen. So muss nicht jedes Türschild und jeder Text einmal gesehen werden, um etwa mit der "Türerkennung" sehbehinderten Menschen Dinge wie die Farbe einer Tür, der Name auf dem Schild oder auch, ob es sich um eine Drehtür handelt, einfach vorgelesen werden.

Ein Problem ist die Kommunikation solcher Features an die breite Masse. Wer stellt in den Fokus der Berichterstattung, dass man bei der Apple Watch auch Gesten nutzen kann, anstatt aufs Display tippen zu müssen. Versteckt sind solche Features hinter Namen wie Assistive Touch, damit man auch einfach drüberblättern kann.

Apple

Ein paar aktuelle Beispiele

Hörgeräte "Made for iPhone"

Schwerhörigkeit kann nachgewiesen zu Demenz führen oder auch zur Vereinsamung. Wenn man die Verwandten am Telefon nicht mehr so gut hört oder in Gruppen alles zu einem Gebrabbel wird, ist Resignation oftmals die Reaktion. Laut Statistik lassen sich Menschen fünf bis sieben Jahre Zeit, bis sie sich zum Tragen eines Hörgerätes entscheiden – das ist oftmals zu spät.

Seit einigen Jahren hat Apple mit einigen Herstellern solcher Hörgeräte eine Kooperation, damit man via Bluetooth Handy und Hörhilfe verbinden kann. Anrufe hört man dann direkt im Hörgerät oder auch andere Anwendungen, die über das Smartphone gesteuert werden. Anpassungen, etwa Lautstärke oder Bass, kann man in der zum jeweiligen Hörgerät passenden App einstellen.

Assistive Touch

Bereits 2015 mehrten sich die Berichte, dass Menschen ihre Apple Watch mit der Nase steuern würden. Damals noch vor allem für lustige Überschriften genutzt, war die Problematik keine Hand "frei" für die Bedienung zu haben, auch bei Menschen mit Einschränkungen der oberen Extremitäten von Tag eins bestehend. Laut Apple meldeten sich auch blinde Menschen, die in einer Hand etwa einen Blindenhund führen mussten.

Auf einmal war das Thema von einem Spaß zu Ernst geworden – einem realen Problem. So wurde Assistive Touch für die Apple Watch eingeführt, eine Möglichkeit, die Uhr zu verwenden, ohne das Display oder die Tasten berühren zu müssen. Mit integrierten Bewegungssensoren und integriertem Lernen erkennt die Apple Watch subtile Unterschiede bei Muskelbewegung und Sehnenaktivität. Damit kann man Befehle auslösen, indem man die Finger zusammendrückt oder eine Faust macht. Auch Siri kann so ausgelöst werden. Praktisch, egal ob man permanent auf diese Funktion zugreifen muss oder im Skiurlaub aufgrund dicker Handschuhe dieses Feature einmal ausprobieren will.

Voice Over

Dank Voice Over erhält man beim Navigieren Audiobeschreibungen, oder man kann sich Bildschirminhalte in Braille ausgeben lassen, wenn man kompatible Braillegeräte mit einem Apple Gerät via Bluetooth verbunden hat. Egal ob Personen, Texte, Tabellendaten oder andere Objekte in Bildern. Sogar Rechnungen kann man sich vorlesen lassen – nach Zeile und Spalte. Die Technologie kann auch die Position einer Person in Relation zu Objekten in Bildern beschreiben.

Taube Menschen können sich via Vibration und Bildeinblendung über relevante Dinge in ihrer Umgebung informieren.
Foto: Apple

Sprachsteuerung

Mit Sprachbefehlen kann man Apps in den diversen Apple-Betriebssystemen – von iOS bis macOS – schnell öffnen und steuern. Und man navigiert mit bezifferten, klickbaren Elementen oder eingeblendeten Gittern. So lassen sich Inhalte präzise auswählen, vergrößern und bewegen. Mit dem Buchstabiermodus für die Sprachsteuerung kann man Namen, Adressen und spezielle Schreibweisen Buchstabe für Buchstabe diktieren. Dabei hat man die Wahl zwischen einzelnen Buchstaben und dem phonetischen Alphabet. Die Sprachsteuerung ist in vielen Sprachen verfügbar, darunter Chinesisch, Französisch und Japanisch.

Türerkennung

Hinter der Lupe verstecken sich einige Funktionen. Der sogenannte Erkennungsmodus in der Lupe kombiniert Kamera und LiDAR Scanner für die Personenerkennung, Türerkennung und Bildbeschreibungen. Mit der Personenerkennung kann man Distanzen zu anderen Menschen anzeigen lassen. Wenn man etwa in einer Schlange steht und nicht gut sieht, klärt ein Piepton auf, dass sich der Vordermann bewegt und man aufschließen kann. Speziell in Corona-Zeiten war dies für den viel zitierten Sicherheitsabstand wichtig, auch für Gutsehende.

Mit dem Feature Türerkennung werden Eingangstüren als solche erkannt, inklusive Abstand und Art des Türgriffs. Auch Texte und Symbole werden via Text am Display des Smartphones angezeigt oder vorgelesen, beispielsweise ob es sich um eine Toilette handelt, ein Rauch verbot herrscht oder der Zugang barrierefrei ist.

Fazit

Ein Blick in die Einstellungen und den Menüpunkt Bedienungshilfen sollte man als Besitzer eines Apple-Geräts wagen. Zum einen kann sich dort das ein oder andere sinnvolle Geheimnis verbergen und andererseits zahlt man ja für den Service ohnehin. Speziell Dinge wie Texterkennung oder diverse Sprach- oder Gestenbefehle können schneller hilfreich sein, als man sich das vielleicht wünschen mag. (aam, 23.2.2023)