Sehbehinderung

Während zu den iOS 14 und seinen Neuerungen mittlerweile digitale Regalmeter an Ratgebern geschrieben wurden, haben wir einen Aspekt ausgesucht, der nur eine bestimmte Gruppe der Nutzer betrifft: Dieser Beitrag befasst sich speziell mit den neuen Bedienungshilfen für Blinde und Taubblinde. Bitte beachten Sie, dass einige Funktionen nicht auf allen Geräten verfügbar sind. Wenn dies bekannt ist, wird es in dem entsprechenden Abschnitt vermerkt.

Obwohl ich mit einem Team von Leuten zusammengearbeitet habe, die iOS 14 und iPadOS 14 seit der Veröffentlichung der ersten Betas in der Betaphase getestet haben, ist es wahrscheinlich, dass wir einige Funktionen übersehen haben. Wie im letzten Jahr habe ich das Gefühl, dass ich nicht über genügend Informationen verfüge, um die Funktionen für Sehschwäche zu kommentieren, daher hoffe ich, dass sich ein Benutzer mit Sehschwäche die Zeit genommen hat, diese Änderungen wie die neue Lupen-App und den Gesamtzustand von iOS 14 und iPadOS 14 zu überprüfen.

Info zum Autor
Scott Davert
© Scott Davert

Diesen Text hat uns mit der freundlichen Genehmigung Scott Davert von "Applevis" zur Verfügung gestellt. Den ursprünglichen Text finden Sie hier .

Scott Daver ist Mitglied des AppleVis-Redaktionsteams, einer Web-Community, die sich der Barrierefreiheit und Bedienungshilfen von Apple-Produkten widmet.  Er arbeitet als Kundenbeziehungsmanager für T-Mobile Accessibility und ist als Autor für das Access World Magazine tätig.

Allgemeine Änderungen

Der Weg zurück

Wenn Sie sich tief in Menüs wie "Einstellungen > Bedienungshilfen > VoiceOver > Braille-Schrift" befinden, kann es lästig sein, die "Zurück"-Taste so oft zu drücken, um zum Hauptmenü "Einstellungen" zurückzukehren. Wenn man unter iOS auf dem Touchscreen mit VoiceOver auf der Schaltfläche "Zurück" doppelt tippt und hält, wird jetzt ein Kontextmenü mit Optionen zum Rückwärtsspringen zu einem beliebigen Punkt der Einstellungen aufgerufen, von dem aus Sie sich gerade befinden. In meinem Beispiel bin ich in der Lage, zu jedem der Untermenüs vor diesem Punkt zurück zu springen, einschließlich des direkten Zurückspringens zum Hauptbildschirm "Einstellungen".

Alter, wo ist mein Emoji?

Es ist jetzt möglich, nach einem Emoji zu suchen und es dort einzufügen, wo immer Sie gerade etwas schreiben.

Dazu müssen Sie zunächst auf die Emoji-Tastatur wechseln. Suchen Sie dann den Suchbereich, der sich in der Regel in der Mitte des Touchscreens befindet, und tippen Sie ihn doppelt an. Geben Sie Ihren Suchbegriff ein, z.B. "grinsend", und klicken Sie dann nach rechts und tippen Sie doppelt auf das Emoji, das Sie aus der Ergebnisliste einfügen möchten. Nachdem Sie Ihr gewünschtes Emoji doppelt getippt haben, kehren Sie zu Ihrer ursprünglichen Tastatur zurück und fahren Sie wie gewohnt fort, um mit dem Schreiben fortzufahren. Vergewissern Sie sich, dass Sie im richtigen Textfeld editieren, da manchmal das Suchfeld nicht verschwindet und Ihr VoiceOver-Cursor dort stecken bleiben kann.

Wenn Sie die Emoji-Tastatur aktivieren und dann wieder nach links und rechts blättern, weist VoiceOver Sie gelegentlich darauf hin, dass mögliche Emojis verfügbar sind, diese sind nun über die Rotor-Option verfügbar. Wenn Sie den Rotor auf Emojis drehen und dann nach oben und unten blättern, erhalten Sie eine Liste der möglichen Emojis, die auf dem von Ihnen verfassten Text basieren. Nachdem Sie das gewünschte Emoji eingefügt haben, wechseln Sie zurück zu Ihrer normalen Tastatur. Manchmal werden Sie feststellen, dass VoiceOver den Cursor woanders setzt. Wenn Ihnen der Vorgang kompliziert erscheint, haben Sie recht. Nachdem ich diese Funktion ausprobiert habe, verwende ich wieder Textkürzel für Emojis, da es letztendlich schneller geht. Der Versuch, die Emoji-Suchfunktion nur mit der Brailleschrift zu verwenden, stellt eine noch größere Herausforderung dar. Obwohl es sich hierbei nicht speziell um eine Bedienungshilfe handelt, wäre es eine willkommene Verbesserung, wenn sie wie erwartet funktionieren würde.

Übersetzung

Eine der neuen Apps, die mit iOS 14 und iPadOS 14 gebündelt sind, ist die Übersetzen-App. Spezifisch für die Barrierefreiheit ist die Möglichkeit, von Sprache in Text zu übersetzen. Wenn Sie Ihre Ausgangs- und Zielsprache gleich einstellen und dann die Schaltfläche "Hören" aktivieren, ist es möglich, dass jemand in Ihr Gerät spricht und der Text dann auf Ihrer Braillezeile erscheint. Es gibt jedoch einige wesentliche Einschränkungen dieser Funktion. Erstens: Sobald die Person aufhört zu sprechen, hört Ihr Gerät auf, zuzuhören. Dies geschieht selbst dann, wenn es zwischen den Sätzen eine kurze Pause gibt. Zweitens hängt wie bei jeder automatischen Spracherkennung die Genauigkeit stark von Ihrer Umgebung ab. Wenn Sie sich in einer Situation befinden, in der mehr als eine Person spricht, wenn der Sprecher einen starken Akzent hat, wird die Übersetzung aufgrund dieser Faktoren weniger genau sein. Ich habe nach dem Herunterladen des englischen Übersetzungspakets für die lokale Übersetzung auf dem Gerät festgestellt, dass es weniger genau ist als die Verwendung der Anwendung mit Apples Servern. Dies ist auch unter "Einstellungen > Übersetzen" vermerkt.

Wenn Sie Übersetz-App in der oben beschriebenen Weise benutzen möchten, finden Sie nach der Einstellung von Ziel- und Ausgang-Sprache auf die gleiche Sprache die Schaltfläche "Zuhören", die sich am unteren Bildschirmrand befindet.

© Macwelt

Beachten Sie, dass zum Zeitpunkt des Schreibens "From" das ist, was VoiceOver für beide Felder angibt, auch wenn das zweite die Zielsprache ist. Nach dem Drücken der Schaltfläche "Zuhören" kann die Person, die sprechen möchte, dies tun, muss dies jedoch innerhalb von etwa zwei Sekunden nach Aktivierung der Schaltfläche tun. Sobald die Übersetz-App meint, dass die Person mit dem Sprechen fertig ist, schaltet sie eine der zwei Optionen. Wenn der übersetzte Text laut gesprochen wird, kehrt der Benutzer in die linke obere Ecke des Bildschirms zurück und muss nach rechts zur ersten Sache scrollen, die übersetzt wurde. Scrollen Sie weiter, um entweder eine Nachricht einzugeben oder eine Option weiter, um die Schaltfläche "Hören" wieder zu aktivieren.

Wenn der Text nicht laut ausgesprochen wird, blinkt er nach der Übersetzung auf der Anzeige auf. Bewegen Sie sich in diesem Fall zur rechten Option, um die Schaltfläche "Schließen" zu finden und aktivieren Sie erneut die Schaltfläche "Zuhören". Wenn der taubblinde Benutzer seine Antwort nicht sprechen kann, ist es auch möglich, im Gegenzug Text einzugeben. Links neben der Schaltfläche "Zuhören" gibt es eine Möglichkeit, Text einzugeben. Wenn Sie sicher sind, dass die Person, die den Bildschirm liest, Ihre Antwort gelesen hat, können Sie "Schließen" wählen und dann den Knopf "Zuhören" erneut aktivieren. Dies könnte ein Trick sein, den jemand für die persönliche Kommunikation mit einer hörenden Person verwenden möchte, mit der er oft interagiert. Dieser Umweg erscheint aber zu komplex für eine Interaktion zwischen einem Fremden in der Öffentlichkeit und einem taubblinden Benutzer. Ich für meinen Teil bleibe bei einer Bluetooth-Tastatur und meiner Braillezeile, selbst mit ihren Herausforderungen.

Fotos untertiteln

Seit geraumer Zeit ist es möglich, Ihre Fotosammlung bei einem Dienst wie Seeing AI oder TapTapSee einzureichen, um zu versuchen, festzustellen, was sich auf einem bestimmten Foto befindet. Wenn Sie den Fotos Ihre eigene Beschreibung geben möchten, können Sie dies zum Beispiel durch das Hinzufügen von Bildunterschriften tun. In der Foto-App bei einem ausgewählten Foto greifen Sie über den VoiceOver-Rotor auf "Details anzeigen" zu und wählen Sie es aus. Scrollen Sie dann nach rechts zu "Bildtitel hinzufügen". Sie gelangen zu einem Textfeld, in das Sie alle gewünschten Details zu dem Foto eingeben können. Wählen Sie schließlich die Schaltfläche "Fertig", und Ihr Bildtitel wird gespeichert.

VoiceOver

In iOS 13 wurde der erkannte Text so erweitert, dass Braille-Anwender nicht nur die Möglichkeit hatten, die Beschreibungen zu lesen, sondern auch wurden mehr Beschreibungen eingeblendet, z. B. wenn eine Schaltfläche ein Bild hatte, in das Text hätte eingebettet werden können. Mit iOS 14 und iPadOS 14 wurde diese Möglichkeit noch weiter ausgebaut, um Bedienungshilfen von Apps zu verbessern. Sie finden diese Optionen unter "Einstellungen > Bedienungshilfen > VoiceOver > VoiceOver-Erkennung". Bitte beachten Sie, dass diese Funktion nur auf iPhone XS/XR-Modellen und neuer unterstützt wird.

Die erste Option ist die Bildbeschreibung. Soweit ich das beurteilen kann, ist diese Funktion gegenüber iOS 13 und iPadOS 13 unverändert, abgesehen davon, dass sie vom Ausführlichkeit-Menü in VoiceOver in das Erkennungsmenü verschoben wurde. Ihr iPhone wird versuchen, eine Beschreibung der Bilder bereitzustellen, die es in Apps und bei der Verwendung von Websites findet.

Die zweite Option heißt "Bildschirmerkennung". Diese neue Funktion kann einige Apps leichter zugänglich machen. Sie liefert Ihnen auch potenziell nützliche Informationen über Screenshots, denen Sie in Apps wie dem App Store oder Facebook begegnen. Ein Freund von mir hat auf Facebook etwas über seinen Hund gepostet, wobei mir Facebook selbst lediglich mitteilte, dass keine Beschreibung verfügbar sei. Daraufhin habe ich die Bildschirmerkennung aktiviert und erfahren, dass er einen schwarz-weißen Hund mit roten Augen hat. Wenn Sie die Bildschirmerkennung eingeschaltet lassen, wird Ihr Gerät langsamer und die Art und Weise, wie Dinge mit VoiceOver gesprochen/angezeigt werden, verändert sich. Zum Zeitpunkt des Schreibens scheint diese Funktion in einigen Fällen gut zu funktionieren, wie z.B. bei der Beschreibung des Bildes, in anderen jedoch nicht. Es scheint noch in Arbeit zu sein, und ich bin ermutigt durch die bisher erzielten Fortschritte.

Obwohl die Einstellungen es erlauben, die Bildschirmerkennung für bestimmte Anwendungen zu aktivieren, können Sie sie auch einfach umschalten, indem Sie sie zum Rotor hinzufügen. Es gibt auch die Option, einen Braillezeilen-Befehl zuzuweisen, um diese Funktion automatisch umzuschalten, aber wenn Sie einen Braillezeilen-Befehl zuweisen, wird dies derzeit nicht funktionieren.

Die dritte Option ist die Texterkennung. Diese scheint etwas reaktionsschneller zu sein als unter iOS 13 und iPadOS 13, es sei denn, Sie sind Braille-Nutzer. Auch hier ist die Texterkennung mit der Brailleschrift nicht zugänglich.

Anpassen von Ausführlichkeit

Unter dem Untermenü "Ausführlichkeit" im VoiceOver-Menü wurden einige neue Optionen hinzugefügt. "Mehr Inhalt" ist eine Option, die auf erkannten Bildern erscheinen kann. Durch Auf- und Abblättern, wenn diese Option verfügbar ist, sollten Sie mehr Informationen über das ausgewählte Bild erhalten. Dazu könnten der Beschreibungstext des Bildes, der Dateiname des Bildes oder vielleicht andere Metadaten gehören.

Containerbeschreibungen ist eine weitere hinzugefügte Option. Sie haben die Möglichkeit, einen Ton abzuspielen, wenn eine Beschreibung verfügbar ist, den Text normal zu sprechen, die Tonhöhe für die Beschreibung herabzusetzen oder sie ganz auszuschalten.

Wo war ich?

Mit Textnachrichten auf dem Laufenden zu bleiben kann ziemlich lästig sein, besonders wenn die Textinteraktion Ihre primäre Art der Kommunikation mit der Welt ist. Unter iOS 14 und iPadOS 14 lassen Sie jetzt die Benutzer erwähnen, und dafür gibt es eine Rotoraktion. "Konversation anheften" ist ebenfalls eine neue Option, die ausgewählte Konversationen an den Anfang der Liste der Konversationen "anheften" wird.

In einem Nachrichten-Thread wird jetzt die letzte Nachricht, die Sie in einem Thread gesendet haben, auf Ebene 3 stehen, sodass Sie schnell dorthin springen können, wo Sie am wahrscheinlichsten aufgehört haben.

Braille-Schrift

Diese Funktion war bereits auf einigen der Braille-Tastaturen verfügbar, beispielsweise von HelpTech, aber Apple hat sie nun auf alle Braille-Tastaturen übertragen. Um sie einzurichten, müssen Sie zunächst einen Braille-Tastaturbefehl für Anfang und Ende des Auto-Fortfahrens zuweisen. Die Möglichkeit, einen neuen Braille-Tastaturbefehl zuzuweisen, finden Sie unter der Kategorie "Braille-Schrift". Es gibt auch Optionen für die Zuweisung von Tastaturbefehlen zur Steuerung der Geschwindigkeit des Auto-Fortfahrens. Wenn Sie mit der Zuweisung von Braille-Tastaturbefehlen zu bestimmten Aktionen nicht vertraut sind, führt Sie diese Anleitung durch den Prozess.

Wenn Sie keine Braille-Tastaturbefehle zuweisen möchten, um die Geschwindigkeit des Auto-Fortfahrens zu steuern, können Sie dies auch zu Ihrem VoiceOver Rotor hinzufügen und so die Geschwindigkeit steuern. Ich fand, dass diese Option zuverlässig funktioniert und habe sie gerne benutzt. Die längste Zeit, die ich ununterbrochen gelesen habe, dauerte fast eine Stunde, und ich hatte keine Probleme.

Kleinere Beschriftungen

In iOS 14 und iPadOS 14 wurden bestimmte Elemente abgekürzt, um Platz zu sparen. Zum Beispiel ist TB jetzt das, was Sie anstelle von "tab" sehen werden.

Hören

Geräuscherkennung

Apple hat in früheren weltweiten Entwicklerkonferenzen viel über maschinelles Lernen gesprochen, und viele fragten sich, was es für Menschen mit Behinderungen tun könnte. Die VoiceOver-Erkennung ist ein Beispiel und die Geräuscherkennung ist ein weiteres. Um die Geräuscherkennung zu verwenden, gehen Sie zu "Einstellungen > Bedienungshilfen > Geräuscherkennung" und schalten Sie sie ein. Nach einem kleinen Download werden Sie dann in der Lage sein, Ihr Gerät bestimmte Töne erkennen zu lassen. Diese Geräusche sind in verschiedene Kategorien eingeteilt: Alarme, Tiere, Haushalt und Personen. Beim Testen habe ich herausgefunden, dass das Geräusch lauter sein muss als alle Umgebungsgeräusche, um erkannt zu werden. Wenn ein Geräusch erkannt wird, wird es als Benachrichtigung angezeigt und sendet dem Benutzer auch eine Vibration.

Unter der Kategorie "Alarme" sind die Optionen "Feuer", "Sirene" und "Rauch". Ich hatte nicht die Möglichkeit, einen Feueralarm zu testen, außer ihn über ein Youtube-Video abzuspielen. Als ich dies tat, hat das iPhone das Geräusch nicht erkannt. Für die Sirenenerkennung musste die Sirene ziemlich laut sein. Während eines Tornadosirenentests erkannte mein iPhone die Sirene nicht, da es ziemlich weit von meinem Standort entfernt war. Als die Sirene ziemlich laut war, erkannte das iPhone sie zuverlässig und schickte mir eine Benachrichtigung. Die Benachrichtigung war überhaupt nicht aufdringlich, obwohl ich hoffe, dass es angesichts des Potenzials für Alarme wie einen Rauchmelder eine viel dringlichere Art von Benachrichtigung geben würde, wie sie bei einem Notfallalarm erfolgt. Die beiden Male, als ich die Rauchmelder in meiner Wohnung testete, wurde ich innerhalb von zwei Sekunden alarmiert. Es ist jedoch eine Warnung, die so beiläufig ist wie eine Benachrichtigung über eine Änderung des Sportergebnisses, eine neue Nachricht auf Slack oder viele andere Benachrichtigungen, die ich für nicht wichtig halte. Da ich einen Hörverlust in hohen Frequenzen habe, kann ich das schrille Geräusch eines Rauchmelders nicht mehr hören, sodass ich mich sicherer fühlen würde, wenn ich dies als Sicherung zu einem anderen bereits installierten System, das ich benutze, verwenden konnte.

In der Kategorie "Tiere" gibt es Optionen sowohl für einen Hund als auch für eine Katze. Ich habe festgestellt, dass größere Hunde, die lauter bellen, oft schon aus einiger Entfernung erkannt werden können. Kleinere Hunde mit einem höherfrequenten Bellen scheinen jedoch weniger häufig gemeldet zu werden. Die Erkennung von Katzengeräuschen funktioniert beim Miauen und scheint nicht zuverlässig zu sein. Je höher die Tonhöhe des Geräusches ist, desto seltener erkennt es das Gerät. Ich bellte auch mein Telefon an und fühlte mich wie ein braver Junge, da mein iPhone berichtete, einen Hund entdeckt zu haben.

In der Kategorie "Haushalt" sind unter anderem folgende Geräusche verfügbar: "Haushaltsgeräte", "Autohupe", "Türklingel", "Türklopfen" und "Laufendes Wasser". Es war mir nicht klar, auf welche Geräte sich die Geräuscherkennung genau bezieht, da der Betrieb von Geschirrspüler, Waschmaschine und Trockner mich nicht auf Geräusche aufmerksam machte. Beim Pendeln durch Städte wurde ich oft auf Autohupen aufmerksam gemacht. Türklingelgeräusche von Youtube lösten die Benachrichtigung durch den erkannten Ton zuverlässig aus. Türklopfen erzeugte ein paar Fehlalarme, wenn man auf einen Tisch hämmert oder klopft. Auch laufendes Wasser verursachte einige Fehlalarme, aber einmal wurde ich auf fließendes Wasser aufmerksam gemacht, als ich das Wasser auf meinem Waschbecken im Badezimmer laufen ließ. Wie bei der VoiceOver-Erkennung scheint auch hier noch einiges in Arbeit zu sein; ich hoffe, dass sich die Fortschritte mit der Weiterentwicklung von iOS und iPadOS fortsetzen werden.

Kopfhörer-Anpassungen

Wenn Sie zu "Einstellungen > Bedienungshilfen > Audio/Visuell > Kopfhörer-Anpassung gehen, ist es möglich, Ihre Hörumgebung anzupassen, indem Sie einige Geräusche verstärken und andere dämpfen. Diese Funktion ist nur bei Airpods Pro, der zweiten Generation der Airpods, einigen der Beats-Kopfhörer und Earpods verfügbar. Wenn Sie diese Funktion eingeschaltet haben und über einen passenden Kopfhörer verfügen, werden Sie durch eine Art Hörtest geführt, bei dem Ihnen Fragen zu Ihrem Gehör gestellt werden. Basierend auf Ihren Ergebnissen wird die Kopfhörer-Anpassung Ihr Hörerlebnis besser an Ihre Hörsituation anpassen. Es gibt auch einen "Transparenz"-Modus, der es Ihnen ermöglicht, die Umgebung um Sie herum zu hören. Diese Funktion ist nur bei den Airpods Pro verfügbar. Einmal konfiguriert, haben Sie die Möglichkeit, tiefe, mittlere oder hohe Frequenzen weiter zu verstärken. Ich war nicht in der Lage, dies selbst zu testen, da ich keine kompatiblen Kopfhörer habe.

Verschiedenes

Facetime erkennt, wer spricht

FaceTime-Gruppenanrufe verfügen bereits über die Funktion, die automatisch erkennt, wenn jemand spricht, und hebt dessen Videodarstellung hervor; iOS 14 und iPadOS 14 bringen diese Option in die amerikanische Gebärdensprache.

Auf der Rückseite tippen

"Auf der Rückseite tippen" ist eine Funktion, die auf allen iPhones ab dem XS verfügbar ist. Sie ermöglicht es Ihnen, die Rückseite Ihres iPhones doppelt oder dreifach anzutippen, um eine bestimmte Aktion auszuführen. Bei dieser spezifischen Aktion kann es sich um eine beliebige Anzahl von Möglichkeiten handeln, die vom Umschalten der Bedienungshilfen bis zur Ausführung von VoiceOver-Funktionen oder sogar Tastenkombinationen reichen. Um sie einzuschalten, gehen Sie zu "Einstellungen > Bedienungshilfen > Tippen > Auf der Rückseite tippen". Von hier aus können Sie eine beliebige Anzahl von Bedienungshilfen wie VoiceOver, Zoom, Assistive Touch usw. einstellen. Sie können "Auf Rückseite tippen auch als sekundäre Tastaturkürzel verwenden, wenn Sie mehr als eine Eingabehilfen-Funktion benötigen.

Es gibt auch Optionen, um "Auf Rückseite tippen" mit VoiceOver eine bestimmte Geste zuzuweisen, aber Sie müssen zu dem entsprechenden Menü navigieren. "Einstellungen > Bedienungshilfen > VoiceOver > Befehle > Berührungsgesten" bringen Sie dorthin. Scrollen Sie dann bis ganz unten auf dem Bildschirm und Sie finden Optionen für Doppeltippen und Dreifachtippen auf der Rückseite Ihres Smartphones. Optionen gibt es für jedes andere Element, dem eine Berührungsgeste zugewiesen werden kann. Als Beispiel habe ich eine Tastenkombination eingerichtet, mit der sich Bluetooth aus- und wieder einschalten lässt. Dies ist die Doppeltipp-Funktion. Für das Dreifach-Tippen habe ich das VoiceOver Magic Tap eingerichtet.

Fazit

Unabhängig von Ihren Anforderungen an die Bedienungshilfen setzt Apple mit jedem größeren iOS- und iPadOS-Update die Innovation mit neuen Funktionen für die Barrierefreiheit fort. iOS 14 und iPadOS 14 sind keine Ausnahmen. Es gibt jedoch auch keine Ausnahme, wenn Fehler vorhanden sind. Als allgemeine Regel gilt, dass iOS 14 und iPadOS 14 zwar tatsächlich mehr Fehler als 13 aufweisen, diese Fehler sind jedoch nicht so gravierend, als dass sie die Anwender vor der Nutzung abhalten können.