Apple Preview

iOS 17 hält viele Funktionen für Behinderte bereit

17.05.2023
Von 
Heinrich Vaske ist Editorial Director a.D. von COMPUTERWOCHE, CIO und CSO.
Apple nutzt in seinen kommenden Betriebssystemversionen die Möglichkeiten des Machine Learning, um Menschen mit körperlichen Beeinträchtigungen das Leben deutlich zu erleichtern.
Behinderte Nutzerinnen und Nutzer von iPhone und iPad dürften schon bald viel besser mit ihren Geräten klar kommen.
Behinderte Nutzerinnen und Nutzer von iPhone und iPad dürften schon bald viel besser mit ihren Geräten klar kommen.
Foto: Apple

Am Dienstag (16. Mai 2023) hat Apple eine Preview auf neue Features im kommenden Betriebssystemen veröffentlicht. Dabei spielen künstliche Intelligenz und maschinelles Lernen (ML) eine zentrale Rolle. Der Konzern hat mit dem neuen Release vor allem Menschen mit körperlichen und kognitiven Beeinträchtigungen im Blick.

Apple hat Unternehmensangaben zufolge eng mit verschiedenen Communities zusammengearbeitet, die ein breites Spektrum ab Nutzern mit Behinderungen repräsentieren. Ziel war es, den Menschen neue Zugangsmöglichkeiten zu verschaffen und ihr Leben zu verbessern. Beispielsweise bekommen sprachbehinderte Personen mit der Funktion "Live Speech" die Möglichkeit, eingetippte Texte sehr schnell über eine synthetische Stimme in gesprochene Sprache umzuwandeln, um unmittelbar an Gesprächen teilnehmen zu können.

Apple nimmt Inklusion sehr ernst

Wer erst noch Gefahr läuft, seine Sprachfähigkeit zu verlieren, erhält mit "Personal Voice" eine eigene synthetische Stimme, um mit Familie und Freunden im Gespräch zu bleiben. Für kognitiv beeinträchtige User wird es außerdem "Assistive Access" geben, ein Nutzungsmodus, der die Anwendung der mobilen Endgeräte stark vereinfachen soll.

Mit der iOS17-Funktion Personal Voice können Anwender, die ihre Sprachfähigkeit zu verlieren drohen, ihre Stimmen konservieren und für künftige Gespräch weiter nutzen.
Mit der iOS17-Funktion Personal Voice können Anwender, die ihre Sprachfähigkeit zu verlieren drohen, ihre Stimmen konservieren und für künftige Gespräch weiter nutzen.
Foto: Apple

Und für blinde und sehbehinderte Nutzer ist die Funktion Point and Speak (Zeigen und Sprechen) in der Lupe (Magnifier) vorgesehen. Dabei werden Texte, auf die ein User zeigt, laut vorgelesen. So lässt sich die Interaktion mit physischen Objekten, beispielsweise mit Haushaltsgeräten, vereinfachen.

In einer Konzernmitteilung unterstreicht CEO Tim Cooks das historische Anliegen des Unternehmens, Technologie für jeden Mann und jede Frau zugänglich zu machen. "Jeder soll die die Möglichkeit haben zu kreieren, zu kommunizieren und zu tun, was er liebt." Sarah Herrlinger, Senior Director of Global Accessibility Policy and Initiatives, ergänzt: "Barrierefreiheit ist Teil von allem, was wir bei Apple tun." Mit iOS17 stünden "bahnbrechenden Funktionen" bevor, die auf der Basis des Feedbacks von Behinderten entstanden seien.

Assistive Access: einfach nutzbare iOS-Designs

An Menschen mit kognitiven Beeinträchtigungen richtet sich Assistive Access: Es bietet spezifische Designs, um Anwendungen und Nutzererlebnisse auf ihre wesentlichen Funktionen einzudampfen und so die Belastung behinderter Anwender zu verringern. Der Fokus wird dabei auf Aktivitäten gelegt, die den Nutzern und Nutzerinnen Freude bereiten und für mobile Endgeräte grundlegend sind: der Kontakt zu geliebten Menschen, der einfache Umgang mit Fotografie und das Hören von Musik.

Assistive Access destilliert dabei Funktionen aus Kamera, Fotos, Musik, Anrufen und Nachrichten auf ihre wesentlichen Eigenschaften. Den Usern wird eine angepasste Oberfläche für Telefon und FaceTime geboten, die in einer einzigen App für Anrufe zusammengefasst wurden. Sie erhalten zudem eine besondere Benutzeroberfläche, die kontrastreichen Schaltflächen und große Schriften bietet.

Hinzu kommen Tools, mit denen Unterstützer von Behinderten das Nutzererlebnis für Endanwender individuell einrichten und gestalten können. Dabei kann beispielsweise zwischen einem visuell aufwändigeren oder einem eher rasterbasierten Layout für Homescreen und Apps gewählt werden. Auch ein zeilenbasiertes Layout ist für diejenigen möglich, die Text bevorzugen.

Mit Live Speech halten Sprachbehinderte Kontakt

Mit Live Speech auf iPhone, iPad und Mac können sprachlich eingeschränkte Anwender das, was sie sagen möchten, eintippen, um es in Telefon- und FaceTime-Anrufen sowie in persönlichen Gesprächen automatisiert laut aussprechen zu lassen. Sie können dazu auch häufig verwendete Phrasen speichern, um sich in lebhaften Unterhaltungen mit Familie, Freunden und Kollegen schnell einbringen zu können.

Die iOS17-Funktion Live Speech für iOS-Geräte und Mac gestattet es stummen Menschen, Wortbeiträge schnell einzutippen und dann laut vorlesen zu lassen.
Die iOS17-Funktion Live Speech für iOS-Geräte und Mac gestattet es stummen Menschen, Wortbeiträge schnell einzutippen und dann laut vorlesen zu lassen.
Foto: Apple

Menschen, die Gefahr laufen, ihre Sprechfähigkeit zu verlieren, etwa weil Amyotrophe Lateralsklerose (ALS) oder andere Krankheiten diagnostiziert wurden, erhalten Personal Voice: Damit schaffen sie sich eine künstliche Stimme, die wie ihre eigene klingt. Zum Training der KI müssen sie 15 Minuten lang eine zufällige Reihe von Textaufforderungen vorlesen und auf ihrem iPhone oder iPad aufnehmen. Die ML-Funktion läuft auf dem Endgerät selbst, damit die Daten der Nutzerinnen und Nutzer geschützt sind. Personal Voice lässt sich in Live Speech integrieren, so dass die User mit ihrer persönlichen Stimme sprechen können, wenn sie mit ihren Lieben in Kontakt treten.

Die Funktion Point and Speak in Magnifier (iPhone und iPad) schließlich erleichtert Sehbehinderten die Interaktion mit physischen Objekten, die Textbeschriftungen haben. Um etwa eine Mikrowelle im Haushalt zu bedienen, kombiniert die Funktion Kamera, LiDAR-Scanner und geräteeigenes maschinelles Lernen, um den Text anzusagen, wenn der Benutzer seinen Finger über die Tastatur bewegt. Point and Speak funktioniert mit Voice Over und kann mit anderen Magnifier-Funktionen wie Personen- und Türerkennung oder Bildbeschreibungen verwendet werden, um Usern die Navigation in ihrer physischen Umgebung zu erleichtern. (hv)