Foto einer Frau im Profil, die AirPods Pro 2 im linken Ohr trägt und das Feature für Hörgesundheit nutzt
Die beste Technologie ist so gemacht, dass jede:r sie nutzen kann. Deshalb haben unsere Produkte und Services integrierte Features, mit denen du ganz einfach kreativ sein, in Kontakt bleiben und das tun kannst, was du liebst – und zwar so, wie es für dich am besten funktioniert. Unser langjähriges Engagement für Barrierefreiheit ist ein wichtiger Teil von allem, was wir tun.
Features, die du kennen solltest. Für Sehvermögen, Hörvermögen, Sprache, Mobilität und kognitive Unterstützung.
Animierte Illustration der Lupe App auf einem MacBook Bildschirm, die ein Bild der Mona Lisa auf einem Whiteboard im Klassenzimmer vergrößertAnimierte Illustration der Lupe App auf einem MacBook Bildschirm, die ein Bild der Mona Lisa auf einem Whiteboard im Klassenzimmer vergrößert
Lupe
Die Lupe ist ein digitales Vergrößerungsglas. Sie nutzt die Kamera deines iPhone oder iPad und vergrößert alles, worauf du sie richtest. Zum Beispiel eine Speisekarte oder ein Schild, damit du die Details deutlich auf dem Display sehen kannst. Nutze die Taschenlampe oder den LED Blitz, um Objekte zu beleuchten, stell Filter zur Unterscheidung von Farben ein oder mach ein Standbild in Nahaufnahme.
Auf dem Mac verbindet sich die Lupe App mit deiner Kamera, damit du deine Umgebung vergrößern kannst, etwa einen Bildschirm oder ein Whiteboard. Die Lupe funktioniert mit der Integrationskamera auf dem iPhone sowie mit angeschlossenen USB Kameras. Außerdem unterstützt sie das Lesen von Dokumenten in der Schreibtischansicht. Mehrere Live Session Fenster machen Multitasking möglich. So kannst du dir eine Präsentation mit einer Webcam ansehen und gleichzeitig in der Schreibtischansicht ein Buch mitlesen. Dank angepasster Ansichten lassen sich Helligkeit, Kontrast, Farbfilter und sogar die Perspektive ändern, um Texte und Bilder besser zu sehen. Ansichten können auch erfasst, gruppiert und gespeichert werden, um sie später hinzuzufügen.
Im Reader Modus wird der Reader für Bedienungshilfen mit der Lupe kombiniert, damit du nahtlos mit Text in der realen Welt interagieren kannst, etwa in Büchern oder Speisekarten. So kannst du zeitweise einen Bildausschnitt erfassen, der Text enthält, und die Schriftart, Größe und Farbe des Textes nach deinen Wünschen anpassen. Lass dir beim Einstellen des Bildausschnitts für ein Dokument und beim Anpassen der Perspektive helfen, bevor du es dir im Reader Modus ansiehst. Mit akustischen Hinweisen wird sichergestellt, dass das gesamte Dokument im Bild ist. Der Reader Modus funktioniert mit Features wie „Bildschirminhalt sprechen" oder „Auswahl sprechen", damit dir der angezeigte Text laut vorgelesen werden kann.
Verstärke deine Unterhaltungen. Und lass sie dir als Untertitel anzeigen.
iPhone 17 Pro Display mit aktiver Live Mithören Session mit Untertiteln für das aufgezeichnete Audio und Apple Watch Series 11 Display mit Live Untertiteln für dasselbe aufgezeichnete AudioiPhone 17 Pro Display mit aktiver Live Mithören Session mit Untertiteln für das aufgezeichnete Audio und Apple Watch Series 11 Display mit Live Untertiteln für dasselbe aufgezeichnete Audio
Live Mithören
Die Funktion „Live Mithören" unterstützt dich bei Gesprächen in lauten Umgebungen, indem sie Audio von Personen aufnimmt, die aus der Ferne sprechen, wie in einem Hörsaal oder an einem Esstisch. Aktiviere einfach die Funktion und halte dein Gerät in die Nähe der Personen, die gerade sprechen. Audio wird vom Mikrofon des Geräts aufgenommen und an deine AirPods, Beats Kopfhörer oder Hörgeräte „Made for iPhone" übertragen. So kannst du deutlicher hören, was gesagt wird.1
„Live Mithören" auf der Apple Watch bietet eine Reihe neuer Features wie Live Untertitel in Echtzeit. Wenn „Live Mithören" auf dem iPhone aktiviert ist, kannst du während der Audioübertragung Live Untertitel der Unterhaltung, die das iPhone empfängt, auf einer gekoppelten Apple Watch sehen – oder auf einem Phone oder iPad in der Nähe, die bei demselben Apple Account angemeldet sind. Du kannst „Live Mithören" auch aus der Ferne steuern. So musst du nicht aufstehen und ein Meeting oder den Unterricht stören, um eine Session zu starten oder zu stoppen. Deine Apple Watch, dein iPhone oder iPad können als Fernbedienung dienen, um ein paar Sekunden zurückzuspringen, wenn du dir etwas noch mal anhören willst, was du vielleicht verpasst hast, oder um „Live Mithören" Sessions zu stoppen.
Illustration einer Nahaufnahme eines Mannes im Profil, der AirPods Pro 3 im linken Ohr trägt
AirPods Pro 3 + Hörgesundheit
Die AirPods Pro bieten ein umfassendes Erlebnis für deine Hörgesundheit mit einem Hörtest, einer Hörgerätfunktion auf klinischem Niveau und aktivem Gehörschutz.2
Mach einen wissenschaftlich anerkannten Hörtest in nur etwa fünf Minuten bequem von zu Hause, indem du die AirPods Pro mit einem iPhone oder iPad koppelst.2 Du erhältst leicht verständliche Ergebnisse und Einblicke in dein Hörvermögen. Die Hörgerätfunktion auf klinischem Niveau kann Personen mit leicht bis mäßig eingeschränktem Hörvermögen helfen.2 Sie nimmt Anpassungen vor, um die Klarheit der Stimmen und Geräusche um dich herum zu verbessern. Du kannst sogar Einstellungen – wie Verstärkungsgrad, Balance und Ton – an deine Bedürfnisse anpassen. Die AirPods Pro bieten außerdem in allen Hörmodi einen aktiven Gehörschutz, um laute Umgebungsgeräusche zu reduzieren.3
iPhone 17 Pro Bildschirm mit der Funktion Eigene Stimme und einer Anleitung zum Erstellen deiner eigenen StimmeiPhone 17 Pro Bildschirm mit der Funktion Eigene Stimme und einer Anleitung zum Erstellen deiner eigenen Stimme
Eigene Stimme
Falls das Risiko besteht, dass du deine Sprechfähigkeit verlieren könntest, oder mit einer Krankheit lebst, die deine Stimme nach und nach beeinträchtigt, kann „Eigene Stimme" dir helfen. Es ist ein einfacher und sicherer Weg, eine Stimme zu erzeugen, die wie deine eigene klingt.4 Lies eine Reihe von 10 zufällig ausgewählten Sätzen, um Audio aufzunehmen, das verwendet werden kann, um eine Stimme zu generieren, die deiner Stimme ähnlich ist.5 Durch fortschrittliches maschinelles Lernen und künstliche Intelligenz auf dem Gerät ist „Eigene Stimme" schneller, einfacher und leistungsstärker. So kannst du in weniger als einer Minute eine Stimme erstellen, die flüssiger und natürlicher klingt. Wenn du Schwierigkeiten hast, ganze Sätze auszusprechen oder zu lesen, kannst du die „Eigene Stimme" sogar mit kurzen, aus drei Wörtern bestehenden Sätzen erstellen.
„Eigene Stimme" wird auf deinem Gerät erstellt. So bleiben deine Daten privat und sicher. Du kannst auch eine verschlüsselte Kopie deiner Stimme in iCloud sichern, um sie auf deinen anderen Geräten zu verwenden. „Eigene Stimme" ist nahtlos in die Live Sprachausgabe integriert. Du kannst also einfach tippen, was du sagen möchtest, und dein iPhone, iPad, Mac, deine Apple Watch oder Apple Vision Pro spricht es laut aus – in deiner von dir erstellten Stimme. Du kannst die Funktion auch mit Apps von Drittanbietern nutzen, die du zulässt, wie etwa Augmentative and Alternative Communication (AAC) Apps.
Änderungen an den Features vorbehalten. Einige Features, Apps und Services sind u. U. nicht in allen Regionen oder Sprachen verfügbar. Informationen zur Verfügbarkeit von Features findest du unter iOS und iPadOS oder macOS.
Wenn du Einschränkungen bezüglich der Mobilität hast oder mit deinem Gerät ohne Hände interagieren musst, kannst du iPhone und iPad nur mit deinen Augen navigieren. Richte mit der Frontkamera in wenigen Sekunden die Blickerfassung ein und kalibriere sie. Durch maschinelles Lernen auf dem Gerät werden alle Daten zum Einrichten und Steuern dieses Features sicher auf deinem Gerät gespeichert und nicht mit Apple geteilt. Die Blickerfassung funktioniert mit iOS und iPadOS Apps und erfordert weder zusätzliche Hardware noch Zubehör.6
Für eine bessere Navigation in verschiedenen Apps kannst du die Verweilsteuerung nutzen, die dich mit Steuerelementen interagieren lässt, indem du sie für eine bestimmte Zeit ansiehst. Die Blickerfassung ermöglicht den Zugriff auf zusätzliche Funktionen wie Tasten, Streichbewegungen oder sogar Tippen nur mit deinen Augen. Um schneller auf der Tastatur zu tippen, kannst du eine kürzere Tastaturverweildauer verwenden oder sogar mit QuickPath auf dem iPhone und der Apple Vision Pro per Streichen tippen. Die Blickerfassung ist in die Schaltersteuerung auf dem iPhone und iPad integriert. So kannst du anhand eines Schalters oder der Verweilsteuerung eine Auswahl treffen. Das iPad unterstützt auch Geräte zur Blickerfassung von anderen Anbietern.
Ein iPhone 17 Pro Bildschirm mit vereinfachter Benutzeroberfläche der Kamera App und einer weißen Blume im Bildausschnitt, darunter die Taste „Foto aufnehmen" und der Taste „Zurück"Ein iPhone 17 Pro Bildschirm mit vereinfachter Benutzeroberfläche der Kamera App und einer weißen Blume im Bildausschnitt, darunter die Taste „Foto aufnehmen" und der Taste „Zurück"
Unterstützender Zugriff
Mit „Unterstützender Zugriff" können Menschen mit kognitiven Einschränkungen ihr iPhone und ihr iPad einfacher an ihre Bedürfnisse und Präferenzen anpassen. So reduziert sich die kognitive Belastung. Der unterstützende Zugriff wurde mit Feedback von Menschen mit kognitiven Einschränkungen und ihren vertrauten Bezugspersonen entwickelt. Er hat eine übersichtliche Benutzeroberfläche mit kontrastreichen Tasten, großen Textbeschriftungen und visuellen Alternativen zu Text. Und er enthält Tools, die der jeweiligen Person und ihren Bezugspersonen helfen, die Bedienung in bestimmten Apps anzupassen.
„Unterstützender Zugriff" umfasst benutzerdefinierte Erlebnisse für Telefon und FaceTime (die in einer einzigen Anrufe App kombiniert wurden), Nachrichten, Kamera, Fotos, Musik, Lupe und die Apple TV App auf dem iPhone und iPad. Für alle, die lieber visuell kommunizieren möchten, gibt es in Nachrichten eine reine Emoji Tastatur und die Option, eine Videonachricht aufzunehmen. Du kannst ein visuelleres, rasterbasiertes Layout für deinen Homescreen und deine Apps wählen. Oder ein zeilenbasiertes Layout, wenn dir Text lieber ist. „Unterstützender Zugriff" unterstützt auch Apps von Drittanbietern, wie etwa Augmentative and Alternative Communication (AAC) Apps.
Bild von zwei Filmemachern, die vor dem Bildschirm sitzen und sich in Gebärdensprache unterhalten.Bild von zwei Filmemachern, die vor dem Bildschirm sitzen und sich in Gebärdensprache unterhalten.
„Ich möchte, dass die Leute fühlen, was ich fühle, wenn ich diesen Song mache."
Foto von Kiddo K im Studio stehend vor einem Aufnahmemikrofon und mit KopfhörernFoto von Kiddo K im Studio stehend vor einem Aufnahmemikrofon und mit Kopfhörern
Das Programm „Chicago Lighthouse Photography for All" nutzt Apple Technologie, um Jugendlichen, die blind oder in ihrem Sehvermögen eingeschränkt sind, das Fotografieren beizubringen.
Foto von einem jungen Mann mit eingeschränktem Sehvermögen, der lächelt und einer lächelnden Frau, die hinter seiner linken Schulter steht, das Display seines iPhone zeigtFoto von einem jungen Mann mit eingeschränktem Sehvermögen, der lächelt und einer lächelnden Frau, die hinter seiner linken Schulter steht, das Display seines iPhone zeigt
Hör dir an, wie Gespräche mit der Hörgerätfunktion der AirPods Pro 2 verbessert werden können.
„Um echte Inklusion zu fördern, sind nicht nur technische Tools nötig – diese müssen auch physisch oder digital unterstützt werden, damit sich Menschen mit Einschränkungen in ihrer Umgebung mit Würde, Respekt und Selbstständigkeit bewegen können."
Foto von Jordyn Zimmerman, Apple Distinguished Educator und Aktivistin für Menschen mit Einschränkungen, die an einem Schreibtisch sitzt und auf einem iPad Display tipptFoto von Jordyn Zimmerman, Apple Distinguished Educator und Aktivistin für Menschen mit Einschränkungen, die an einem Schreibtisch sitzt und auf einem iPad Display tippt
Drei Fotos von Studierenden aus dem Exceptional Minds Programm, eine Studentin arbeitet mit einem Mac Computer, eine Studentin hält ein iPad mit der Rückseite nach außen, ein Student schaut sich ein Modell an und zeichnet mit dem Apple Pencil auf einem iPadDrei Fotos von Studierenden aus dem Exceptional Minds Programm, eine Studentin arbeitet mit einem Mac Computer, eine Studentin hält ein iPad mit der Rückseite nach außen, ein Student schaut sich ein Modell an und zeichnet mit dem Apple Pencil auf einem iPad
„Wir möchten eine Welt schaffen, in der Studierende mit Autismus wegen ihrer Talente gesehen werden und nicht wegen der Herausforderungen, vor die sie gestellt sind."