Experten Perspektive #1: Wie Apple Vision Pro digitale Erlebnisse transformiert

Interview mit Patrick Gaißert, Leiter der Apple-Plattformen bei MaibornWolff GmbH

by Florian Louis • 8min read

Willkommen zu unserer Serie „Expertenperspektiven“

Diese Serie präsentiert ausführliche Interviews, die Einblicke in bahnbrechende Technologien und deren Auswirkungen auf verschiedene Bereiche bieten. In unserer ersten Ausgabe erkunden wir das transformative Potenzial des Apple Vision Pro und diskutieren, wie dieses Gerät durch seine fortschrittlichen Augmented-Reality-Fähigkeiten digitale Erlebnisse revolutionieren wird. Für dieses Interview haben wir mit Patrick Gaißert gesprochen, einem anerkannten Experten auf diesem Gebiet, der sein umfassendes Wissen und seine Erfahrung mit uns geteilt hat, um uns die Innovationen, Anwendungen und zukünftigen Auswirkungen des Apple Vision Pro näherzubringen. Lassen Sie uns jetzt direkt von Patrick hören, beginnend mit seiner Perspektive darauf, wie Vision Pro im Vergleich zu anderen AR/VR-Geräten auf dem Markt abschneidet.

Interview mit Patrick Gaißert:

Wie unterscheidet sich Apple Vision Pro von anderen AR/VR-Geräten auf dem Markt?

„Meiner Meinung nach gibt es drei Hauptpunkte, die Apple Vision Pro von anderen AR/VR-Geräten auf dem Markt abheben:

  • Erstens ist da die nahtlose und visuell stabile Integration digitaler Inhalte in die physische Welt. Dies wird durch die sehr hochwertigen Displays sowie Apples Aufmerksamkeit fürs Detail beim Design des Betriebssystems ermöglicht. Virtuelle Fenster werfen Schatten und 3D-Objekte spiegeln die reale Umgebung rund um den Nutzer wider.

  • Zweitens prägt es erfolgreich ein Interaktionsparadigma, das auf Augenverfolgung und einfachen Handgesten basiert und sowohl effektiv als auch effizient ist.

  • Drittens ist die Kompatibilität mit iPhone- und iPad-Apps, die direkt auf dem Gerät laufen. Dadurch können bestehende Workflows sofort auf die neue Plattform übertragen werden. In Zukunft funktioniert dies auch umgekehrt: Eine Vision Pro-App kann beispielsweise auch das iPad unterstützen, um die Lösung mehr Nutzern zugänglich zu machen.“

Wie wird Apple Vision Pro die Art und Weise verändern, wie Menschen mit digitalen Inhalten/Produkten interagieren?

„Das erste Mal, wenn jemand Vision Pro ausprobiert, ist aus meiner Erfahrung heraus transformativ. Man muss es selbst ausprobieren, um es wirklich zu verstehen. Es verändert die Erwartungen daran, was es bedeutet, digitale Produkte zu erleben, indem es sie in die physische Umgebung des Nutzers einbettet. Das Eyetracking und die Gestensteuerung des Geräts ermöglichen schnelle, überwiegend natürliche Interaktionen, die es beispielsweise erlauben, Schuhe oder Uhren virtuell anzuprobieren. Indem es sich als erste XR-Plattform wirklich auf alltägliche Anwendungen konzentriert, strebt Apple Vision an, ein integraler Bestandteil täglicher Aktivitäten zu werden, sowohl zu Hause als auch am Arbeitsplatz. Auch wenn das Gewicht und die Abmessungen des Geräts in den kommenden Jahren noch reduziert werden müssen, ist das erste Modell bereits der Beweis dafür, dass immersive Technologien wie diese in der Lage sind, emotionale Verbindungen mit digitalen Inhalten zu schaffen, die mit herkömmlichen zweidimensionalen Bildschirmen nicht erreicht werden können.“

Welche neuen Interaktionsmethoden sind mit der Apple Vision Pro möglich, die zuvor undenkbar waren?

„Durch Augenbewegungen steuern die Nutzer den Fokus und ermöglichen Interaktionen so schnell, wie das Auge sehen kann. Handgesten sind der primäre Eingabemodus und ersetzen traditionelle Hardware-Controller. Die Fähigkeit des Betriebssystems, digitale Inhalte zu verankern und sich zu merken, wo Sie sie zum Beispiel in Ihrer Wohnung platziert haben, ermöglicht es Ihnen, kontextuell relevante Räume zu gestalten. Wenn Sie eine Koch-App in Ihrer Küche und Ihre Lieblingsfilm-App im Wohnzimmer platzieren, werden sie dort auch beim nächsten Betreten dieser Räume noch vorhanden sein.

Außerdem gefällt mir die Idee von dem, was ich "bi-direktionale Präsenz" nenne. Das Anzeigen der Augen des Benutzers auf dem Headset sowie das ständige Durchscheinen von Personen in Ihrer Nähe durch jegliche virtuelle Inhalte sollen die potenzielle Isolation beim Tragen eines solchen Geräts reduzieren. Auch wenn dieses Feature noch in seinen frühen Stadien ist und derzeit ziemlich grob wirkt, denke ich, dass das Thema wichtig ist, da es beispielsweise ermöglicht, vernünftig mit Kollegen zu interagieren, während man das Gerät trägt.“

Wie können Technologien wie die Apple Vision Pro dazu beitragen, digitales Design menschenzentrierter und intuitiver zu gestalten?

„Aus evolutionsbiologischer Sicht macht es für mich vollkommen Sinn, eine räumliche Computerplattform auf natürliche menschliche Verhaltensweisen wie Schauen, Gestikulieren und Sprechen zu stützen. Wir lernen diese Interaktionen schon in sehr jungen Jahren und nutzen sie täglich. Während Touchscreens sich als wirklich intuitiv für die meisten Nutzer erwiesen haben, denke ich, dass dieses neue Paradigma das Potenzial hat, noch mächtiger zu sein.

Als ich das Gerät zum ersten Mal benutzte, war ich überrascht, dass die meisten von Apples System-Apps rein fensterbasiert sind. Mit der Zeit wurde mir klar, dass dies nicht auf Faulheit seitens Apple zurückzuführen ist, sondern einfach gutes Design ist. Die Plattform unterstützt voll und ganz fensterbasierte Anwendungen neben vollständig immersiven Anwendungsfällen und allem dazwischen. Dies ermöglicht es digitalen Designern, Anwendungen rein basierend auf der Eignung für die Aufgabe zu gestalten (ISO 9241), nicht jeder Anwendungsfall profitiert davon, immersiv zu sein! Ein weiterer wichtiger Aspekt ist die Barrierefreiheit, die leider oft als Nachgedanke behandelt wird, besonders im Bereich XR. Vision Pro hingegen bietet die umfassendste Unterstützung für Barrierefreiheit von allen Apple-Plattformen ab der Einführung. Ich denke, das ist ein Punkt, für den Apple wirklich nicht genug Anerkennung bekommt.“

Können Sie sich überraschende, aber wertvolle Beispiele vorstellen, wie das Apple Vision Pro in verschiedenen Branchen eingesetzt werden könnte?

„Eines, das man beachten sollte, ist, dass das erste Modell nur für den Innenbereich konzipiert ist. Trotzdem gibt es bereits Versuche in der Gesundheitsbranche, bei denen es chirurgische Eingriffe verbessern könnte, indem kritische Informationen in das Sichtfeld des Chirurgen eingeblendet werden. In der industriellen Fertigung könnte es Arbeitern Echtzeitdaten und Anweisungen bereitstellen und damit Effizienz und Sicherheit verbessern. Im Bildungsbereich könnte es immersive Lernerfahrungen für Schüler bieten und ihnen ermöglichen, historische Ereignisse, wissenschaftliche Konzepte und Kunst so zu erkunden, als wären sie physisch anwesend. Im Einzelhandel könnten Kunden Kleidung virtuell anprobieren oder sehen, wie Möbel in ihrem Zuhause aussehen, bevor sie einen Kauf tätigen. Mit zukünftigen Modellen könnte es auch auf Außeneinsatzmöglichkeiten ausgeweitet werden. Beispielsweise im Bereich Architektur und Bauwesen könnten Fachleute das Gerät nutzen, um Gebäude und Strukturen direkt vor Ort zu visualisieren, bevor sie gebaut werden, was eine bessere Planung und Zusammenarbeit erleichtert.“

Welche potenziellen Herausforderungen sehen Sie bei der Implementierung dieser Technologie?

„Meiner Meinung nach liegt die Hauptherausforderung darin, die Ergonomie anzugehen, um das Gerät für längere Nutzung bequem zu machen. Es gibt keinen Weg daran vorbei: das erste Modell ist schwer und sperrig, besonders für Menschen mit einem kleineren Kopf. Im Verbrauchermarkt wird die Hauptaufgabe darin bestehen, den Wert der Plattform den Kunden zu vermitteln. Man muss sie wirklich erleben, um daran zu glauben. Die hohen Kosten werden zunächst im Wege einer breiten Akzeptanz stehen, obwohl in den kommenden Jahren verschiedene Modellvarianten der Apple Vision Plattform sehr wahrscheinlich sind.“

Welche ethischen oder Inklusionsherausforderungen sehen Sie bei Technologien wie Apple Vision Pro?

„Wie ich bereits erwähnt habe, ist die Unterstützung zur Barrierefreiheit auf Vision Pro in Bezug auf die Funktionen herausragend. Es bietet umfassende VoiceOver-Unterstützung für sowohl fensterbasierte als auch immersive Erlebnisse, einschließlich Apps, die mit der Unity-Engine erstellt wurden. Obwohl die Benutzererfahrung je nach spezifischer Implementierung der App variieren wird, haben sehbehinderte und blinde Benutzer vollzugriff auf das Gerät und seine Apps. Außerdem unterstützt Vision Pro eine Reihe bekannter Apple-Plattformfunktionen, wie z. B. Anpassung der Textgröße, Zoom, Schalter-/Sprachsteuerung, Geräuscherkennung und geführten Zugriff, unter anderem. Plattform-spezifische Optionen beinhalten Dwell Control, das die Nutzung des Geräts mit nur einem oder zwei Augen ermöglicht, ohne die Notwendigkeit von Händen. Durch das Fokussieren auf ein UI-Element für einige Sekunden können Benutzer es aktivieren. Eine kommende Funktion sind Live Captions, die Untertitel beim Gespräch mit anderen anzeigen, sodass gehörlose oder schwerhörige Personen folgen können.

Allerdings gibt es derzeit einige Barrierefreiheitsprobleme, insbesondere während der anfänglichen Hardware-Einrichtung. Zum Beispiel für Benutzer, die physische Schwierigkeiten haben, die digitale Krone oben auf dem Gerät zu drücken. Diese Probleme müssen durch Software-Updates gelöst werden. Persönlich glaube ich, dass die Apple Vision Plattform großes Potenzial hat, besonders für Benutzer mit Sehbehinderungen. Während die erste Version nicht für den mobilen Einsatz konzipiert ist, könnte sich dies bei zukünftigen Modellen ändern. Die fortschrittlichen Fähigkeiten zur Szenenerkennung des Geräts könnten akustische Hinweise zur Umgebung des Benutzers geben, wie genaue Position und Beschriftung von Türen, Schildern, Treppen und Gefahren. Dies könnte einen Blindenstock ergänzen oder möglicherweise sogar ersetzen.

Aus ethischer Sicht könnten diese Fähigkeiten zu einer Überabhängigkeit von assistiver Technologie führen, die sich definitiv bei Apple-Produkten nicht jeder leisten kann. Meiner Meinung nach beschränkt sich dieses Problem jedoch nicht nur auf diese Plattform und ist ein breiteres, allgemeineres Anliegen.“

Wie sehen Sie die Entwicklung von AR/VR-Technologien in den nächsten fünf bis zehn Jahren?

„In den nächsten zehn Jahren erwarte ich, dass sich räumliche Technologien erheblich weiterentwickeln, wobei Geräte zunehmend leichter und kompakter werden. Leistungsverbesserungen werden die Integration von Funktionen der Künstlichen Intelligenz sowie das Sichtfeld und die Sensorgenauigkeit weiter verbessern, was zu noch realistischeren und fesselnderen Erlebnissen führt. Während sich die Technologie weiterentwickelt, können wir eine breitere Akzeptanz in Unternehmen und bei Verbrauchern erwarten, wobei räumliches Computing zu einem integralen Bestandteil verschiedener Aspekte des täglichen Lebens wird, einschließlich Outdoor-Aktivitäten, Navigation und Fitness.“

Was sind Ihre Visionen für die Zukunft der Mensch-Maschine-Interaktion?

„Die Zukunft der Mensch-Maschine-Interaktion wird wahrscheinlich durch natürlichere und intuitivere Schnittstellen geprägt sein, die sich nahtlos in unseren Alltag integrieren. Fortschritte im räumlichen Computing werden es ermöglichen, mit digitalen Inhalten als Teil unserer physischen Umgebung zu interagieren, wodurch Technologie zu einer Erweiterung unserer natürlichen Verhaltensweisen wird. Während Geräte immer besser auf unseren Kontext und unsere Umgebung reagieren, werden sie unsere Bedürfnisse antizipieren und in zunehmend subtilen und allgegenwärtigen Weisen Unterstützung bieten. Diese Entwicklung wird zu einer Zukunft führen, in der die Grenzen zwischen den digitalen und physischen Welten zunehmend verschwimmen.“

Zusammenfassung: Die digitale Zukunft umarmen

Wir hoffen, dass diese Einblicke neue Perspektiven auf die Zukunft der digitalen Interaktion eröffnet haben. Vielen Dank an Patrick Gaißert für das Teilen seines Fachwissens und seiner Vision. Wir freuen uns darauf zu sehen, wie sich AR/VR-Technologien weiterentwickeln und welche neuen Erlebnisse sie uns in den kommenden Jahren bringen werden.

Dieser Artikel steht als schön formatierte PDF-Datei zum Download bereit, die für ein angenehmes Leseerlebnis sorgt und sich hervorragend für Präsentationen eignet. Schicken Sie uns einfach eine e-mail an: hellothere@newspective.design

Bild von Florian Louis

Florian Louis

Lead Software Developer

Aber es geht

noch weiter

Achtung! Eyetracking oder kein Eyetracking für die Bewertung der Benutzerfreundlichkeit

Achtung! Eyetracking oder kein Eyetracking für die Bewertung der Benutzerfreundlichkeit

Artikel • 7min

Designing for AI

Designing for AI

Artikel • 7min

Die konversationelle Zukunft von prompts

Die konversationelle Zukunft von prompts

Artikel • 8min

Experten Perspektive #1: Wie Apple Vision Pro digitale Erlebnisse transformiert

Experten Perspektive #1: Wie Apple Vision Pro digitale Erlebnisse transformiert

Artikel • 8min

Die Unerwünschtheit von KI-gestaltetem Inhalt

Die Unerwünschtheit von KI-gestaltetem Inhalt

Artikel • 5min