Vision Pro Teardown, zweiter Teil: Wie schaut’s mit dem Display aus?
Tech-News

Vision Pro Teardown, zweiter Teil: Wie schaut’s mit dem Display aus?

Puh! Beim ersten Teil unseres Vision Pro Teardowns waren wir alle wie im Fieber. Inzwischen hat sich das etwas gelegt und nach dem ersten Überblick wollen wir jetzt tiefer in die Materie eindringen: Die dualen Displays, die vielen Sensoren, die Linsen und das mit Hingabe über-durchdachte Akkupack verdienen einen zweiten Blick. Spoiler-Alert: Die dualen Displays sind echt der Hammer. Auf demselben Raum, auf den ein iPhone 15 Pro Pixel passt, sind in der Vision Pro ganze fünfzig Pixel untergebracht. Ganz recht: Fünf-zig.

Die Displays

Apple zufolge bieten die Vision Pro Displays „mehr Pixel als ein 4K Fernseher für jedes Auge“. Aber was genau bedeutet 4K, wenn sich ein Display so nah an deinen Augen befindet? Dein Smartphone hat zum Beispiel eine deutlich höhere Pixeldichte als dein Fernseher, aber du kannst – bei normalem Gebrauch – bei keinem von beiden die einzelnen Pixel erkennen. Also sehen wir uns die Sache mal genauer an, dabei hilft uns Arthur Shi, erfahrener Technischer Redakteur bei iFixit.

Es gibt zwei wichtige Kennzahlen, die man dazu verstehen muss: Einmal Pixel pro Quadratzoll (pixels per inch, PPI) – das ist die Anzahl von Pixeln, die sich auf einer bestimmten Fläche des Display befinden. Das ist eine absolute Zahl, das heißt, du könntest die Pixel auf dieser Fläche tatsächlich zählen.

Dann gibt es die pixels per degree (PPD). Bei diesem Kennwert wird auch der Abstand zwischen deinen Augen und dem Display berücksichtigt. Je kürzer dieser Abstand ist, desto leichter ist es, individuelle Pixel zu erkennen. Das ist der Grund dafür, dass du bei deinem Handy ein höherauflösendes Display als bei deinem Fernseher brauchst, und auch dafür, dass ein Film im Kino gestochen scharf aussieht, auch wenn er nur eine 2K-Auflösung hat. Was bedeutet das jetzt für die Vision Pro?

PPI: Je mehr, desto besser

Jede Linsen-Baugruppe der Vision Pro besteht aus einer Flachlinsen-Baugruppe mit eingebauten Eye-Tracking-Kameras und einem Display-Panel. Die Display-Panels werden höchstwahrscheinlich von Sony hergestellt, möglicherweise eine Sonderanfertigung ihrer microOLED-Displays.

Das Display ist nicht vollständig von einem Rand zum andern beleuchtet, deshalb berücksichtigen wir nur den beleuchteten Teil jedes Panels. Diese Fläche ist etwa 27,5 mm breit und 24 mm hoch. Mit einem Evident Scientific DSX1000 Mikroskop konnten wir feststellen, dass die Pixel etwa 7,5 μm groß sind (so groß wie ein rotes Blutkörperchen!) Die Form der einzelnen Pixel ist ungefähr quadratisch: Rote und grüne Sub-Pixel liegen übereinander, ein doppelt so großer blauer Sub-Pixel an der Seite. Aus diesen Maßen ergibt sich eine beleuchtete Sensor-Fläche aus 3660 × 3200 Pixeln. Das sind 12.078.000 Pixel auf gerade einmal 6,6 cm²!

Aber dadurch, dass die Ecken nicht ausgefüllt sind, ist die beleuchtete Fläche etwas kleiner. Die Fläche ist asymmetrisch und an ihren Ecken sind jeweils 6,95 mm², 11,52 mm², 9,9 mm² und 10,15 mm² „abgeschnitten“ – insgesamt 38,52 mm² des Displays sind also deaktiviert. Das sind 5,3 % der 6,6 cm² großen Fläche, was bedeutet, dass auf jedem Panel 11.437.866 sichtbare Pixel übrigbleiben. Wenn man die Panel addiert – und eine gewisse Fehlertoleranz für unsere Berechnungen berücksichtigt – ergibt das die 23.000.000 Pixel, von denen Apple spricht.

Der Sensor mit einem darübergelegten Screenshot – so sieht die beleuchtete Fläche mit den abgeschnittenen Ecken aus.

Wenn du diese Anzahl nun durch die Länge und Breite teilst, erhältst du den PPI-Wert, der – wie gesagt – die Pixel-Dichte misst. Das Vision Pro kommt auf atemberaubende 3386 PPI. Das ist, wie Arthur formuliert, „ein UNGLAUBLICHER PPI-Wert!“ (Die Großschreibung kommt von ihm, nicht von mir.)

Bei so vielen Pixeln muss die Vision Pro doch 4K sein, oder? Die horizontale Auflösung auf dem Panel schafft es nicht ganz auf den 4K UHD Verbraucherstandard von 3840 Pixeln. Kurz und gut, es ist ein wirklich sehr hochauflösendes Display, aber es ist streng genommen kein 4K-Display. Weshalb Apple es auch nicht einfach als 4K-Display bezeichnet hat.

Auf jeden Fall hat dieses Display die höchste Pixeldichte, die uns jemals untergekommen ist. Zum Vergleich: Das iPhone Pro Max hat um die 460 PPI, was bedeutet, dass man etwa 54 Vision Pro Pixel auf ein einziges iPhone Pixel bekommen würde.

Oder wie sieht es mit dem 12,9“ iPad Pro aus? Das hat 264 PPI – die Vision Pro ist somit 12,8-mal genauer. Auch andere VR-Headsets können nicht mithalten: Die HTC Vive Pro hat etwa 950 PPI (4896 px × 2448 px), weniger als ein Drittel der Vision Pro, und die Meta Quest 3 hat ca. 1218 PPI. Aber wart’s ab, es wird noch merkwürdiger.

PPD: Die Winkelauflösung

Eine hohe Pixeldichte allein garantiert nämlich noch nicht, dass die wahrgenommene Auflösung auch wirklich hoch ist. Nimm beispielsweise einen 65“ 4K Fernseher, der mit gerade mal 68 PPI daherkommt. Aber dein 4K-Film sieht darauf trotzdem genial aus. Warum? Weil du recht weit vom Fernseher entfernt bist, sodass relativ zu deinem Sichtfeld alle Pixel auf einer ziemlich kleinen Fläche Platz finden. Je weiter entfernt du bist, desto stärker fällt dieser Effekt aus.

Deshalb verwenden VR-Entwickler einen raffinierteren Wert, um die Qualität eines Displays zu messen: Die Winkelauflösung, gemessen in PPD (pixels per degree, Pixel pro Grad). Das bezeichnet die Anzahl horizontaler Pixel pro Grad des Blickwinkels. Damit ist es möglich, Displays miteinander zu vergleichen, die unterschiedliche Auflösungen haben und die für unterschiedliche Abstände zur Betrachterin gedacht sind.

Aber auch das ist noch nicht alles, aus mehreren Gründen:

  • Der PPD-Wert am Bildrand ist anders als derjenige in der Bildmitte.
  • Linsen können PPD-Werte auf merkwürdige Weise verzerren und verändern.
  • Stereoskopische Bilder – also solche, bei denen die Augen leicht unterschiedliche Bilder wahrnehmen – beeinflussen ebenfalls, wie viele Pixel gesehen werden, was die Berechnungen weiter verzerrt.
Die Pancake-Linse der Vision Pro verzerrt das Display, was die Berechnung des PPD-Werts erschwert.

Bei einem Sichtfeld von etwa 100° (grob gemessen) schätzen wir, dass die Vision Pro durchschnittlich 34 PPD hat. Zum Vergleich: Ein 65“ 4K Fernseher, der etwa zwei Meter vom Betrachter entfernt ist, hat durchschnittlich 95 PPD und ein iPhone 15 Pro Max, das etwa 30 cm entfernt ist, etwa 94 PPD. Auch wenn das iPhone und der Fernseher sehr unterschiedliche Maße und Pixeldichten haben, ist ihr PPD-Wert fast identisch, weil sie aus unterschiedlichen Entfernungen betrachtet werden.

Um es kurz zu machen: Die Vision Pro hat zwar ein ultra-hochauflösendes Display, aber weil sie sich so nah am Auge befindet, hat sie eine niedrige Winkelauflösung.

Auch unser Freund Karl Guttag hat erklärt, warum die Idee, einen guten Monitor durch die Vision Pro zu ersetzen, „lächerlich“ ist. Denn wenn man den Output eines Macs in die Vision Pro überträgt und ihn sich auf halber Höhe im Wohnzimmer anzeigen lässt, wird nur ein kleiner Ausschnitt der verfügbaren Pixel wirklich für das Bild des Macs verwendet. Selbst wenn das Vision Pro wirklich einen 4K-Output hätte, wäre das Mac-Bild mitnichten in 4K-Auflösung – denn ein Großteil der Pixel wird verwendet, um das Wohnzimmer drum herum wiederzugeben.

Dadurch, schreibt Karl, bekommt man dann ein virtuelles Mac-Display, das eine so niedrige Auflösung hat, dass man tatsächlich individuelle Pixel sehen kann – also nicht zu vergleichen mit der normalen Auflösung eines Desktop-Displays. Du könntest deinen Mac in der virtuellen Welt also schon nutzen; für alle feineren Arbeiten bist du aber mit einem richtigen 4K- oder 5K-Monitor besser bedient.

Andererseits ist die Vision Pro natürlich deutlich leichter zu transportieren als ein Apple Studio Display – auch wenn der riesige Tragekasten auch nochmal 200 Dollar kostet.

Linsen

Eine Brille unter deinem VR-Headset zu tragen ist keine gute Idee. Apples Antwort auf dieses Problem sind Linseneinsätze. Die für die Vision Pro kommen aus dem renommierten Hause Zeiss und werden mit Magneten an Ort und Stelle gehalten.

Jede Linse hat einen Kopplungs-Code, auch wenn es sich nicht ganz um die Art von Teilekopplung handelt, mit der wir es üblicherweise zu tun haben. In diesem Fall koppeln die Codes die Linsen nicht mit einem bestimmten Gerät. Wenn du deine eigenen Vision Pro-Linseneinsätze aus deinem Gerät herausnehmen und in das Headset einer Freundin einsetzen willst, ist das durchaus möglich. Du musst nur den Code in das andere Headset eingeben, um sie damit zu koppeln. Die Vision Pro, in die sie eingesetzt werden, braucht nämlich die Information, welche Stärken die Linsen aufweisen, damit es sich dementsprechend kalibrieren kann. Dafür also ist der kleine QR-Code da, den man beim Setup scannt, indem man ihn anschaut.

Eine Form der Teilekopplung ist das allerdings schon, in dem Sinne, dass dieser Code nötig ist, damit die Linsen funktionieren – und das gibt Zeiss im Moment ein beinhartes Monopol. Das bedeutet auch, dass Fehler im Code dazu führen können, dass das Headset nicht richtig funktioniert, jedenfalls, bis man den korrekten Code hat.

Man sollte ja meinen, dass es reichen würde, einfach die Dioptrien einzugeben, damit deine Vision Pro entsprechend kalibriert wird – auch wenn Apple dann noch irgendwas Geheimnisvolles damit macht. Aber ohne Transparenz kann man sich da nicht sicher sein.

Brillenträger:innen können noch ein weiteres Problem mit der Vision Pro erleben. Im Gegensatz zu anderslautenden Berichten sagt Apple, dass korrektive Linseneinsätze für die meisten Sehstörungen verfügbar seien, einschließlich Hornhautverkrümmungen (was wir in Teil 1 des Teardowns angezweifelt hatten), und dass man auch Bifokal- und Gleitsichtgläser bekommen kann. Aber wenn du normalerweise eine Prismenbrille trägst, hast du leider Pech gehabt. Prismenbrillen kommen bei Menschen mit Diplopie (Doppeltsehen) zum Einsatz. Um herauszufinden, ob du für deine Brillenstärke Linseneinsätze für die Vision Pro bekommen kannst, verwendest du am besten das Online-Tool von Zeiss.

Genau auf dich zugeschnittener Komfort – das ist mit diesem Gerät möglich, sofern du dich an das hältst, was Apple für dich vorgesehen hat.

Der Akku

Nach Apple-Logik braucht man für ein komplexes Gerät eine gleichermaßen komplexe Akku-Lösung. Das beeindruckende Akku-Pack, das man für 200 $ auch separat von Apple erwerben kann, ist einerseits sehr einfach, andererseits auf skurrile Weise über-designt.

Das Ding sieht aus wie ein überdimensioniertes iPhone der ersten Generation. Das Gehäuse besteht aus einem einzigen Block aus Aluminium, der Deckel ist mit festen Clips fast nahtlos verschlossen – mit unseren üblichen Hebelwerkzeugen hatten wir keine Chance. Wir brauchten Hammer und Meißel, um da reinzukommen! Zu allem Überfluss ist der Deckel noch zusätzlich mit Klebstoff befestigt, nur damit garantiert auch dem Letzten klar wird: Dieses Akku-Pack ist nicht dazu gedacht, geöffnet zu werden.

Drei Akkuzellen befinden sich im Inneren, jede etwa so groß wie ein iPhone-Akku, übereinandergestapelt und in Serie verbunden. Wir haben zum Vergleich einen iPhone 15-Akku danebengelegt und fanden, dass er flächenmäßig minimal kleiner ist als eine der Akkuzellen und minimal dicker.

Die Zellen im Vision Pro-Akkupack werden mit 15,36 Wh pro Stück angegeben, was eine Gesamtkapazität von 46,08 Wh ergibt. Das passt nicht ganz zu den 35,9 Wh, die auf dem (wunderschönen) Alugehäuse des Akkupacks eingraviert sind. Hat Apple hier die Wattstunden-Angabe um 20 % untertrieben? Apple hat durchaus Erfahrung mit Problemen rund um die Akkulaufzeit, vielleicht wird die Aufladekapazität des Geräts also absichtlich eingeschränkt – ähnlich wie beim iPhone 15 Pro, dessen Ladekapazität Apple auf 80 % begrenzt, wie gerade bekanntgegeben wurde. Oder vielleicht wurden die Wh einfach anders berechnet und dabei thermische Verluste oder andere Dinge mit berücksichtigt.

Links: Eine der drei Akkuzellen mit einer Kapazität von 15,36 Wh laut Herstellerangabe. Rechts: Das Akkupack, beziffert mit 35,9 Wh – 10 Wh weniger als erwartet.

Apple ist es offenbar sehr, sehr wichtig, dass dieses Akkupack nutzerfreundlich ist. Außer den Akkuzellen sind auch Temperatursensoren und ein Geschwindigkeitssensor verbaut, sodass die Lade-LED angezeigt wird, wenn man das Akkupack hochhebt. Möglicherweise erkennt das Akkupack sogar, wenn es getragen wird. Wenn man einen Akku zwei Stunden lang in der Hosen- oder Jackentasche trägt, wäre es schließlich ziemlich unangenehm, wenn er überhitzen würde.

Das Akkupack versorgt die Vision Pro über einen 13-Volt-Anschluss, um den Stromhunger des Prozessors stillen zu können. Das ist vielleicht auch der Grund dafür, dass hier kein standardmäßiges USB-Kabel verwendet wird, sondern diese Art überdimensionierter Lightning-Anschluss – damit man nicht versehentlich andere Geräte einsteckt und sie ruiniert. Das erklärt auch, warum man nicht einfach irgendeinen USB-C-Ladeanschluss verwenden kann, um es aufzuladen. Tatsächlich ist das Akkupack der Vision Pro ein ausgeklügeltes Stück Technik, das das Headset mit genau der Energie versorgt, die es braucht. Selbst dann, wenn es gerade geladen wird.

Insgesamt scheint es, als würde Apple die Risiken, die so ein Taschenakku birgt, sehr ernst nehmen, anstatt einfach nur so viel Power reinzuquetschen wie möglich. Das zeigt auch mal wieder die Vorteile leicht austauschbarer Akkus auf – man muss es mit den Wattstunden nicht übertreiben, wenn man einfach einen Ersatzakku nehmen kann. Auch wenn dieser 200 Dollar kostet.

Chip ID

Apple hat in seiner Ankündigung vor allem den M2- und den neuen R1-Prozessor hervorgehoben, die in der Vision Pro verbaut sind. Aber was ist mit dem Rest? Und hast du schon von der ungewöhnlich komplexen Ladeplatine im Akkupack gehört?

Wir haben uns für dich schlau gemacht! Hier findest du die Details zu allen Chips im Vision Pro.

Sensoren

Apples größter Vorteil gegenüber der Konkurrenz im Headset-Markt liegt vor allem bei den Sensoren. In gewisser Weise jedenfalls. Ja klar, jeder kann eine Reihe Kameras, einen LiDAR-Sensor und den ganzen anderen Kram in einem Headset verbauen, aber Apples Sensoren haben den anderen etwas voraus: Jahrelange Erfahrung mit dem Analysieren, Interpretieren und Zusammenführen komplexer Sensordaten und mehrere Neuauflagen im Sensor-Design.

Weißt du noch, als Apple 2020 den LiDAR-Sensor im iPhone 12 Pro und iPad Pro verbaute? Ja, er sorgte für bessere Fotos bei schlechten Lichtverhältnissen, für eine genauere Messung von Entfernungen und für verbesserte Bedienungshilfen für Sehbehinderte. Aber wir haben den Verdacht, dass Apple ein weiteres Motiv hatte: Mit dem LiDAR-Sensor im iPad Pro konnte Apple AR-Features ohne großes Risiko testen, es konnte die Hardware in die Massenproduktion geben und wertvolle Erfahrungen und Feedback sammeln.

Danke an Creative Electron für diesen genialen CT-Scan und die Animation!

Die TrueDepth-Kamera für Face ID ist ein weiteres gutes Beispiel für Apples Sensor-Technologie. Die Face ID-Baugruppe beinhaltet einen Laser, der Infrarot-Punkte auf dein Gesicht projiziert, den Flood Illuminator, der dein Gesicht regelrecht mit Infrarotlicht überströmt, und eine Infrarot-Kamera, die das alles aufnehmen kann. Das wird dann verarbeitet, um eine dreidimensionale Karte deines Gesichts zu erstellen. Apple wurde so gut darin, dass es die Face ID-Baugruppe verwendete, um auf diese Weise auch deine Ohren zu scannen und ein 3D-Modell davon zu erstellen – mit dem es dann den Surround-Sound deiner AirPods genau auf deine Ohrenform anpassen konnte.

Das Ergebnis? Die Erfassung von Räumen, ohne Anhaltspunkte zu brauchen. Gesichts-Mapping für die (zugegebenermaßen etwas unheimliche) Memoji V2, auch bekannt als Persona. Und Gestenerkennung ohne Handheld-Controller.

Eine weitere Spezialität von Apple sind Geschwindigkeitsmesser – und die Interpretation ihrer Daten. Man findet diese Sensoren im iPhone, in der Apple Watch (wo sie erkennen können, wenn man hinfällt und automatisch den Notruf aktivieren) und sogar im originalen HomePod. Wenn der HomePod erkennt, dass er bewegt wurde, hört er den Raum erneut ab und rekalibriert sein Audio entsprechend. Die AirPods haben Geschwindigkeitsmesser, um deine Tipp-Befehle zu erkennen. All das erfordert die Interpretation von Sensordaten auf sehr hohem Niveau, und das hat Apple mit der Zeit perfektioniert. 

Vielleicht schauen wir uns diese Sensoren auch noch genauer an, aber in diesem Fall ist das wirklich Erstaunliche nicht die Hardware. Es ist die Art und Weise, wie Apple die Produktion und Zuverlässigkeit dieser Sensoren über die Jahre immer weiter verfeinert hat, um sie dann mit der Software zu kombinieren, die das meiste aus ihnen herausholt.

Reparierbarkeit

Eine Reparierbarkeitsbewertung für die Vision Pro zu formulieren ist genauso schwierig wie die Berechnung der subjektiven Auflösung ihrer Displays. 

Vision Pro

Einerseits sehen wir vieles, das wir gut finden. Der Akku ist modular, es ist also ein Kinderspiel, ihn mit einem voll geladenen auszutauschen oder ein altersschwaches Akkupack mit einem neuen zu ersetzen – auch wenn man den Akku nicht austauschen kann, ohne das Headset auszuschalten.

Genauso modular sind die seitlichen Schnallen. Okay, es ist fast unmöglich, die dort verbauten Lautsprecher auszubauen, aber die Baugruppe selbst ist modular und lässt sich mit einem einfachen SIM-Auswurfwerkzeug lösen. Der Anschluss zum Akkupack ist in eine der seitlichen Baugruppen integriert, ist also auch semi-modular. Außerdem gefällt uns, wie leicht man die Linsen und Lichtdichtungen/Gesichtspolster per Magnet einsetzen kann.

„Die hohe Modularität – wobei nicht wirklich einzelne Komponenten austauschbar sind, sondern eher Baugruppen, wie verschiedene Bänder – hat bewirkt, dass sogar Apple Anleitungen auf der Website hat“, sagt Carsten Frauenheim, Ingenieur für Reparierbarkeit bei iFixit.

Wir sind sehr erleichtert, dass alle Bauteile, die mit der Haut in Berührung kommen, leicht austauschbar sind, einschließlich Lichtdichtungen und Gesichtspolster. Wenn wir ein Gerät in Bezug auf seine Reparierbarkeit bewerten, achten wir besonders darauf, wie leicht man an verschleißanfällige Teile herankommt. Erwähnenswert: Die optischen Bauteile, die Displays und die beweglichen Teile für die Anpassung auf den interpupillaren Abstand sind alle auf der Augenseite. Man muss also nicht durch das teure, empfindliche 3D-Frontglas, sondern braucht nur die textile Abdeckung aus ihren Clips zu hebeln, um an die Mechanik heranzukommen. Deutlich weniger Risiko.

Vision Kontra

Andererseits ist es ein riesiges Problem, an die Frontkamera und -Sensoren heranzukommen und generell an alles, was sich unter dem Frontglas verbirgt. Hier braucht man sehr viel Fingerspitzengefühl mit einem Heißluftgebläse und verschiedenen Hebelwerkzeugen, um es in einem Stück ablösen zu können. Klar, falls du das EyeSight bei deinem Öffnungsversuch ruinierst, ist es nicht so schlimm. Das eigentliche Problem: Wenn das Glas bricht, kann das dazu führen, dass die Sensoren dahinter nichts mehr erkennen – und damit praktisch nutzlos sind.

In unserem Bewertungsmaßstab wird besonderes Gewicht auf Teile wie das Display und den Akku gelegt, ohne die ein Gerät nicht ordnungsgemäß funktioniert. Man kann zwar schwerlich behaupten, dass das EyeSight-Display ein notwendiges Bauteil ist. Aber die externen Sensoren sind notwendig, und wenn das Glas bricht und sie dadurch nicht mehr richtig funktionieren, dann funktioniert auch das ganze Gerät nicht mehr richtig.

Die Konkurrenz

Wie also schlägt sich Apples Vision Pro im Vergleich mit den Geräten der Konkurrenz hinsichtlich der Reparierbarkeit? Hier zählt wahrscheinlich besonders der Vergleich mit Metas Quest 2 und Quest 3 Headsets, die zusammen etwa 70 % des XR-Marktes ausmachen (XR ist VR und AR zusammen). 

Die Antwort auf diese Frage ist: Es ist kompliziert. (Wie so ziemlich alles, was mit XR zu tun hat.)

Schauen wir uns zum Beispiel die Quest 2 und Quest 3 an. Beide wurden als Headsets entwickelt, die alle wichtigen Komponenten im vorderen Teil tragen und mit einem austauschbaren Gurtsystem am Kopf befestigt werden, also ähnlich der Vision Pro. Was die Meta-Headsets von den meisten anderen abhebt, ist, dass sie auch alleine verwendet werden können, was bei der Valve Index, der HTC Vive oder der PS VR2 nicht der Fall ist. Aber das war’s auch schon, was die Ähnlichkeiten angeht.

Während die Vision Pro ein externes Akkupack hat, sind die LiPo-Akkus der Quest 2 und 3 tief im Inneren der Geräte verborgen. So tief, dass ihr Austausch eine hochkomplexe Prozedur ist. Der Akku-Austausch ist eine der häufigsten Reparaturen an jedem elektronischen Gerät, und in diesem Punkt hat die Vision Pro mit dem externen Akkupack definitiv die Nase vorn.

Die Anleitung zum Akku-Tausch beim Quest 2 Headset: Schritt 59, und vom Akku ist noch immer nichts zu sehen.

Die Schwachstelle der Vision Pro ist das empfindliche Frontglas, kombiniert mit dem komplexen User Interface (UI). Stell dir vor, du stolperst über das Akku-Kabel (das nicht nur mit einem Magnet an Ort und Stelle gehalten wird), das Headset kracht aufs frisch polierte Eichenparkett und die gläserne Abdeckung des EyeSight-Displays zersplittert in tausend Stücke.

Meta Quest Pro und Meta Quest 3 Headsets.

Übel. Selbst wenn jeder Sensor theoretisch noch funktionsfähig ist, ist er nun praktisch blind. Wenn das „Sichtfeld“ der externen Kameras, des LiDAR-Sensors und der IR-Emitter durch gesplittertes Glas unterbrochen wird, können deine Hände nicht mehr richtig erkannt werden. Da es keine Controller gibt (anders als bei den meisten anderen Headsets dieser Art), kann man dann nur noch mit Bedienungshilfen wie der Sprachsteuerung navigieren.

Die Quest 2 und 3 sind da deutlich weniger anfällig. Das äußere Gehäuse ist aus Kunststoff, der lange nicht so zerbrechlich ist wie Glas. Die Kameras liegen in ihrer eigenen Vertiefung im Gehäuse, sie sind als separates Modul verbaut, das man leicht reparieren und austauschen kann.

Ähnlich wie bei der Vision Pro sind auch bei der Quest Pro die Kameras und Sensoren unter dem Frontpanel (aus Plastik) verbaut, aber dieses Panel ist mit Clips befestigt, die sich leicht lösen lassen. Reparaturen werden dadurch leicht und günstig.

Die Bewertung

Für unsere Reparierbarkeitsbewertungen suchen wir uns die Bauteile, die wir uns näher anschauen, danach aus, was wir in ähnlichen Produkten gesehen haben. Aber XR-Hardware entwickelt sich so rasant, dass sich die einzelnen Geräte und Serien noch immer in allen Aspekten – vom Gehäuse bis zu den Bedienmöglichkeiten – stark unterscheiden können.

Wir haben beispielsweise lange darüber diskutiert, wie wir damit umgehen, dass die Vision Pro keine Controller hat. Bei anderen Headsets haben wir bewertet, wie leicht man die Akkus und Tasten der Controller austauschen kann. Ist jetzt zu erwarten, dass in Zukunft weniger XR-Geräte mit Controllern ausgestattet werden? Die Quest 2 ist noch immer das meistverbreitete VR-Headset auf dem Markt und wird das aufgrund seines günstigen Preises vermutlich auch noch ein paar Jahre bleiben. Andererseits ist es durchaus wahrscheinlich, dass die Vision Pro mit ihrem intuitiven UI für zukünftige Headset-Generationen den Ton angeben wird.

Das ist eine Herausforderung für die Bewertung auf unserem Reparierbarkeits-Index, weil es uns zu einem Kompromiss zwingt – zwischen der aktuellen, „low-tech“ Hardware von heute und den komplexen, hochspezialisierten Sensoren von morgen. Einerseits müssen wir die Hardware berücksichtigen, die aktuell auf dem Markt ist, ohne aber die intuitiven Technologien der Headsets der Zukunft zu benachteiligen.

So, jetzt langt’s mit der Theorie – welche Note schafft dieses kostspielige Stück hochentwickelter Technik in puncto Reparierbarkeit jetzt? Wir wissen noch nicht genug, um eine endgültige Bewertung aussprechen zu können, aber unsere provisorische Bewertung lautet: 4 von 10 Punkten auf unserem Reparierbarkeits-Index.

Alles in allem? Es ist echt irre, wenn man sich ein derart komplexes Apple-Gerät anschaut und einen austauschbaren Akku vorfindet. Ja, vielleicht ist er schon fast ein Netzteil und ja, er ist richtig teuer. Aber wie man’s auch dreht und wendet: Apple hat ein Gerät entwickelt, dessen Teile man austauschen können soll. Das ist ziemlich bemerkenswert. Und so niedrig ist der Standard derzeit tatsächlich – es gibt immer noch Headsets da draußen, bei denen man nicht mal die Polster austauschen kann. Würden wir uns wünschen, dass man die Zellen im Akkupack austauschen kann? Klar. Aber als erster Versuch von Apple in dieser Sparte ist es trotzdem ziemlich beeindruckend.

Zukunfts-Visionen

Viele Tests, die wir an diesem Gerät noch durchführen wollen, stehen noch aus. Während ich das schreibe, schaut sich Chayton Ritter, unser Praktikant im Technik-Team, Apples proprietäres Akku-Kabel auf einer Lochrasterplatine an und versucht herauszufinden, welche elektronischen Signale dafür nötig sind, dass die Vision Pro ein Akkupack erkennt und akzeptiert.

Und wir sind immer noch dabei, einzelne Komponenten zwischen zwei Vision Pro Headsets hin- und herzutauschen, um sie auf Teilekopplung zu prüfen – unseren Erzfeind. Bisher haben wir noch keine aussagekräftigen Ergebnisse, aber wenn du dazu schon etwas sagen kannst, dann immer her damit!

Jedenfalls werten wir es als gutes Zeichen, dass wir dazu noch nichts gefunden haben. Die Zukunft von XR ist noch im Entstehen begriffen, und wenn wir unsere Technik sorgfältig auswählen, können wir die Hersteller darin bestärken, gute Entwicklungen voranzutreiben. Wenn wir die Hersteller für das, was sie produzieren, zur Rechenschaft ziehen, können wir bewirken, dass Reparierbarkeit schon früh im Design-Prozess berücksichtigt und möglichst oft umgesetzt wird. Unsere Hoffnung: Wenn es irgendwann so weit ist, dass solche Technologien in Brillengröße zur Verfügung stehen, ist Reparierbarkeit ein ganz normaler, ja essentieller Bestandteil in jedem Geräte-Design. Diese Geräte stehen noch am Anfang ihrer Entwicklung – also haben wir auch die Chance, es von Anfang an richtig zu machen.

Dieser Artikel wurde übersetzt von Maria Parker