Mitarbeiter des Meta Research Teams und der Standford Universität haben ein neues VR-Display entwickelt, das für noch dünnere Brillen sorgen kann.
Wir haben es vom Sprung von der Quest 2 zur Quest 3 gesehen: Die optischen Komponenten eines VR-Headsets sind maßgeblich für die Bauform verantwortlich – der Sprung von Fresnel auf Pancake bei den Linsen hat ein sichtbar schmaleres Headset ermöglicht. Und doch ist der Stapel aus Pancake-Linsen und den dazugehörigen Displays immer noch vergleichsweise dick.
Der Leiter des Display Systems Research Teams von Meta, Douglas Lanman, will sich damit aber nicht zufrieden geben, er wünscht sich einen an normale Sehhilfen erinnernden Formfaktor. Das klappt nur leider nicht mit aktuellen Display- und Linsentechnologien aus dem VR-Bereich.

Die Forschung an der neuen Optik setzt daher auf optische Wellenleiter, wie sie auch in vielen AR-Headsets und -Prototypen genutzt werden. Mit echter Holografie, wie wir sie vielleicht als dreidimensionale Bildprojektionen im Kopf haben (danke Star Wars) hat das “holographic” dabei aber nicht viel zu tun.
Das Wellenleiterdisplay nutzt kleine Laser für jede der darzustellenden Farben (Rot, Grün, Blau), die durch sehr schnell agierende MEMS-Spiegel in einen Wellenleiter gelenkt werden. Dieser weitet das Licht auf und leitet es in einen räumlichen Lichtmodulator (SLM), von dem es weiter zu einer holografischen Okularlinse vor dem Auge leitet.
Eine der wichtigsten Innovationen unseres Anzeigesystems ist ein kompakter, maßgeschneiderter Wellenleiter für holografische Displays im Nahbereich des Auges, der eine große effektive Etendue unterstützt.
Dieser wird zusammen mit einem neuartigen, KI-basierten algorithmischen Rahmen entwickelt, der ein implizites Wellenleitermodell mit großer Etendue, ein effizientes Wellenausbreitungsmodell für teilweise kohärente gegenseitige Intensität sowie einen neuartigen Rahmen für computergenerierte Holografie (CGH) kombiniert.
Kalibrierung durch KI-Netzwerk für deutlich bessere Bildqualität
Eine Kalibrierung durch ein neuronales Netzwerk, das auf den Durchgang des Lichtes trainiert wurde um den SLM (der Lichtmodulator, ihr erinnert euch) so anzupassen, dass das Auge eine sichtbar bessere Bildqualität erreicht als ohne KI. Ein wenig also wie FSR oder DLSS nur ganz anders.

Bislang konnten die Forscher ein diagonales Sichtfeld von 38 Grad erreichen – wenig aus Sicht aktueller VR-Headsets, für die genutzte Technologie aber durchaus beachtlich. Einen wirklich sichtbaren Unterschied soll aber vor allem die KI-Optimierung machen, so dass dieses Feature wohl auch in weiteren Brillen Einzug finden könnte.
Bis XR-Headsets mit dieser Technologie auf den Markt kommen, dürfte es aber noch etwas dauern. Das Team muss es vor allem schaffen, das Sichtfeld stark zu vergrößern und eine Lieferkette für die benötigte Hardware aufbauen.