»Erst das Zusammenspiel der verschiedenen Sensor- und LED-Techniken wird den Durchbruch für AR-Brillen bringen«, sagt Dr. Thomas Stockmeier, CTO von ams Osram, im Interview mit Markt&Technik. Hier erfahren Sie, um welche Techniken es geht und was sie bringen.
Markt&Technik: Sie sind überzeugt davon, dass ams Osram die entscheidenden Elemente entwickelt, um AR-Brillen, die ihren Namen wirklich verdienen, verwirklichen zu können. Welche Elemente sind das?
Dr. Thomas Stockmeier: Kurz gesagt sind das Volume-Phase-Hologramme, Self-Mixing-Interferometers, MicroLEDs und 4D-SMI-Ranger als Hardware-Komponenten, die aber ohne die Kombination mit künstlicher Intelligenz, sogenannter Edge-AI, nutzlos wären. Wir kombinieren zum Beispiel Volume-Phase-Hologramme mit den VCSEL-basierten Self-Mixing-Interferometern, kurz: SMIs. Zudem haben wir den 4D-Ranger entwickelt, mit dem sich der Umgebungskontext sehr gut erfassen lässt, und wir werden künftig auf MicroLEDs für Projektoren setzen. Erst dieses Zusammenspiel wird den Durchbruch für die AR-Geräte einschließlich der AR-Brillen bringen. Denn erst die Kombination aller dieser Techniken trägt dazu bei, die Energieaufnahme zu senken – eine wichtige Voraussetzung für Always-on-Geräte wie AR-Brillen –, aber auch weitere Probleme zu lösen, die derzeit der Akzeptanz von AR-Brillen noch im Wege stehen.
So konnten wir aus der Kombination unserer Volume-Phase-Hologramme (VPH) mit Self-Mixing-Interferometern und unter Zuhilfenahme von Edge-AI ein sehr leistungsfähiges Eye-Tracking-System mit einem zehnfach kleineren Stromverbrauch schaffen. Außerdem ermöglicht die VPH-Technologie bei der Lichtführung entlang des Brillenglases eine gegenüber heutigen Systemen um den Faktor 20 bis 40 höhere Lichtausbeute. Heutige Techniken verlieren 99 Prozent des Lichts auf dem Weg vom Projektor zum Auge! Was wiederum bedeutet, dass sich mit unseren Techniken auch die Leistung des Projektors deutlich reduzieren lässt. Aber nicht nur das: Auch das Sichtfeld wird viel weniger eingeschränkt, und die visuelle Transmission ist viel, viel besser. Das ist für die soziale Akzeptanz ausschlaggebend: Wenn Sie mit jemandem kommunizieren wollen, der Smart Glasses trägt, möchten Sie Ihrem Gegenüber in die Augen sehen und seine Gesichtszüge studieren können. So funktioniert Kommunikation. Den geringsten Anteil hat das gesprochene Wort. Daher ist die sogenannte Visual-Transmission-Percentage (VTP) eine wichtige Leistungskennzahl. 75 Prozent müssen es schon sein. Unsere VPH-Technik liefert das – zugegebenermaßen mit einigen Tricks, die ich hier nicht verraten möchte.
Sie sprachen die AR-Brillen bereits an. Wo sehen Sie weitere Einsatzfälle für die AR-Techniken von ams Osram?
Ein Ziel besteht darin, »All Day Wearable Smart Glasses« zu realisieren. Dazu arbeiten wir an verschiedenen Techniken, die die großen Hürden wie Größe, Gewicht, Leistungsfähigkeit und Stromaufnahme überwinden können. Aber Augmented Reality ist weit mehr als nur Smart Glasses. Es geht auch um weitere Produkte im Consumer-Bereich sowie um Fahrzeuge, Roboter, Maschinen, Heim- und Büroautomatisierung und vieles mehr. Ich bin überzeugt, dass das Thema Augmented Reality weit über die AR-Brillen bzw. Smart Glasses hinausgeht.
Die Volume-Phase-Hologramme spielen offenbar eine wichtige Rolle, um Geräte für diese Einsatzfälle sowie AR-Brillen verwirklichen zu können. Was verbirgt sich hinter dem Begriff?
Ja, die VPH-Technik ist sehr vielfältig einsetzbar. Es handelt sich um eine sehr effiziente Struktur für diffraktive Optik, die sich in der Massenproduktion bei sehr anpassungsfähiger Bauform günstig herstellen lässt. Wir gehen tatsächlich davon aus, dass Volume-Phase-Hologramme ein sehr hohes Potenzial für den Einsatz in Combiner-Optiken von AR-Brillen haben. Als Combiner-Optiken werden die Einheit in AR-Brillen bezeichnet, die das Licht aus verschiedenen Quellen zusammenführen und dabei spezifische Wellenlängen herausfiltern können. Weil die Dicke des Hologramms viel größer ist als die Wellenlänge des Lichts und die Lichtbeugung nicht an der Oberfläche, sondern im Inneren stattfindet, bezeichnet man diese Hologramme als Volumen-Hologramme.
Wo liegt der Vorteil von VPHs?
Die sehr hohe Beugungseffizienz bei hohen Winkeln und das Multiplexing einer Vielzahl von Funktionen bei mehreren Wellenlängen machen VPHs sehr attraktiv, und es gibt sehr viel Entwicklung in diesem Gebiet. Insbesondere erreichen sie einen sehr hohen Wirkungsgrad, tragen also dazu bei, dass sich die Energieaufnahme von AR-Brillen senken lässt – ein entscheidendes Kriterium, um sie über längere Zeit im eingeschalteten Zustand nutzen zu können. Auf jeden Fall sind die VPHs den herkömmlichen Beugungsgittern in vieler Hinsicht weit überlegen. Zudem lassen sie sich nicht nur in AR-Brillen, sondern auch in weiteren Bereichen sehr gut einsetzen, beispielsweise in Autos.
Hologramme sind ja an sich nichts Neues. Warum werden sie nicht schon längst für diese Zwecke eingesetzt?
Die VPHs sind zwar sehr effiziente Elemente – es ist aber nicht einfach, sie so einzusetzen, dass sie ihre Überlegenheit auch ausspielen können. Ein schwieriges Problem ist Streulicht höherer Ordnung, das zu Störungen führt. Deshalb haben wir ein neues, gerade patentiertes Konzept entwickelt, das die Vorteile von VPHs optimal einsetzt und ein sehr großes Potenzial für Anwendungen in den Bereichen Consumer und Automotive hat.
Können die für die Produktion der VPHs erforderlichen Prozesse aus der Fertigung herkömmlicher Hologramme übernommen werden?
Ja, das ist das Schöne daran: Die industrielle Produktion von VPHs ist in anderen Bereichen, beispielsweise für Sicherheitsmerkmale in Geldscheinen oder Identitätsdokumenten, bereits seit vielen Jahren Standard. Viele der dort angewendeten Prozesse können direkt übernommen und angewendet werden.
Wie spielen die VPHs mit den Self-Mixing-Interferometern zusammen?
Bei den VCSEL-SMIs handelt es sich um winzige Sensoren, die die Augenbewegung mit interferometrischer Genauigkeit dadurch bestimmen, dass sie den Höhenunterschied von Pupille zum restlichen Augapfel messen. Diese Technik ist den Tracking-Verfahren, die das Auge beleuchten und mit Kameras den Kontrast von Pupille zu Iris beobachten, haushoch überlegen. Denn die Augenbewegung ist eine sehr schnelle und komplizierte Bewegung. Dazu ist es erforderlich, die Pupille in einem möglichst großen Bereich zu verfolgen und auch wiederzufinden. Das ist wichtig, wenn Sie zum Beispiel blinzeln oder die Brille kurz absetzen. Sobald das Augenlid sich wieder öffnet oder die Brille wieder aufgesetzt wird, findet das Eye-Tracking-System die Pupille schnell wieder.
Wie ist der Sensor aufgebaut?
Er besteht lediglich aus einem Near-Infrared-VCSEL und einem kleinen ASIC. Jetzt kommt das VPH ins Spiel. Das VPH lenkt das Licht des VCSEL um, fokussiert es auf die Pupille und führt das reflektierte Licht zurück in das VCSEL, wo es zur Selbstinterferenz kommt. Aus dem Interferenzmuster lässt sich der Höhenunterschied der Pupille zum Auge ableiten, das ist das grundlegende Messprinzip. Dank dem Hologramm kann ein VCSEL im Bügel der Brille platziert werden.
Wie genau lässt sich aus dem Interferenzmuster der Höhenunterschied ableiten?
Das ist eine der Schwierigkeiten. In dem Interferenzmuster ist zunächst nur Rauschen zu erkennen, und es scheint auf den ersten Blick unmöglich, daraus etwas Sinnvolles ableiten zu können. Unseren Entwicklern ist es aber gelungen, das Problem zu lösen. Mithilfe eines neuronalen Netzes, auf dem KI-Algorithmen laufen, können sie den Höhenunterschied aus dem Interferenzmuster extrahieren. Als es klar war, dass es funktioniert, haben sie die KI-Algorithmen so weit optimiert, dass das neuronale Netz ausreichend effizient arbeitet, um es im ASIC für die Steuerung des SMI integrieren zu können. Schlussendlich konnten wir durch den Einsatz von SMI in Kombination mit Edge-KI ein hervorragendes Eye-Tracking realisieren.
Was sind die Vorteile gegenüber der bisherigen Methode, die Augenbewegung über Kameras zu verfolgen?
Erstens ist der Sensor sehr klein, wie bereits beschrieben. Anders als mit LED-Beleuchtung und Kameras benötigt unser System keine Komponenten im Gesichtsfeld oder im Rahmen der Brille, was Komplexität aus dem System nimmt. Vor allem kann damit die Leistungsaufnahme deutlich gesenkt werden: Sie liegt mindestens um den Faktor 10 unter der von Kameras plus Beleuchtung – ein bedeutender Fortschritt. Denn das ist wieder entscheidend für Always-on-Geräte. Gleichzeitig ist das System mit 200 fps sehr leistungsfähig. Das ist ebenfalls sehr wichtig. Denn wenn die Augenbewegung nicht schnell verfolgt und der virtuelle Inhalt entsprechend verändert werden kann, stellen sich beim Nutzer Übelkeitserscheinungen ein. Wir können mit diesem System also auch verhindern, dass die Träger der Brillen »seekrank« werden, was heute noch vorkommt.