Elektroniknet Logo

Virtuelle Realität für die Industrie

Anwendungsfälle und Stand der Technik


Fortsetzung des Artikels von Teil 2

Bewegungssteuerung in der VR

Durch die genaue Bestimmung des HMD im definierten Raum kann sich der Nutzer durch natürliche Laufbewegung in der virtuellen Umgebung fortbewegen. Diese gewohnte Form der Lokomotion erzeugt die höchste Präsenz und ist unempfindlich für die Simulationskrankheit. Diese kann, als Pendant zur Reisekrankheit, durch Fortbewegung in der virtuellen Umgebung ausgelöst werden. Die Symptome reichen von Übelkeit, Schwindel, Kopfschmerzen, Orientierungslosigkeit und im schlimmsten Fall sogar bis zum Erbrechen. Begründet wird sie durch die widersprüchlichen Informationen zwischen den Sinneseindrücken des visuellen und des vestibulär-propriozeptiven Systems, die dann entstehen, wenn sich der Benutzer physisch nicht entsprechend des vermittelten visuellen Bildflusses bewegt.

Meistens entspricht der physische Arbeitsbereich nicht dem simulierten Szenario und es müssen neben dem natürlichen Laufen weitere Fortbewegungsmethoden eingesetzt werden. Ein häufig verwendeter Lösungsansatz ist die Teleportation. Darunter wird verstanden, dass sich der Benutzer ohne Zeitverzögerung an eine ausgewählte Stelle im virtuellen Szenario versetzen lassen kann. Ein sinnvoller Einsatz ist in Anwendungsfällen wie etwa der technischen Betrachtung von Prototypen möglich. Für anders gelagerte Vorhaben ist die Teleportation nur bedingt geeignet. Darunter fallen etwa Trainingsszenarien zum Verinnerlichen von Fluchtwegen oder ähnliche Szenarien, in denen Laufwege eine elementare Rolle spielen. Als mögliche Lösung sind Redirected-Walking-Ansätze sehr vielversprechend. Durch kleine Rotationen der gezeigten virtuellen Umgebung, wird dem Benutzer vorgetäuscht, er laufe geradeaus, obwohl er sich physisch im Kreis bewegt. Liegt dieser Versatz zwischen –20 Prozent und +49 Prozent der tatsächlichen physischen Drehung, nehmen die meisten Benutzer diese Verschiebung nicht wahr. Jedoch benötigt eine vollständige Drehung unter diesen Rahmenbedingungen einen Radius von mehr als über 22 Metern. Die spezielle Anpassung von Szenarien bei der Verwendung dieser Technik ist in den meisten Fällen unabdingbar.

Anbieter zum Thema

zu Matchmaker+
An einer Oculus Rift angebrachte Leap Motion mit aktiver Gestenerkennung
Bild 5. An einer Oculus Rift angebrachte Leap Motion mit aktiver Gestenerkennung.
© UniTyLab

Neben Software-basierten Ansätzen untersucht das Unitylab ebenfalls Hardware-gestützte Verfahren. Bei einem der konzipierten Demonstratoren (Bild 3) wird der Virtualizer des Technologiepartners Cyberith GmbH eingesetzt. Das System ist eine so¬genannte Slidemill-Konstruktion. Eine Ringhalterung hält dabei den Benutzer an Ort und Stelle, während er sich über angepasste Laufbewegungen, welche mit Gleitbewegungen über den Boden vergleichbar sind, in der VR fortbewegt. Durch den geringen Platzbedarf und die Konstruktion als abgeschlossene Einheit hat sich der Aufbau als Messe-Exponat bewährt. Mit ihm lassen sich größere Szenarien demonstrieren, ohne dabei Gefahr zu laufen, dass Zuschauer in das Arbeitsvolumen eindringen.

Körperwahrnehmung

Durch die abgeschlossene Bauweise der HMDs ist, im Unterschied zur CAVE, der physische Körper des Benutzers nicht sichtbar. Dies kann für manche Anwendungen nützlich sein, etwa für psychologische Fragestellungen nach der Körperwahrnehmung. Im industriellen Einsatz wird der fehlende Körper jedoch meist nachteilig gesehen, da er unter anderem ein Werkzeug zur Einschätzung von Größenverhältnissen ist und den Realismus der Simulation steigert. Außerdem kann die Körperhaltung ein wichtiges Kriterium beim virtuellen Prototyping von Ergonomieuntersuchungen sein. Darüber hinaus spielt Gestik und Körperhaltung besonders für die soziale Interaktion in Mehrbenutzersitzungen eine wichtige Rolle.

Technologisch lässt sich Motion Capture, also das Erfassen von Bewegungen, über markerbasierte oder markerlose Verfahren umsetzen. Die Filmindustrie nutzt primär markerbasierte Lösungen, da diese selbst kleinste Änderungen, von beispielsweise den Gesichtszügen, sehr präzise erkennen und auf ein computergeneriertes Modell übertragen können. Dazu ist es notwendig, eine Vielzahl an Sensoren bzw. Markierungen am Körper des Benutzers anzubringen. Das ist mit der Grundregel nur schwer zu vereinbaren, die Bewegungsfreiheit des Nutzers möglichst uneingeschränkt zu lassen und dadurch auch die Akzeptanz des Systems zu fördern. Entsprechend ist der Einsatz von markerlosen Verfahren im Rahmen der VR die erstrebenswertere Wahl. Beim markerlosen Motion Capture wird der aufgenommene Umriss (Silhouette) des getrackten Benutzers vom Hintergrund extrahiert und auf eine Referenzsilhouette mit bekannten Gelenkpositionen aufgerechnet (Bild 4).

Markerloses Motion Capture im UniTyLab
Bild 4. Markerloses Motion Capture im Unitylab.
© UniTyLab

Dieses Verfahren ist sehr rechenintensiv und benötigt besondere Kontrastverhältnisse zwischen Benutzer und Umgebung. Für die anwendungsnahe Forschung betreibt das Unitylab in einem VR-Labor ein markerloses Motion- Tracking-System des Technologiepartners The Captury und erweitert es aktuell für den Einsatz in VR-Systemen. Dafür verfolgen 16 hochfrequente Kameras bis zu drei Benutzer in dem momentan 36 m2 großen Arbeitsbereich (erweiterbar auf 100 m2). Neben der nicht intrusiven Arbeitsweise spricht ebenfalls die kurze geringe Kalibrierungszeit neuer Benutzer, von weniger als unter 15 Sekunden, für das Verfahren.

Elementare Forderung: Handbewegungen virtull abbilden

Bei der Umsetzung von VR-Anwendungsfällen ist es wichtig, dass die Arbeitsweise in der VR möglichst intuitiv stattfindet und bewährte Praktiken aus der realen Welt beibehalten werden können. Ausschlaggebend für die Akzeptanz der Simulation sind vor allem Handlungsweisen, welche als selbstverständlich erachtet werden. Die Hände sind ein primäres Mittel zur Interaktion. Deshalb ist deren Projektion in die VR elementar, um die verbale Kommunikation durch Gesten, wie zum Beispiel Zeigebewegungen, zu unterstützen oder Objekte manipulieren zu können. Es bestehen mehrere Möglichkeiten zur Umsetzung dieser Anforderungen.

An einer Oculus Rift angebrachte Leap Motion mit aktiver Gestenerkennung
Bild 5. An einer Oculus Rift angebrachte Leap Motion mit aktiver Gestenerkennung.
© UniTyLab

Die hochauflösende Tiefenkamera Leap Motion kann, angebracht an der Vorderseite des HMD (Bild 5), Bewegungen im Blickbereich des Anwenders im unteren Millimeterbereich genau erkennen und ist dadurch in der Lage, selbst kleinste Fingerbewegungen auf ein di-gitales Handmodell zu übertragen. Sie kommt ohne zusätzlich an den Körper angebrachte Sensorik aus, wodurch die volle Bewegungsfreiheit des Benutzers erhalten bleibt und keine vorherige Kalibrierung notwendig wird. Der Nutzer kann also nach dem Aufsetzen des HMDs sofort mit der Simulation starten. Jedoch werden Handbewegungen außerhalb des 135 Grad weiten Aufnahmebereichs der Leap Motion nicht registriert, was für andere Teilnehmer der Simulation als negativ aufgefasst werden kann und eine „blinde“ Interaktion unmöglich macht. Dieser störende Effekt lässt den Benutzer schnell wieder realisieren, dass er sich nicht in der simulierten Umgebung befindet. Ein weiterer Nachteil ist das fehlende haptische Feedback, das der Anwender zum Beispiel beim Drücken eines virtuellen Knopfes oder dem Berühren eines Gegenstandes erwartet.

Interaktion in der VR mit den Motion Controllern von HTC
Bild 6. Interaktion in der VR mit den Motion Controllern von HTC.
© UniTyLab

Eine Alternative bieten Motion Controller (Bild 6). Sie benötigen keinen Blickkontakt des Benutzers für die Erkennung der aktuellen Handposition. Haptisches Feedback wird durch das physische Betätigen von Knöpfen am Controller erzeugt. Der erlebte Sinneseindruck muss zwar nicht immer zu dem virtuellen Objekt passen, er lässt aber unter Umständen das Interagieren in der VR realer wirken. Die Touch Controller von Oculus arbeiten außerdem mit abstandserfassenden Sensoren, wodurch der Beugewinkel des Daumens, des Zeige- und des Mittelfingers in drei Abstufungen bestimmt werden kann. Ein vollständiges Fingertracking, wie mit der Leap Motion, ist jedoch mit keinem der aktuell gängigen Motion Controller möglich.

Prototyp des Datenhandschuhs Sense Glove. Am Arm ist ein Marker des Trackingsystems der HTC Vive befestigt
Bild 7. Prototyp des Datenhandschuhs Sense Glove. Am Arm ist ein Marker des Trackingsystems der HTC Vive befestigt.
© UniTyLab

Unterstützt durch den holländischen Technologiezulieferer Adjuvo, erforscht das Unitylab der Hochschule Heilbronn die nächste Stufe der Handpräsenz mittels Datenhandschuhen (Bild 7) und ihre medizinischen und industriellen Anwendungsmöglichkeiten. Mit dem aktuellen Prototyp des Sense Glove von Adjuvo ist es möglich, die Beugung einzelner Finger mit einer Genauigkeit von einem Grad zu bestimmen. Noch simulieren Federwiderstände ein taktiles Feedback bei der Interaktion mit Objekten, doch bereits in den nächsten Iterationen soll es für den Anwender möglich sein, die Form eines Objektes mittels aktivem Force Feedback zu erfühlen.


  1. Anwendungsfälle und Stand der Technik
  2. Einsatzmöglichkeiten von HMDs in der Industrie
  3. Bewegungssteuerung in der VR
  4. Verbreitung in der Industrie ist absehbar

Das könnte Sie auch interessieren

Verwandte Artikel

UniTyLab Hochschule Heilbronn