Nachrichten, Gerüchte, Meldungen und Berichte aus der IT-Szene

Redaktion: Heinz Schmitz


HoloLens verbessert Augmented Reality

Hololens
Forscher wollen mittels HoloLens virtuelle Welten nicht nur ansehen, sondern durch multisensorisches Feedback erleben. (Quelle: Microsoft)

Dem Holodeck aus der Star-Trek-Welt ein wenig näher gekommen, ist Dr. Ernst Kruijff vom Institute of Visual Computing (IVC) der Hochschule Bonn- Rhein-Sieg (H-BRS). Gemeinsam mit Partneruniversitäten aus den USA und Japan arbeitet er seit kurzem an einem Projekt auf dem Gebiet der Augmented Reality (AR), bei dem die „HoloLens“ zum Einsatz kommt. Diese Brille projiziert dreidimensionale Inhalte in die reale Umgebung des Nutzers, die dieser interaktiv bedienen kann, und ist kleiner als das Vorgängermodell. Neu an dem Projekt ist, dass Nutzer dieser sogenannten Mixed-Reality- Brille neben den visuellen auch auditive und taktile Reize erhalten sollen.

 

Jetzige AR-Brillen haben ein relativ kleines Sichtfeld, die Menge der Informationen aber steigt mit der Komplexität der Anwendungen. Erfahrungswerte zeigen, dass die Fülle von Bildinformationen eher reduziert werden muss, damit sie gewinnbringend verarbeitet werden kann, ohne dass die Verständlichkeit oder Bedienbarkeit leidet.

 

Das Team um Dr. Ernst Kruijff, Interimsprofessor für interaktive Umgebungen an der H-BRS, will dies ändern. Der neuartige Ansatz kombiniert Augmented Reality mit multisensorischem Feedback. Für die Wissenschaftler bedeutet dies, visuelle Reize und andere Informationen teilweise in taktile oder auditive Inhalte zu übersetzen.

 

Eine Forschungsfrage in diesem Zusammenhang ist, ob der Nutzer Informationen mit multisensorischem Feedback besser verarbeiten kann. Diese Informationen können zum Beispiel durch eine leichte Vibration, ähnlich einem leichten Kribbeln am Kopf, weitergegeben werden. Die Vibration kann von verschiedenen Seiten kommen, um dem Nutzer mitzuteilen, in welcher Richtung weiterführende Informationen zu finden sind. Um zu bestimmen, welche Information übersetzt werden sollen, kommt das sogenannte Eye-Tracking zum Einsatz. Eye-Tracking berechnet die Blickrichtung des Nutzers, um zu verstehen, welche Objekte der Nutzer fokussiert, um ihm daraus resultierend die passenden Informationen zu geben.

 

„Obwohl Einsatz- und Nutzungsmöglichkeiten von AR in hohem Maße von der visuellen Wahrnehmung abhängen, gibt es bislang dazu recht wenig Forschungsvorhaben“, sagt Dr. Ernst Kruijff. „Wir leisten mit dem Projekt einen wichtigen Beitrag zur Grundlagenforschung auf dem Gebiet der multisensorischen Darstellung von Informationen in AR-Systemen. Die erwarteten Ergebnisse sind für verschiedenste Applikationen und Systeme von großem Interesse“, so Kruijff weiter. Das Team wird den neuen Ansatz sowohl unter kontrollierten Laborbedingungen als auch in Feldversuchen testen: Im Herbst 2017 reist das Forschungsteam zu diesem Zweck an die Columbia University/New York und an die Mississippi State University. Mit im Gepäck: ein neuer Prototyp der AR-Brille mit Eye-Tracking.

Zurück