GyroDeic

gyrodeic_rotation_2

Das Navigieren und Editieren in virtuellen Umgebungen kann herausfordernd sein. Dies trifft besonders dann zu, wenn mobile Endgeräte eingesetzt werden, die nur über kleine Bildschirme und begrenzte festgelegte Hardwarschnittstellen verfügen. Touch-Interaktion hat sich als quasi Standard für die Arbeit mit Smartphones und Tablets durchgesetzt. Sie ist jedoch überwiegend bei ballistischen Interaktionen nützlich und kann bei längeren, durchgehenden Interaktionen wie dem rotieren einer virtuellen Kamera oder dem platzieren von Objekten in einer Szene problematisch sein. Kleinere Bildschirme werden häufig durch die bewegten Finger abgedeckt und erfordern eine in mehrere Schritte fragmentierte Eingabe. Bildbasierte Szenenmodelle reagieren auf diese Effekte zusätzlich empfindlich da sie potentiell eine höhere Inkonsistenz in der Darstellung mit sich bringen und dabei gleichzeitig auf die Visualisierung angewiesen sind, damit bspw. die Orientierung der Kamera verstanden werden kann. Dieses Projekt verwendet die Lagesensoren mobiler Endgeräte um eine durchgehende unfragmentierte Interaktion ohne Überdeckung des Bildschirms zu ermöglichen und erlaubt es dem Anwender seine Orientierung im realen Raum zu nutzen, um die Orientierung in der virtuellen Szene zu verstehen und zu kontrollieren.

Mobilgeräte bieten heute Gyroscope, Beschleunigungssensoren und Kompasse an, um die Lage des Geräts im realen Raum zu ermitteln. Durch Anwendung dieser Orientierung auf die virtuelle Kamera wird das Mobilgerät in ein Magisches Fenster verwandelt. Basierend auf den Lagesensoren wird ein Interaktionsschema umgesetzt mit dem bildbasierte Szenen navigiert und Objekte in ihnen platziert werden können.
Als Anwendungfall wird das Rapid Prototyping von Installationen in einem virtuallen Laborraum betrachtet.

Für den Anwendungsfall kann die Touch-Interaktion stark eingeschränkt werden, so dass der Bildschirm durchgehend betrachtet werden kann. Die einzigen Berührungsflächen sind an den Rand verschoben und werden zum Umschalten von Kamerastandorten und zum Auswählen von Objekten genutzt. Die Blickrichtung der virtuellen Kamera wird verwendet, um Zielpunkte für die Navigation zu wählen und objekte im virtuellen Raum zu platzieren. Für eine fortgesetzte Betrachtung der Möglichkeiten dieses Ansatzes wurden weitere Testzenarien betrachtet. Im ersten Szenario werden Touch-Interaktion und Geräterotation genutzt um zufällig platzierte Marker in einer simplen Szene auszwählen und zu entfernen. Die Geräterotation zeigt dabei signifikante Geschwindigkeitsvorteile.

In einem zweiten Szenario wurde getestet, ob die Orientierung des Anwenders im realen Raum genutzt werden kann, um die Orientierung in der virtuellen Szenen zu unterstützen, wenn die Visualiserung eingeschränkt ist. Solche Fälle sind typisch für Szenen, die aus Fotografien rekonstruiert werden. Die Bildersammlung deckt möglicherweise nicht die komplette Szene ab, so dass der Anwender Positione und Orientierung ohne Betrachtung von Bildinhalten verstehen muss. Auch mit einer hohen Abdeckung können Einschränkungen auftreten. Räumlich orientierte Bildflächen können nur von bestimmten Betrachtungspunkten aus perspektivisch korrekt gezeichnet werden. Daher kann es vorkommen, dass Bildinhalte abhängig von der Kameraposition aus der Darstellung verschwinden oder wieder auftauchen. Dies erschwert die Falsifikation für die Anwender. Sieht der Anwender das erwartete Bild, kann er von korrekter Orientierung ausgehen. Sieht er keinen gewünschten Bildinhalt kann dies an fehlerhafter Orientierung liegen, oder daran dass eine Darstellung des Bildinhaltes aufgrund eines zu großen perspektivischen Fehlers nicht möglich ist.

Im zweiten Szenario befindet sich die virtuelle Kamera im Zentrum eines u-förmigen Raums. Der Raum ist teilweise mit Bildern und teilweise mit grauen Wänden abgedeckt. Eine Uhrendarstellung gibt vor, wie der Anwender die Ansicht horizontal rotieren soll, um eine bestimmte Uhrzeit zu wählen. („Blick entlang des Stundenzeigers“) Über mehrere Wiederholungen hinweg wird die Visualisierung reduziert, indem die Bilder und die grauen Wände entfernt werden. Auf diese Weise wird es dem Anwender erschwert die virtuelle Orientierung aus der Darstellung auf dem Bildschirm abzulesen. Die Interaktion mittels Geräterotation hat sich als signifikant robuster gegenüber reduzierter Darstellung gezeigt, sowohl bei der Genauigkeit der eingestellten Uhrzeiten, als auch bei der Geschwindigkeit des Einstellens.

 

ffdpDiese Arbeiten waren Teil eines Kooperationsprojektes der Hochschulen RheinMain und Darmstadt, gefördert vom Programm „Forschung für die Praxis“ des Hessischen Ministeriums für Wissenschaft und Kunst, so wie mit Unterstütung von Ove Arup & Parnters, Hessisches Baumanagement, Fraunhofer IGD, Goethe Universität Frankfurt a.M., und University of London.