kARbon

Innenraumszene mit räumlich angeordneten Fotoflächen

Das kARbon („Kollaborative Augmented Reality Werkzeuge für die Bauorganisation“) Projekt verwendet interaktive virtuelle Szenen, die aus Bildersammlungen generiert werden, um die Entscheidungsfindung für die Planung von Bauvorhaben zu unterstützen. Die virtuellen Szenen werden aus Fotografien generiert, die von verschiedenen Positionen innerhalb von realen Innenräumen aufgezeichnet werden. Das Hauptziel des Projekts ist das Entwickeln eines Interaktionsraums, in dem eine oder mehrere Personen die reale Situation überprüfen und weitere Schritte planen können, ohne sich am Ausführungsort befinden zu müssen.

Overview of the kARbon approach and its components.
Overview of the kARbon approach and its components

Die räumliche Rekonstruktion von Kameraparametern aus Fotografien wurde bisher unter anderem zum Erzeugen von Szenen für Bildbasiertes Rendering und für die Orientierung autonomer Fahrzeuge eingesetzt. Die Rekonstruktionen in diesem Projekt basieren auf dem Structure From Motion Verfahren, welches auch im Projekt Photo Tourism von Snavely et al. eingesetzt wurde. Kameraparameter werden dabei rekonstruiert, indem Korrelationen zwischen charakteristischen Merkmalen innerhalb der Fotografien ermittelt werden. Räumlich orientierte Bildflächen werden dann mit 2d und 3d CAD-Modellen kombiniert um eine vollständige Szene zu erzeugen.

Die generierten Szenen werden dann genutzt, um einen virtuellen Interaktionsraum zu erzeugen, der als Ersatz für die reale Umgebung dienen kann. Dieser virtuelle Raum wird genutzt, um die unterlagerte Fotosammlung in einer Art und weise zu navigieren, die dem Durchschreiten der realen Innenraumszene stark ähnelt. Dadurch wird es leichter den kombinierten Inhalt der Bilder im Zusammenhang zu verstehen. Weitere Funktionen umfassen etwa das Einfügen und Betrachten von Markern von unterschiedlichen Kamerapositionen aus oder den Transfer von Anntationen zwischen Bodenplan und 3d Szene.

Der Interaktionsraum wird schließlich für eine verteilte Konferenz verwendet, die von einer oder mehreren Personen genutzt werden kann. Das Treffen in einer virtuellen Umgebung verringert den Reiseaufwand und erlaubt dennoch die Kollaboration zwischen unterschiedlichen Partnern mit unterschiedlichen Qualifikationen und Zuständigkeiten von potentiell jedem Ort auf der Welt. Die verteilte Anwendung ist mit dem Fokus auf leichte Zugänglichkeit implementiert. Die Teilnehmer können sich in den virtuellen Szenen über einen üblichen Webbrowser treffen der auf einem Desktop-PC oder Mobilgerät (Smartphone oder Tablet) läuft. Die Visualisierung der 3d Szene basiert auf WebGL unter Verwendung der x3dom Bibliothek von Fraunhofer IGD. Die 2d Visualisierung basiert auf dem W3C Standard für Scalable Vector Graphics sowie weiteren Technologien aus HTML5 wie Canvas. Der zentrale Server für die Kommunikation zwischen den Klienten ist als Applikation auf der NodeJS Plattform implementiert, die eine bidirektionale asynchrone Kommunikation über HTML5 Websockets umsetzt. Für die räumliche Rekonstruktion der Kameraparameter wurden die Bundler Software und Microsoft Photosynth verwendet.

 

ffdpDiese Arbeiten waren Teil eines Kooperationsprojektes der Hochschulen RheinMain und Darmstadt, gefördert vom Programm „Forschung für die Praxis“ des Hessischen Ministeriums für Wissenschaft und Kunst, so wie mit Unterstütung von Ove Arup & Parnters, Hessisches Baumanagement, Fraunhofer IGD, Goethe Universität Frankfurt a.M., und University of London.