Forschung

Aktuelle Forschung

MedicVR

Forschungsziel | Direct Volume Rendering (DVR) Techniken werden verwendet, um Oberflächen aus 3D-Volumendatensätzen zu visualisieren, ohne eine 3D-Geometrie zu berechnen. Mehrere Oberflächen können mit Hilfe einer Übertragungsfunktion klassifiziert werden, indem Datenwerte aufgrund von Farbe und Deckkraft (RGBalpha) abgebildet werden. Das Finden einer guten Übertragungsfunktion mit dem Ziel, bestimmte Strukturen aus dem Volumendatensatz zu separieren, ist im Allgemeinen ein manuelles, mühsames und zeitaufwendiges Verfahren und erfordert detaillierte Kenntnisse der Daten und der Bilderfassungstechnik. Wir entwickeln eine neue interaktive Virtual-Reality (VR) Anwendung, um die Übertragungsfunktion in Echtzeit zu laden, zu modifizieren und zu speichern, während das 3D-Volumen durch GPU-basierte Ray-Casting-Shader kontinuierlich interagiert und gerendert wird.

Weitere Informationen erhalten Sie hier.

DataLake

Große Datenmengen (BigData) sind ein Zukunftsthema und entstehen durch kontinuierliche Datenerhebung und –speicherung. Die Frage ist aber dann, was man aus diesen Daten herauslesen kann, welche Interpretationen und Analysen gewonnen werden können und wie geeignete Visualisierungstechniken wie Virtuelle Realität (VR) und Augmentierte Realität (AR) diese Interpretationen sichtbar machen können.

Bisher wurde ein energiearmer Sensor für die kontinuierliche Datenaufnahme von Luftdruck, Luftfeuchtigkeit und Temperatur eines Büroraumes sowie deren Datenspeicherung in einer Datenbank entwickelt. Zur Visualisierung wurde ein digitaler Zwilling vom H-Gebäude modelliert und mit Unity mit einer HTC-Vive-Brille in Virtueller Realität visualisiert. Das Video zeigt das interaktive Konzept der Live-Datenabfrage und der Echtzeit-Datenvisualisierung in der Virtuellen Realität. Derzeit kann das Unity-Projekt auf mehreren Clients ausgeführt werden, so daß Benutzer in verschiedenen Räumen sich virtuell gemeinsam die Daten anschauen können.

Weitere Informationen finden Sie hier.

BMBF-Projekt: ARTUS

Forschungsziel | Autonomes robustes Transportsystem für hybride umweltschonende Rohstoffgewinnung auf Basis knickgelenkter Sonderfahrzeuge: Ziel des Verbundvorhabens ARTUS ist die Entwicklung einer Flotte von autonomen Sonderfahrzeugen in einem hybriden Bergwerk, d.h. zur über- und untertägigen umweltschonenden und nachhaltigen Gewinnung mineralischer Rohstoffe.

Projektpartner | indurad GmbH, Aachen (Koordinator), Fritz Rensmann GmbH & Co. KG, Dortmund, GHH Fahrzeuge GmbH, Gelsenkirchen, talpasolutions GmbH, Essen, XGraphic Ingenieurgesellschaft mbH, Aachen, Institute for Advanced Mining Technologies, RWTH Aachen University, Institute of Automatic Control, RWTH Aachen University, MASKOR Institut, FH Aachen University of Applied Sciences

 

Virtual Office

Immersive Webmeeting-Applikation

Die Corona-Pandemie ist in diesem Jahr eine besondere Herausforderung für viele Unternehmen. Die Büros können nicht mehr betreten werden, Mitarbeiter müssen im Home-Office arbeiten und Meetings fallen aus oder sind mit herkömmlicher Software auf Dauer sehr unpersönlich, wodurch manche Mitarbeiter dazu neigen, währenddessen anderen Tätigkeiten nachzugehen und den Fokus zu verlieren. Hinzu kommt, dass sich viele Arbeitnehmer in einer solchen Pandemie-Situation eine Arbeit im Home-Office eher wünschen, als die Arbeit im Büro. Aus Nutzer- und auch Entwicklersicht erfordern diese besonderen Umstände einen neuen Ansatz für Meeting-Applikationen. Zwar gibt es bereits Ansätze für Multi-User 3D-Meetings im VR- oder Gaming-Bereich, aber sie sind entweder nicht für den professionellen Einsatz in Unternehmen ausgelegt oder erfordern zusätzliches Equipment, was die Unternehmen belasten könnte.

Im Rahmen einer Bachelorarbeit von Carlo Verhoeven wurde ein Prototyp für eine intuitive immersive Meeting-Applikation geschaffen, in der die Nutzer ohne zusätzliches Equipment und ohne besondere Vorkenntnisse zu 3D-Applikationen an einem Meeting im 3D-Raum teilnehmen können. Das Thema soll zukünftig weiter entwickelt werden. Bei Interesse kontaktieren Sie bitte Prof. Ingrid Scholl.
 

 

Die Applikation

Nach einem Vergleich bisheriger Meeting-Applikationen im 2D- und 3D-Raum hat sich ein sinnvoller Funktionsumfang ergeben, aus dem die Applikation zum aktuellen Zeitpunkt die folgenden Funktionen bietet:

  • Raumsystem
  • Sprach- und Videokommunikation mit Spatial Audio (Raumklang)
  • Präsentationsmöglichkeit durch Bildschirmübertragung
  • Interaktive, fotorealistische 3D-Umgebung
  • Änderbare Skybox
  • Kollaboratives Whiteboard mit eigener Toolbox
  • Identifizierung von Video- und Audio-Eingabegeräten
  • Individuelle Anpassung der Lautstärke einzelner Teilnehmer
  • Individuelle Anpassung der Grafikqualität und Auflösung
  • Lokales Finger-Tracking mit Leap Motion

 

Darüber hinaus bietet die Applikation eine intuitive Benutzeroberfläche und Bewegungssteuerung in der 3D-Umgebung.

Abgeschlossene Projekte

BMBF-Projekt: HD-ToF-Bodyscanner

Forschungsziel | Entwicklung eines dreidimensionalen Bodyscanners auf Basis einer hochauflösenden optischen Time-of-Flight Kamera. Das Ziel des Forschungsvorhabens ist die Entwicklung eines innovativen Ganzkörper-Scanners, der es ermöglicht, die gesamte Oberfläche eines menschlichen Körpers inklusive der Fußsohlen genau und hochauflösend zu erfassen. Der in diesem Projekt verfolgte Ansatz ist, mehrere  Sensorköpfe zu verwenden, die eine Vielzahl von farbigen 3DPunktewolken bzw. Tiefenbilder des Körpers aufnehmen und um den Probanden rotieren. Innovative Sensorköpfe werden in diesem Projekt basierend auf ToF-Technologien entwickelt. Die Körperoberfläche wird aus 1000nden von Einzelbildern mittels zu entwickelnder fehlerminimierender Algorithmen robust und effizient rekonstruiert werden.

Dieses Forschungsprojekt wurde vom BMBF über die Förderlinie FHProfUnt gefördert.
Laufzeit: 05/2016-04/2019.

BMBF-Projekt: UPNS4D+, Teilprojekt: 3D-Kartographie

Forschungsziel | Ziel dieses Forschungsvorhabens ist die hochselektive, effiziente und im höchsten Maße sichere Gewinnung mineralischer Rohstoffe insbesondere Seltener Erden aus heimischen vorhandenen Lagerstätten sowie für die Erkundung neuer Lagerstätten. Das erfordert eine innovative Abbautechnologie, die auch dynamische Veränderungsprozesse und der damit erhöhten Planungssicherheit Rechnung tragen kann. In diesem interdisziplinären Forschungsvorhaben wird ein Untertägiges-Positionierungs-Navigations- und Mapping-System zur sicheren Erkundung untertägiger Bergwerksstätten in Form eines mobilen autonomen und intelligenten Robotersystems entwickelt. Ziel des Teilvorhabens 6D-Kartographie des MASKOR-Institutes der FH Aachen ist mit Hilfe des zu entwickelnden Robotersystems den Lagerstättenverlauf fortlaufend geometrisch zu erfassen sowie Geometrie und die Multisensordaten in einer multi-dimensionalen Karte zu integrieren. Eine Herausforderung sind die großen Datenmengen, die durch multiple Sensordaten insbesondere durch 3D-Punktwolken produziert werden. Die Daten der Karte werden durch Virtual Reality-Techniken aufbereitet und dienen zur immersiven Beobachtung der Bergwerksstätte.

Kooperationspartner | indurad GmbH, MILAN Geoservice GmbH, MASKOR-Institut FH Aachen, IMR RWTH Aachen, XGraphic Ingenieurgesellschaft mbH, Technische Universität Bergakademie Freiberg, Fritz Rensmann Maschinenfabrik, Diesellokomotiven, Getriebe GmbH & Co.KG, GHH Fahrzeuge GmbH, TU Delft.

Dieses Forschungsprojekt wurde vom BMBF über die Förderlinie r4-wirtschaftsstrategische Rohstoffe gefördert. Laufzeit: 04/2015 - 12/2018.

BMBF Projekt: GPUFaserVis - GPU basierte 3D Visualisierung von Nervenfaserbahnen des menschlichen Gehirns

Forschungsziel | Ziel des Projekts ist die Entwicklung von neuen Datenstrukturen und Algorithmen zur Visualisierung von hochauflösenden Vektordaten in Kombination von 3D Volumendaten in Echtzeit. 

Die Ergebnisse sollen zur 3D Visualisierung hochauflösender Nervenfaserbahnen in Kombination mit weiteren Bildmodalitäten wie Magnetresonanztomographie (MRT) und Diffusionstensorbildgebung (DTI) eingesetzt werden. So können die Nervenfaserbahnen und deren Kreuzungen genau erforscht werden. Dies dient zum Verständnis von Erkrankungen wie Alzheimer und Parkinson.

Kooperationspartner | INM-1, Forschungszentrum Jülich GmbH | RWTH Aachen | NVidia GmbH | Visage Imaging GmbH

Dieses Forschungsprojekt wurde vom BMBF von 2009-2012 gefördert.

Projekt: GeospatialRenderer

Forschungsziel | Effiziente Visualisierung von Geoinformationsdaten.

Projekt: Aachener Dom App

Forschungsziel | Integration und Usability von 3D Informationen in einer IPhone- / IPad-App am Beispiel eines Rundgangs durch den Aachener Dom. Dieses Projekt ist ein interdisziplinäres Projekt vom I³ac der FH Aachen und dem Lehrstuhl für Informatik 8 der RWTH Aachen und wurde vom Aachener Domkapitel gefördert. Die App kann kostenlos herunter geladen werden.

Projekt: Bioengineering Bildanalysen

Forschungsziel | Entwicklung von Programmen zur Bildanalyse im Rahmen der Kompetenzplattform Bioengineering. Derzeit wurden OCT-Bilder der weiblichen Fruchtblasenhaut auf Gewebestrukturschichten untersucht.

Projekt: 3D Vermessung

Forschungsziel | Entwicklung von Programmen zur 3D Body-Vermessung aufgrund der neueren Sensortechnik und Vergleich zu vorhandenen 3D Daten.

Mehr zum Thema