3D Daten unterschiedlicher Sensoren – aufgenommen aus der Luft oder vom Boden – sind oft notwendig, um komplexe Objekte oder Umgebungen wie z. B. Bauwerke, urbane Gebiete, aber auch Wälder vollständig zu erfassen. Die Überlappung der Daten sowie die unterschiedliche Datenqualität erschweren die automatisierte Auswertung. Instanzen werden mitunter fehlerhaft mehrfach abgebildet, lokale und globale Effekte führen zu Messfehlern.
Datenfusion garantiert konsistente Datensätze
Wir entwickeln maßgeschneiderte Lösungen zur Multi-Sensor-Datenfusion, die es erlauben, Messdaten unterschiedlichster Quellen zusammenzuführen, darunter:
- 3D-Daten, aufgenommen von mobilen Laserscannern
- Aus der Luft aufgenommene Daten photogrammetrischer Systeme
- Bathymetrische Messdaten, aufgenommen von multispektralen LiDAR-Systemen
- Mit SLAM-Methoden generierte Daten mobiler Mess-Roboter
Die Fusion der Daten führt zu konsistenten Datensätzen, die je nach Bedarf weiter homogenisiert und verbessert werden können. Dazu verfügen wir über Know-how zu Algorithmen basierend auf klassischen Parametern wie Punktdichte, räumliche Abdeckung, Rauschverhalten ebenso wie zu aktuellen KI-Methoden für die automatisierte Datenfusion.