Urbane Umgebungserkennung für Luftfahrzeuge mittels Datenfusion von Kamera- und Lidardaten

Abstract

Diese Arbeit befasst sich mit der Datenfusion von Kamera- und Lidardaten. Ziel dabei ist es, auf den Daten der Kamera eine Instanz-Segmentierung mithilfe eines neuronalen Netzes anzuwenden und die daraus gewonnen Instanzen mit den Entfernungsdaten des Lidar zu fusionieren, um so eine Erkennung der Umgebung herzustellen. Für das Training des neuronalen Netzes werden die Daten in einem urbanen Umfeld aufgenommen und anschließend evaluiert, wie sich dieses Verfahren unter Verwendung simulierten Daten von Luftfahrzeugen verhält. Die Ergebnisse dieser Evaluation zeigen, dass es möglich, ist eine Umgebungserkennung mittels Kamera und Lidar für den urbanen Raum herzustellen. Dabei sind einige Probleme entdeckt worden, die sich negativ auf die Genauigkeit der Ergebnisse ausgewirkt haben.