Modellbasierte visuelle Wahrnehmung zur autonomen Fahrzeugführung
Bei der Entwicklung von unbemannten Landfahrzeugen besteht eine der größten Herausforderungen in der Wahrnehmung der lokalen Umgebung. In dieser Arbeit wird daher ein Verfahren vorgestellt, dass mittels modellbasierter Wahrnehmung ein vollständig autonomes Fahren auch in schwierigem Gelände wie z.B. Feld- und Waldgebiete erlaubt. Der Schwerpunkt der Arbeit liegt auf einer robusten Schätzung der 3D-Lage, Dynamik und Form von Objekten in komplexen Umgebungsbedingungen und Wetterverhältnissen durch monokulares Sehen. Zusätzlich werden Möglichkeiten einer Fusion der visuellen Information mit den Daten eines LIDAR-Sensors auf Daten- und Merkmalsebene aufgezeigt.
Grundlage der Wahrnehmung bildet der 4D-Ansatz (siehe [Dickmanns, 2007]) und dessen Formulierung durch einen Partikelfilter. Unter anderem werden neuartige Vorgehensweisen vorgestellt, die es ermöglichen, bekannte Systemgrenzen probabilistisch im Wahrnehmungsprozess zu berücksichtigen. Zusätzlich werden -- im Gegensatz zu anderen Ansätzen -- die Likelihood-Funktionen der Messung nicht mehr manuell vorgegeben, sondern es werden Techniken des überwachten Lernens eingesetzt, um geeignete Likelihood-Funktionen für alle an der Objektwahrnehmung beteiligten Merkmale zu finden. Letzteres ist insbesondere von Interesse, da dadurch das ansonsten sehr zeitaufwändige Tuning des Filter-Messmodells verkürzt und für beliebige Wahrnehmungsaufgaben automatisiert werden kann. Die Merkmalsextraktion der Objektwahrnehmung basiert dabei nicht nur auf Kantensignaturen, sondern auch auf punkt- und flächenartigen Signaturen in den Sensordaten, welche über ein räumlich-zeitliches Objektmodell miteinander fusioniert werden. Dies führt insgesamt, auch in schlecht strukturierter Umgebung, zu einer sehr robusten Wahrnehmung.
Das vorgestellte Verfahren zur modellbasierten Wahrnehmung dient im Weiteren zur Lösung von zwei komplexen Wahrnehmungsaufgaben. Die erste Aufgabe besteht in der Wahrnehmung von Wegen und Kreuzungen in ländlichem Gebiet. Um für die Wahrnehmung eine möglichst reiche Repräsentation der Umgebung zu generieren, werden die Daten einer beweglichen Kamera mit den Daten eines 3D-LIDAR miteinander fusioniert und zeitlich in einem farbigen Geländemodell akkumuliert. Zusätzlich werden topologische Informationen aus einer Karte zur Stützung der Kreuzungserkennung eingesetzt. Die zweite Aufgabe beschäftigt sich mit der Wahrnehmung von Fahrzeugen mit Hilfe einer beweglichen Kamera. Neben der Fahrzeugposition, die in allen sechs Freiheitsgraden geschätzt wird, werden auch Lenkwinkel und Geschwindigkeit des Fahrzeuges durch die monokulare Wahrnehmung bestimmt.
Die Wahrnehmung ist auf dem Versuchsfahrzeug MuCAR-3 (Munich Cognitive Autonomous Robot Car, 3rd Generation) implementiert worden. MuCAR-3 ist somit in der Lage, vollständig autonom anderen Fahrzeugen auch in anspruchsvollem Gelände zu folgen und selbständig entlang von Wegenetzen niedriger Kategorie zu navigieren.