Skip to content
Snippets Groups Projects
Select Git revision
  • c2c7e8b72e3d5ddc885504bd774db74b46533be4
  • master default protected
2 results

.gitlab-ci.yml

Blame
  • einleitung.tex 2.95 KiB
    \chapter{Einleitung} \label{chap: einleitung}
    
    	\section{Problemstellung} \label{sec: problem}
    
    		Auf der Projektfläche \emph{Autonomes Fahren} des Instituts für Konstruktionselemente, Mechatronik und Elektromobilität (IKME) der Hochschule
    		Hannover ist eine große urbane Kreuzung im Maßstab 1:18 nachgebildet. Hier sollen in Zukunft automatisierte Logistikkonzepte mit mobilen
    		Roboterfahrzeugen entwickelt und getestet werden. Die Roboter sind jeweils mit einer nach vorne gerichteten Videokamera ausgerüstet. Um die
    		Fahrzeuge damit sicher steuern zu können, wird eine zuverlässige Fahrspurerkennung benötigt.
    
    
    	\section{Aufgabenstellung} \label{sec: aufgabe}
    
    		Ziel der Arbeit ist es, eine echtzeitfähige Erkennung der Fahrspurmarkierungen aus dem Video-Bilddatenstrom zu realisieren und die Position
    		der Markierungen relativ zum Fahrzeug anzugeben. Um eine geometrisch richtige Darstellung zu erhalten, soll zunächst eine Bestimmung der
    		intrinsischen und extrinsischen Kamera-Kalibrierung durchgeführt werden. Mit den so bestimmten intrinsischen Parametern soll dann eine
    		Rektifizierung der Bilder durchgeführt werden.
    
    		Auf den rektifizierten Bildern soll dann die eigentliche Erkennung der Spurmarkierungen erfolgen. Dies kann entweder kanten-basiert oder mit
    		tiefen neuronalen Netzen erfolgen. Die extrinsische Kalibrierung soll dann genutzt werden, um die Position der Markierungen in
    		Fahrzeug-Koordinaten umzurechnen. Zusätzlich kann die Farbinformation des Bildes genutzt werden, um zwischen weißen und gelben Linien zu
    		unterscheiden.
    		Gegebenenfalls kann auch das zeitliche Tracking eines Spurmodells umgesetzt werden.
    
    		Die Bildverarbeitung sollte auf der Jetson-nano Hardware unter \gls{ROS} in Echtzeit lauffähig sein. Eine erste
    		Implementierung kann mit Python erfolgen. Für den längerfristigen Einsatz wäre eine Umsetzung in \gls{C++} mit \glspl{ROS Nodelet}
    		wünschenswert.
    
    
    	\section{Inhalt der Arbeit} \label{sec: inhalt}
    
    		Der Inhalt der Arbeit gliedert sich in mehrere Kapitel, die hier kurz vorgestellt werden. Begonnen wird mit einem Kapitel über die
    		theoretischen Grundlagen und existierenden Vorgehensweisen in anderen Arbeiten. Außerdem werden die technischen Gegebenheiten definiert.
    
    		Danach wird die Kalibrierung der Kamera beschrieben. Dabei geht es um die Aufbereitung des Kamerabildes, dass einige Verzerrungen aufweist.
    		Diese werden durch eine intrinsische Kalibrierung korrigiert.
     		% Außerdem werden die extrinsischen Daten der Kamera emrittelt und dokumentiert. Diese können dann genutzt werden, um Rückschlüsse über die
    		% \gls{Welt-coords} eines Pixels zu schließen.
    
    		Im darauffolgenden Kapitel geht es um die eigentlich Erkennung der Fahrspurmarkierungen. Hier wird der entwickelte Algorithmus und die
    		Umsetzung als \glslink{ROS Node}{ROS Node} erläutert.
    
    		Die letzten beiden Kapitel ziehen ein Fazit und Fassen die Ergebnisse zusammen. Außerdem wird ein Ausblick auf
    		Weiterentwicklungs-Möglichkeiten gegeben.