Skip to content
Snippets Groups Projects
Select Git revision
  • Bachelorarbeit default protected
1 result

standdertechnik.tex

Blame
  • standdertechnik.tex 16.01 KiB
    \chapter{Stand der Technik} \label{chap: stand der technik}
    
    	\section{Techniken zur Fahrspurerkennung}
    
    		Das Thema Fahrspurerkennung beschäftigt die Wissenschaft und auch die Automobilindustrie bereits seit einigen Jahren. Im Folgenden werden
    		daher die existierenden üblichen Ansätze zu diesem Thema erläutern. Dabei ist besonders interessant, wie diese in diese Arbeit einfließen.
    
    
    		\subsection{Geometrische und algorithmische Ansätze}
    
    			Bei den klassischen und ältesten Methoden wird an die Thematik mit mathe\-ma\-tisch-geo\-me\-trisch\-en Ansätzen herangegangen. Diese
    			werden zu Algorithmen verknüpft, um unterschiedliche Informationen herauszuarbeiten, zu verknüpfen und das Ergebnis zu verfeinern.
    
    			Grundlage bilden hierbei verschiedene Operationen, mit welchen sich Bilder verändern lassen. Solche Operationen verknüpfen eine bestimmte
    			Menge an Pixeln eines Ursprungsbildes mittels einer mathematischen Operation, um ein neues \gls{Pixel} für das Zielbild zu ermitteln. Ein
    			relativ simples Beispiel hierfür ist das Bilden eines Mittelwertes von jeweils drei Farbpixeln, um ein Schwarzweißbild zu erzeugen.
    			\cite{szelisk:computerVision-algos+application}
    
    			% Häufig kommen bei diesen Operationen sogenannten \gls{Kernel} zum Einsatz. Dabei handelt es sich um Matrizen, welche je nach Anwendung
    			% Werte enthalten. Um nun ein \gls{Pixel} des Zielbildes zu bestimmen, wird ein entsprechender Bildausschnitt im Ursprungsbild ausgewählt und
    			% jeder \gls{Pixel} mit einem Element des \glspl{Kernel} verrechnet. Danach wird die Ergebnis Matrix zum neuen Wert für das Zielpixel zusammen
    			% gefasst, häufig durch simples Summieren. Auf diese weise werden zum Beispiel viele Filterfunktionen umgesetzt.
    
    			% Der für diese Arbeit relevante \gls{gauss-filter} verwendet einen \gls{Kernel}, dessen Werte um den Kernel-Mittelpunkt Normalverteilt
    			% sind. Dieser wird für jeden \gls{Pixel} mit der entsprechend großen \gls{Pixelnachbarschaft} multipliziert und aufsummiert. Dadurch wird
    			% der gewichtete Mittelwert aller Nachbarpixel gebildet und das Bild geglättet.
    
    			Der sehr grobe Ablauf, welcher solche Operationen zu einem Algorithmus verknüpft, ist in \autoref{fig: genersich} skizziert. Dabei sind
    			die Einzelschritte in der Realität jedoch häufig sehr kompliziert. Begonnen wird eigentlich immer mit einem Vorbereitungs-Schritt, da die
    			Bilder einer Kamera nur selten direkt verwendet werden können. Teilweise ist eine solche Vorverarbeitung aber auch hardwareseitig oder in
    			vorgelagerten Programmteilen umgesetzt. Meisten wird das Bild außerdem in ein Schwarzweißbild umgewandelt, da so nur ein Drittel der
    			Pixel untersucht werden müssen, was die Performance verbessert.
    
    			\begin{figure}
    				\includegraphics[scale=.85]{svg/PAP_generisch_markerdetektion.pdf}
    				\caption{Generischer Ablauf von Fahrspurerkennung (nach \cite{laneDetection:aReview})}
    				\label{fig: genersich}
    			\end{figure}
    
    			\pagebreak
    			Bei den sogenannten Features handelt es sich um spezifische, möglichst eindeutige Muster im Bild. Im Fall von Fahrspurmarkierungen sind
    			dies meist Kannten und Ecken ebendieser. Häufig wird hier der \gls{canny} eingesetzt, der von John Canny
    			\cite{Canny:computationAlapproachEdgeDetection} entwickelt wurde. Dieser Algorithmus ist sehr gut zum Identifizieren von Kantenpixeln
    			geeignet und erzeugt ein Binärbild, in dem nur noch ein \gls{Pixel} dicke Umrisse verbleiben.
    
    			Das genaue Vorgehen um Features zu finden und zu verknüpfen, ist Gegenstand von Forschung und Entwicklung. In \cite{laneDetection:aReview}
    			werden  Beispielsweise verschieden Möglichkeiten die Hough Transformation zu verwenden miteinander verglichen und
    			\cite{assistanceSystem:laneDetection-vehicleRecognition} verwendet zusätzlich eine Methode zum Kombinieren von einzelnen Liniensegmenten.
    			\cite{robustLaneMarkingDetection} demonstriert einen Ansatz, um direkt Mittellinien von Fahrspurmarkierungen anhand von bekannten
    			Größenparametern abzuleiten.
    
    			Das Ergebnis kann durch das Einbeziehen weiterer Informationen noch weiter verbessert werden. Oft wird hier  das originale
    			Farbbild mit einbezogen (siehe \cite{laneDetection:aReview}), aber auch das Zurückgreifen auf das vorherige Bild, wie in
    			\cite{LaneDetection_basedOnRidge} eingesetzt, ist möglich.
    
    			\medskip
    			Da diese Techniken bereits langfristig erprobt und daher sehr stark optimiert sind, eignen sie sich besonders gut für den Einsatz in
    			dieser Arbeit. Auch der gezeigte Ablauf wird in dieser Arbeit so angewendet.
    
    			Insbesondere die gezeigten Methoden des \gls{canny} werden später noch einmal aufgegriffen. Die in vielen Quellen erwähnte Hough
    			Transformation wurde aber bereits im Voraus als zu rechenintensiv ausgeschlossen.
    
    
    		\subsection{Deep-Learning Ansätze}
    
    			Alternativ zu den traditionellen Ansätzen wird in den letzten Jahren vor allem an den sogenannten Deep-Learning-Methoden geforscht. Hier
    			werden Neurale Netze verwendet, um Lösungen für besonders schwierigen Situationen wie extremen Lichtverhältnissen oder stark verwitterte
    			Spurmarkierungen zu finden.
    
    			Diese Netzwerke können mittels eines großen Datensatzes an Bildern trainiert werden, um unter unterschiedlichsten, unvorhersehbaren
    			Bedingungen noch Ergebnisse zu erhalten. Dabei gilt, je größer und vielfältiger der Trainingsdatensatz, umso wahrscheinlicher erzielt das
    			trainierte Netzwerk gute Ergebnisse. \cite{survey:deepLeraningInLanemarkerdetection} vergleicht frei verfügbare Datensätze und liefert
    			eine Übersicht für welche Anwendungen diese sich eigen.
    
    			Der generelle Detektierungsablauf ist auch bei Deep-Learning-Methoden der in \autoref{fig: genersich} dargestellte. Je nach Methode und
    			Netzwerk können aber mehrere Schritte vom selben Netzwerk erledigt oder mehrere Netzwerke für die einzelnen Schritte verwendet werden.
    
    			In den letzten Jahren wurden unterschiedlichste Arten von Neuralen Netzen für die Detektion von Spurmarkierungen entwickelt und erprobt.
    			Vier unterschiedliche Netzwerkarten, deren Verwendungszweck und Vorteile, sowie ein Vergleich der Ergebnisse ist in
    			\cite{review:landeDetectionMethodes-deepLearning} nachzulesen. Dort wurden Genauigkeiten von $97\,\percent$ erreicht, allerdings war die
    			Generalisierung der getesteten Modelle nicht immer zuverlässig.
    
    			Der in \cite{survey:deepLeraningInLanemarkerdetection} erstellte Vergleich kommt zu sehr ähnlichen Ergebnissen. Zusätzlich wurde hier die
    			Performance der Netzwerke untersucht und angegeben, wie viele Bilder pro Sekunde verarbeitet werden können. Hier haben sich einige
    			Methoden als sehr viel schneller herausgestellt.
    
    			\medskip
    			Ein großer Nachteil aller Deep-Learning-Methoden ist die benötigen hohe Rechenleistung. Bereist das Training der Netzwerke erfordert einen
    			existierenden, ausreichen großen Datensatz und viel Zeit und Rechenleitung. Aber auch zur Nutzung der fertig trainierten Netzwerkes ist
    			wieder einiges an Rechenleitung notwendig. Hier kann zwar die GPU zu Hilfe genommen werden, es ist aber ein Nachteil gegenüber den
    			traditionellen Ansätzen.
    
    			Dies ist insbesondere für den Anwendungsfall dieser Arbeit ein Problem. Die Ressourcen des JetBots sollen so wenig wie möglich belastet
    			werden, damit dieses mit weiten Anwendungen geteilt werden können. Da einige potenzielle Anwendungen auf die Verwendung von Neuralen
    			Netzen angewehten sind, ist insbesondere die GPU sehr sparsam zu benutzen.
    
    			Daher ist für diese Arbeit die Verwendung von Deep-Learning nicht sinnvoll und findet keine Anwendung.
    
    
    	\section{OpenCV} \label{sec: opencv}
    
    		Das Open-Source-Projekt \gls{OpenCV} (kurz für \emph{Open Source Computer Vision Library}) ist eine Sammlung von Softwaremodulen, die der
    		Bildverarbeitung und dem maschinellen Lernen dienen. Sie verfügt über mehr als 2500 optimierte Algorithmen mit denen Anwendungen wie
    		Objekterkennung, Bewegungserkennung und 3D-Modell Extraktion erstellt werden können. Daher ist sie eine der Standardbibliotheken, wenn es um
    		digitale Bildverarbeitung geht und wird fast immer zur Demonstration neuer Konzepte benutzt. Da sie sowohl in C/\gls{C++}, Java und Python
    		genutzt werden kann, ist sie außerdem sehr vielseitig und hat den Vorteil, dass Konzepte in einer abstrakten Sprache wie \gls{python} getestet
    		werden und später relativ simpel in eine hardwarenahe Programmiersprache übersetzt werden können. Weitere Informationen sind in der
    		Dokumentation des Projektes \cite{OpenCV:homepage} zu finden.
    
    		In dieser Arbeit wird diese Bibliothek daher insbesondere für die Entwicklungsphase verwendet. Da der Bibliothekscode jedoch auch viele
    		potenziell nicht benötigte Zusatzfunktionen mit bring, wird auch ein Wechsel auf eine eigene Implementierung mit besserer Performance in
    		Betracht gezogen.
    
    
    	\section{Das Robot Operating System} \label{sec: ros}
    
    		Das \glslink{ROS}{Robot Operating System} (kurz: ROS) ist eine Sammlung von Software Bibliotheken und Werkzeugen, die zum Erstellen von Roboter
    		Applikationen dienen. Es bietet eine eigene Paketverwaltung über die bestehende Bibliotheksfunktionen für die Verwendung
    		heruntergeladen werden können. Dabei handelte es sich um  verschiedenste Anwendungen, angefangen Treibern, über fertige, direkt anwendbare
    		Algorithmen, bis zu nutzernahen Steueroberflächen und sogar (Lern-)Spiele. Die Webseite des Projektes \cite{ROS:homepage} bietet hierzu
    		weitere Informationen. Außerdem bietet \gls{ROS} Integrationen mit anderen bestehenden Projekten, wie zum Beispiel \gls{OpenCV}.
    
    		Auch wenn es sich bei \gls{ROS} genaugenommen um kein vollständiges Betriebssystem handelt, stellt es für ein solches typische
    		Funktionalitäten zur Verfügung. Beispiele hierfür sind Hardware-Abstraktion, tiefgehende Geräteverwaltung, Verwaltung von Prozessen sowie
    		Informationsweitergabe zwischen diesen und die eben genannte Paketverwaltung und damit verbundene Abstraktion von generischen, allgemein
    		benötigten Funktionen. \cite{ROS:whatsROS}
    
    		\medskip
    		Für diese Arbeit ist \gls{ROS} deshalb interessant, da sich die Ergebnisse so modular an potenzielle weitere Prozesse weitergeben lassen. Dies
    		wird durch \gls{ROS}\todo{ROS's ??} Fähigkeit möglich, Einzelprozesse als sogenannte \glslink{ROS Node}{ROS Nodes} zu erstellen. Jede
    		\gls{ROS Node} kann eigene Informationen als sogenannte \glspl{Topic} veröffentlichen und andere, parallel laufende \glspl{ROS Node} können
    		diese abonnieren.
    
    		Sobald eine Information in einem Prozess bereit ist, verpackt dieser sie in einem der definierten Datentypen als sogenannte \gls{ROS Message}.
    		Diese wird dann veröffentlicht und an alle Abonnenten des \glspl{Topic} verschickt. Diese können dann bei erhalt der \gls{ROS Message} auf
    		diese reagieren.
    
    		So lassen sich einzelne Komponenten dieser Arbeit abgekapselt voneinander umsetzen und stellen ihre Ergebnisse auf potenziellen, später noch
    		entwickelten Prozessen zur Verfügung.
    
    
    	\section{Der JetBot Roboter} \label{sec: JetBot}
    
    		Beim in für diese Arbeit verwendeten Roboter handelt es sich um einen JetBot v2.1 von der Firma Sparkfun. Im Folgenden werden seine
    		Komponenten und Einsatzmöglichkeiten für diese Arbeit näher beschrieben.
    
    		Der Roboter verwendet das von Nvidia produzierte Jetson Nano Entwicklerboard \cite{jetson-nano:homepage}. Hierbei handlet es sich um einen
    		Mini-Computer der speziell für Bildverarbeitung und Selbstlehrende Algorithmen entwickelt wurde. Es verfügt über einen 4-Kern ARM Prozessor
    		als CPU sowie, neben herkömmlichen Anschlüssen für PC-Peripherie, über Anschlüsse für 2 Kameras und mehre GPIO Pins. Dadurch eignet es sich
    		bereits sehr gut für eingebettet Anwendungen.
    
    		Was dieses Board für die Anwendung in der Bildverarbeitung aber besonders interessant mach, ist die integrierte, für die Größe leistungsstarke
    		GPU. Diese kann für grafikintensive Anwendungen, aber vor allem für das Arbeiten mit Neuralen Netzen genutzt werden. Da für diese Arbeit
    		explizit nicht mit Deep Learning gearbeitet wird, um diese Ressourcen für spätere Weiterentwicklung freizuhalten, ist dieses Feature aber
    		hier uninteressant.
    
    		Die Firma Sparkfun bietet für dieses Board den Bausatz \cite{jetbot:Sparkfun} an, um einen selbstfahrenden Roboter zu bauen. Dieser wird für
    		diese Arbeit verwendet. Er stattet das Board mit einer Kamera, zwei steuerbaren Motoren, einem LCD-Display und einer Batterie aus. Der fertig
    		aufgebaute Roboter ist in \autoref{fig: JetBot} zu sehen.
    
    		\begin{figure}
    			\includegraphics[width=.6\textwidth]{img/jetbot_sparkfun.jpg}
    			\caption{SparkFun JetBot AI Kit V2.1 \cite{jetbot:Sparkfun}}
    			\label{fig: JetBot}
    		\end{figure}
    
    		Für diese Arbeit wird der Roboter als funktionstüchtig und einsatzbereit vorausgesetzt. Die Aufbauanleitung ist aber unter
    		\cite{jetbot:Sparkfun} und die Anleitung zum Einrichten unter \cite{jetbot:docs} zu finden.
    
    		Zusätzlich wird ein fertiger Kameratreiber vorausgesetzt. Dieser wurde als \gls{ROS Node} mit dem Namen \lstinline{camera_driver} unter ROS
    		implementiert und stellt alle $0,2\,\s$ ein aktuelles Bild auf dem \gls{Topic} \lstinline{/img/raw} zur Verfügung.
    
    
    		\subsection{Performance Baseline} \label{sub: performance baseline}
    
    			Da die Leistungsfähigkeit des JetBots relativ eingeschränkt ist und eines der Ziele dieser Arbeit lautet, parallel zu anderen, zukünftigen
    			Prozessen laufen zu können, ist es wichtig möglichst Performant zu arbeiten. Daher wird ermittelt, wie sehr der JetBot vor Beginn dieser
    			Arbeit bereits ausgelastet ist.
    
    			Begonnen wird mit der Grundleistung ohne irgendwelche laufenden Prozesse unter \gls{ROS}. Das bedeutet, das nur das Betriebssystem und
    			seine Standard-Applikationen, wie zum Beispiel der SSH-Server, laufen. Dazu wird das Terminalprogramm \lstinline{jtop} verwendet, welches
    			viele Systeminformationen und Performance-Messwerte gesammelt anzeigt. Ein Screenshot ist in \autoref{fig: jtop baseline} gezeigt.
    
    			\begin{figure}
    				\includegraphics[width=.6\textwidth, trim={0 0 12px 31px}, clip]{img/jtop_baseline.png}
    				\caption{CPU Auslastung des JetBots ohne \gls{ROS}}
    				\label{fig: jtop baseline}
    			\end{figure}
    
    			Da alle in dieser Arbeit entwickelten Programme lediglich die CPU benutzen, ist dies der einzige relevante Messwerte. Trotze sind die
    			anderen Werte interessant und werden mit dokumentiert. Wie man im Screenshot sieht, ist das System in diesem Fall kaum belastet. Die
    			Auslastung ohne irgendwelche laufenden Prozesse liegt bei $\approx8.25\,\percent$.
    
    			Relevanter ist aber der Fall mit laufender Kamera, da dies die Voraussetzung für diese Arbeit ist. Wird die Kamera-\gls{ROS Node}
    			gestartet und erneut \lstinline{jtop} überprüft, ergibt sich die in \autoref{fig: jtop cam baseline} gezeigte Screenshot.
    
    			\begin{figure}
    				\includegraphics[width=.6\textwidth, trim={0 0 12px 31px}, clip]{img/jtop_camera.png}
    				\caption{CPU Auslastung mit laufender Kamera und ROS-Core}
    				\label{fig: jtop cam baseline}
    			\end{figure}
    
    			Dort ist die CPU-Auslastung deutlich höher und liegt bei $\approx38\,\percent$. Es ist allerdings zu beachten, dass dies nicht
    			ausschließlich auf die Kamera-\gls{ROS Node} zurückzuführen ist. Um überhaupt \glslink{ROS Node}{ROS Nodes} benutzen zu können, muss das
    			sogenannte ROS Core gestartet sein. Diese geschieht automatisch beim Starten der ersten Node. Es ist für den Großteil der zusätzlichen
    			Auslastung verantwortlich, sodass zusätzliche \glspl{ROS Node} die Auslastung nur geringfügig erhöhen werden.
    
    
    	\section{Aufgebaute Fahrbahnfläche} \label{sec: anlgae}
    
    		Zum Testen des JetBots für diese Arbeit und andere Projekt wurde eine Projektanlage aufgebaut. Diese besteht aus einer im Maßstab $1\!:\!18$
    		herunterskalierten Fläche mit aufgedruckter Fahrbahnfläche. Die folgende Abbildung zeigt die Testfläche. Diese hat eine Größe von $200\,\m^2$
    		und Abmessungen von $20\,\m\!\times\!10\,\m$. Weitere Informationen können dem Projektbericht \cite{bericht:FlächeAutonomesFahren} entnommen
    		werden.
    
    		\begin{figure}
    			\includegraphics[width=\textwidth]{img/Fläche_autonomes_Fahren.jpg}
    			\caption{Ansicht von oben auf die Fahrbahnfläche \cite{bericht:FlächeAutonomesFahren}}
    		\end{figure}