Commit 0b0f560b by Werner Westerkamp

Kap 3 - erstes Drittel

parent a9f84c49
Pipeline #329 passed with stage
in 48 seconds
\chapter{Punktwolke} \chapter{Punktwolke}
\label{chapter:03points} \label{chapter:03points}
Das Erzeugen der Punktwolke soll einfach und schnell sein und mit einer Kinect erfolgen. Das Erzeugen der Punktwolke soll einfach und schnell sein und mit einer Kinect erfolgen.
Aus einem Frame der Kinect, bestehnd aus Farbbild und Tiefenbild, lässt sich einfach eine Punktwolke relativ zur Tiefensensor der Kinect errechnen. Aus einem Frame der Kinect, bestehend aus Farbbild und Tiefenbild, lässt sich einfach eine Punktwolke relativ zum Tiefensensor der Kinect errechnen.
Eine Aufnahme beinhaltet aber nur alle Informationen die aus den 2D Bilder errechnet werden können. Eine Aufnahme beinhaltet aber nur alle Informationen, die aus den 2D Bildern errechnet werden können.
Das heißt man erhält eine Seite des Objektes gut aufgelöst und Artefakte die sich aus dieser Berechnung ergeben. Das heißt, man erhält eine Seite des Objektes gut aufgelöst und Artefakte, die sich aus dieser Berechnung ergeben.
Für die Darstellung in einer VR Umgebung ist dies nicht ausreichend. Für die Darstellung in einer VR Umgebung ist dieses nicht ausreichend.
Der Betrachter kann sich frei in der virtuellen Welt bewegen und erkennt schnell die nicht vorhanden Informationen und Fehler. Der Betrachter kann sich frei in der virtuellen Welt bewegen und erkennt schnell die nicht vorhanden Informationen und Fehler.
Eine Fehlerquelle sind die Kanten von Objekten zu Flächen die von der Kienct nicht gesehen werden. Eine Fehlerquelle sind die Kanten von Objekten zu Flächen, die von der Kinect nicht gesehen werden.
Das Bild der Kinect ist perspektivisch und wird beim errechne der Punktwolke dort ein Punkt approximiert, dann entstehen Flächen die nicht der Realität entsprechen. (siehe \ref{img:KinectSides} ). Das Bild der Kinect ist perspektivisch und wird beim Errechnen der Punktwolke dort ein Punkt approximiert, dann entstehen Flächen die nicht der Realität entsprechen. (siehe \ref{img:KinectSides} ).
\todo{Bild 2 ändern / vergrößern?} \todo{Bild 2 ändern / vergrößern?}
\begin{figure} \begin{figure}
\label{img:KinectSides} \label{img:KinectSides}
\subfigure[Aufnahme aus Sicht der Kinect ]{\includegraphics[width=0.49\textwidth]{Bilder/1FrameKamera.png}} \subfigure[Aufnahme aus Sicht der Kinect ]{\includegraphics[width=0.49\textwidth]{Bilder/1FrameKamera.png}}
\subfigure[Aufnahme von der Seite]{\includegraphics[width=0.49\textwidth]{Bilder/1FrameSeite.png}} \subfigure[Aufnahme von der Seite]{\includegraphics[width=0.49\textwidth]{Bilder/1FrameSeite.png}}
\caption{Aufnahme der Kinect aus verscheidenen Perspectiven In Bild b) sind falsche Punkte zu sehen die durch die Rekonstruktion aus einem 2D Bild entstehen.} \caption{Aufnahme der Kinect aus verscheidenen Perspectiven. In Bild b) sind falsche Punkte zu sehen, die durch die Rekonstruktion aus einem 2D Bild entstehen.}
\end{figure} \end{figure}
Das zweite Problem das es zu lösen galt war das Zusammenfügen von mehreren Aufnahmen aus unterschiedlichen Perspektiven zu einer großen zusammenhängenden Punktwolke. Das zweite Problem, das es zu lösen galt, war das Zusammenfügen von mehreren Aufnahmen aus unterschiedlichen Perspektiven zu einer großen zusammenhängenden Punktwolke.
Um 2 Frames miteinander zu verbinden braucht man die relative Transformation zwischen den beiden Aufnahmen. Um 2 Frames miteinander zu verbinden, braucht man die relative Transformation zwischen den beiden Aufnahmen.
Bei bestehenden Algorithmen wird dies zum Beispiel durch zurückrechnen der Kamerabewegung erreicht \todo{quellen}. Bei bestehenden Algorithmen wird dieses zum Beispiel durch Zurückrechnen der Kamerabewegung erreicht \todo{quellen}.
Solche verfahren sind meist rechenaufwändig und zeitintensiv. Solche Verfahren sind meist rechenaufwändig und zeitintensiv.
Für diese Arbeit war es das Ziel die Kinect mit dem Lighthouse Tracking System zu verbinden. Für diese Arbeit war es das Ziel, die Kinect mit dem Lighthouse Tracking System zu verbinden.
Die Trackingdaten aus SteamVR, bzw OpenVR geben uns eine globale Position aller Aufnahmen und vereinfachen das Erzeugen einer großen Punktwolke. Die Trackingdaten aus SteamVR, bzw OpenVR geben uns eine globale Position aller Aufnahmen und vereinfachen das Erzeugen einer großen Punktwolke.
......
Markdown is supported
0% or
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment