Commit 1ff8b403 by Kai Westerkamp

test

parent df28e0c2
......@@ -152,7 +152,7 @@ In Bild \ref{img:KinecttoVive-Befestigung} ist die 3D gedruckte Halterung zu seh
\section{Ergebnisse}
Mit dem vorgestellten Verfahren lässt sich einfach und schnell eine Punktwolke erstellen.
Die Ungenauigkeiten des Trackings und Fehler in der Kalibrierung führen aber zu sichtbaren Fehlern in der endgültigen Punktwolke. \todo{Bild}
Die Ungenauigkeiten des Trackings und Fehler in der Kalibrierung führen aber zu sichtbaren Fehlern in der endgültigen Punktwolke (siehe Abb. \ref{img:CloudRaw}).
Zwischen 2 Aufnahmen und den daraus resultierenden Punktwolken ist ein Versatz bis zu 2--3 cm sichtbar.
In einer 3D-Umgebung, insbesondere in VR, ist das eine zu große Ungenauigkeit.
Durch die Ungenauigkeiten des Trackings verändert sich die Genauigkeit und damit der Versatz der Punktwolken ständig.
......@@ -162,4 +162,13 @@ Dieses Problem erschwert es, die Kalibrierung zwischen Controller und Kinect zu
Im Gegensatz zur Translation war die Messung der Rotation sehr genau und erzeugte keine sichtbaren Fehler beim Zusammenfügen der unterschiedlichen Punktwolken.
\begin{figure}
\begin{center}
\includegraphics[width=\textwidth]{Bilder/PunktwolkeRaw.png}
\caption{Eiene Punktwolkenaufnahme mit der vorgstellten Technik. Hierbei wurden 12 Aufnahmen aus verscheidenen Richtugne zu eienr Punktwolke zusammengefügt. An den Kanten sind sichtbare Verscheibungen zu erkennen. }
\label{img:CloudRaw}
\end{center}
\end{figure}
......@@ -91,7 +91,6 @@ Bei kleineren Punktwolken werden die nicht verwendeten Quadrate verworfen.
Die resultierenden Punktwolken funktionieren für den Anwendungsfall und die in dieser Arbeit verwendeten relativ kleinen Punktwolken sind in VR visualisierbar.
Außer dem Deaktivieren von Schattenberechnungen wurden keine Performance Optimierungen vorgenommen.
Die Beispielwerte wurden mit einem i7 6700 und eine GTX 1070 aufgenommen. Eine genaue Analyse ist nicht erfolgt.
\todo{punktwolkengröße}
Eine Punktwolke mit 1596685 einzelnen Punkten erreicht ca. 60fps (siehe Bild \ref{img:Pnts1}. Hierbei ist zu bedenken, dass die ganze Quadchain von $2^20$ Punkten gerendert wird und überflüssige Geometrie erst im Shader/Material verworfen wird.
Bei 4 einzelnen Punktwolken mit 443175 Punkten ( 110369, 115991, 110377, 106438; 4 Instanzen der Quadchain) erreicht dieses Vorgehen ca. 44 fps.
Für eine große Punktwolke mit 1797690 Punkten gesplittet in 2 Instanzen sind es ebenfalls 44 fps.
......@@ -102,7 +101,7 @@ Für eine große Punktwolke mit 1797690 Punkten gesplittet in 2 Instanzen sind e
\subfigure[Gesamte Punktwolke]{\includegraphics[width=\textwidth]{Bilder/Punktwolke1.png}}
\subfigure[Nahaufnahme ]{\includegraphics[width=\textwidth]{Bilder/Punktwolke2.png}}
\caption{Punktwolke mit 1596685 Punkten. Die Textur im Hintergrund ist die zugehörige Positionstextur, Rechts oben ist FPS und die Renderzeit in ms zu sehen }
\caption{Punktwolke mit 106438 Punkten. Die Textur im Hintergrund ist die zugehörige Positionstextur, Rechts oben ist FPS und die Renderzeit in ms zu sehen }
\label{img:Pnts1}
\end{center}
\end{figure}
......
......@@ -427,3 +427,14 @@ ylabel={Zeit in s},
\end{tikzpicture}
\end{figure*}
\end{landscape}
\section{Datenträger}
Auf dem beigefugten Datenträger be nden sich:
\begin{itemize}
\item Masterarbeit: PDF und Latex Quellcode
\item Die entwickelte Unreal Engine Anwendung
\item Die entwickelte Software zum Aufnehmen der Punktwolke
\item Evaluation: Fragebögen und Auswertung
\end{itemize}
......@@ -288,5 +288,10 @@ keywords = "Virtual environments, Virtual prototyping, Digital mock-ups, Assembl
note = {Accessed: 2017-11-26}
}
@misc{vrBest,
title = {Virtual Reality Best Practices},
howpublished = {\url{https://docs.unrealengine.com/latest/INT/Platforms/VR/ContentSetup/#vrandsimulationsickness}},
note = {Accessed: 2017-11-26}
}
Markdown is supported
0% or
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment