Das Erzeugen der Punktwolke soll einfach und schnell sein und mit einer Kinect erfolgen.
Das Erzeugen der Punktwolke soll einfach und schnell sein und mit einer Kinect erfolgen.
Aus einem Frame der Kinect, bestehend aus Farbbild und Tiefenbild, lässt sich einfach eine Punktwolke relativ zum Tiefensensor der Kinect errechnen.
Aus einem Frame der Kinect, bestehend aus Farbbild und Tiefenbild, lässt sich einfach eine Punktwolke relativ zum Tiefensensor der Kinect errechnen.
Eine Aufnahme beinhaltet aber nur die Informationen, die aus den 2D-Bildern errechnet werden können.
Eine Aufnahme beinhaltet aber nur die Informationen, die aus den 2D-Bildern errechnet werden können.
Das heißt, man erhält eine Seite des Objektes gut aufgelöst und Artefakte, die sich aus dieser Berechnung ergeben.
Das heißt, dass man von einer Seite des Objekts \todo{Welches Objekt? Wird vorher nicht erwähnt} ein gut aufgelöstes Modell. Die anderen Seiten enthalten aber Artefakte beziehungsweise fehlen komplett.
Für die Darstellung in einer VR Umgebung ist dieses nicht ausreichend.
Für die Darstellung in einer VR Umgebung ist dieses nicht ausreichend, da sich der Betrachter frei in der virtuellen Welt bewegen kann und schnell die Fehler im Modell erkennt.
Der Betrachter kann sich frei in der virtuellen Welt bewegen und erkennt schnell die nicht vorhanden Informationen und Fehler.
Eine Fehlerquelle sind die Kanten von Objekten zu Flächen, die von der Kinect nicht gesehen werden.
Eine Fehlerquelle sind die Kanten von Objekten zu Flächen, die von der Kinect nicht gesehen werden.
Das Bild der Kinect ist perspektivisch und wird beim Errechnen der Punktwolke dort ein Punkt approximiert, dann entstehen Flächen, die nicht der Realität entsprechen. (siehe \ref{img:KinectSides})
Das Bild der Kinect ist perspektivisch und wird beim Errechnen der Punktwolke dort ein Punkt approximiert, dann entstehen Flächen, die nicht der Realität entsprechen. (siehe \ref{img:KinectSides})