@@ -118,29 +118,29 @@ Eine Erweiterung dieses Prinzips ist von Bauer et al. \cite{806696} vorgestellt
Hierbei wird in einem AR-HMD des lokalen Nutzers der 2D-Mauszeiger des Experten eingeblendet.
Die Position des Mauszeigers ist aber schnell veraltet, wenn sich der lokale Nutzer bewegt.
Jedoch sieht der Experte hierbei nur ein 2D-Abbild der Realität, das für komplexere 3D-Aufgaben nicht immer ausreicht.
Christine et al. \cite{Chastine:2008} ermöglichen es dem Experten, einen dreidimensionalen Pfeil in der lokalen Ansicht zu manipulieren.
Jedoch ist das Ausrichten des Pfeil schwierig und zeitintensiv.
Chastine et al. \cite{Chastine:2008} ermöglichen es dem Experten, einen dreidimensionalen Pfeil in der lokalen Ansicht zu manipulieren.
Jedoch ist das Ausrichten des Pfeils schwierig und zeitintensiv.
Botteccia et al. \cite{Bottecchia:2010} erlauben dem Experten, vorgefertigte 3D-Animationen im Sichtfeld des lokalen Nutzers zu platzieren.
Dieses Vorgehen dient dazu, dem lokalen Nutzer zu demonstrieren, wie eine Aufgabe zu lösen ist, jedoch ist dieses Vorgehen wegen den vorgefertigten Animationen nicht sehr flexibel.
Tachia et al. \cite{Tecchia:2012} nutzen statische Tiefensensoren, um dynamisch die Umgebung des Experten und des lokalen Nutzers aufzunehmen.
Die 3D-Szene des Lokalen Nutzers und die Hände des Experten werden zusammengefügt und beiden Seiten präsentiert.
Die 3D-Szene des lokalen Nutzers und die Hände des Experten werden zusammengefügt und beiden Seiten präsentiert.
Das erlaubt dem Experten mit Handgesten Hilfestellungen zu geben.
Kurata et al. \cite{1364691} haben ein System entwickelt, bei dem der lokale Nutzer eine Kamera und einen Laserpointer auf der Schulter trägt.
Der Experte sieht die Umgebung durch die Kamera und kann mit dem Laserpointer einen Point of Interest in der echten Welt markieren.
Lanir et al. \cite{Lanir:2013:OCP:2470654.2481309} haben dieses Konzept erweitert.
Auf einem beweglichen Roboterarm wurde eine Kamera und ein portabler Beamer befestigt.
Der Experte kann den Roboterarm steuern und so seine Sicht anpassen und mit dem Beamer 2D-Einzeichnungen in die Echte Welt projizieren.
Der Experte kann den Roboterarm steuern und so seine Sicht anpassen und mit dem Beamer 2D-Einzeichnungen in die echte Welt projizieren.
Oda et al. \cite{Oda:2015:VRR:2807442.2807497} haben ein System vorgestellt, bei dem der Experte virtuelle Replicas manipuliert.
Oda et al. \cite{Oda:2015:VRR:2807442.2807497} haben ein System vorgestellt, bei dem der Experte virtuelle Replikate manipuliert.
Die Objekte beim lokalen Nutzer werden durch ein optisches Trackingsystem lokalisiert.
In einer VR-Umgebung werden für einen Experten zugehörige virtuelle Proxys visualisiert.
Diese virtuellen Proxys sind vorgefertigte 3D-Repräsentationen der Objekte.
Der Experte erklärt dem lokalen Nutzer, wie er die Objekte zusammenzubauen hat.
Hierfür stehen dem Experten virtuelle Replikate zur Verfügung.
Der Experte kann ein Objekt virtuell kopieren und an die richtige Position setzen.
Der Lokale Benutzer bekommt diese virtuelle Kopie relativ zu den Originalen in seiner AR-Umgebung visualisiert.
Der lokale Benutzer bekommt diese virtuelle Kopie relativ zu den Originalen in seiner AR-Umgebung visualisiert.
...
...
@@ -218,12 +218,12 @@ Die Microsoft HoloLens \cite{Hololens1} ist eine Augmented Reality Brille, die e
Die Brille funktioniert ohne zusätzliche Hardware wie einen Smartphone oder einem zusätzlichen Computer.
Der Nutzer schaut auf jedem Auge durch einen transparenten Bildschirm, auf dem 3D-Projektionen eingeblendet werden.
Die Steuerung erfolgt durch Kopfbewegungen, Gesten und Sprachsteuerung.
Die Hololens verfügt über ein Inside-Out-Tracking zur Positionsbestimmung in Räumen.
Die HoloLens verfügt über ein Inside-Out-Tracking zur Positionsbestimmung in Räumen.
Als Sensoren werden ein Beschleunigungsensor, ein Gyroskop, ein Magnetometer, eine Tiefenkamera und vier ``environment understanding'' Kameras \cite{Hololens2} verwendet.
Die Hololens baut sich mit Hilfe dieser Sensoren ein grobes Mesh der Umgebung auf, das es regelmäßig updatet und verfeinert.
\subsection{Unreal Engine4}
\subsection{Unreal Engine4}
Die Unreal Engine 4 \cite{UE4} ist eine der meistgenutzten Spiele-Engines.
Die Engine wird von Epic Games entwickelt und kann bis zu einem Jahresumsatz von 3000 US-Dollar kostenlos genutzt werden.
Unreal unterstützt viele verschiedene Plattformen wie Konsolen, Smartphones, PCs und Virtual Reality.
...
...
@@ -242,7 +242,7 @@ Reicht die Funktionalität der Blueprints nicht aus, so wurden diese Funktionen
\subsection{Unity}
Unity \cite{unity} ist wie die Unreal Engine eine der meistgenutzten Spieleplatformen.
Unity \cite{unity} ist wie die Unreal Engine eine der meistgenutzten Spieleplattformen.
Sie verfügt über einen ähnlichen Funktionsumfang und die Programmierung erfolgt in C\#.
Ein wichtige Unterschied ist, dass Unity die Entwicklung für die HoloLens und die Universal Windows Plattform (UWP) unterstützt.
Deshalb wurde für die Entwicklung der HoloLens-Anwendung Unity verwendet.
...
...
@@ -257,7 +257,7 @@ Zu der Kinect wurde 2012 ein nichtkommerzielles Software Development Kit veröff
Das SDK verfügte unter anderem über Treiber für Windows und bietet die Möglichkeit in C++, C\# oder Visual Basic Applications auf die Kinect zuzugreifen.
Unter anderem können ungefilterte Sensordaten abgegriffen werden, aber auch das erkannte Skelett von Personen, die sich im Sichtfeld befinden.
Außerdem bietet das SDK die Möglichkeit, ein Tiefenbild in eine Punktwolke umzuwandeln.
Die Kinect wurde in vielen Forschungsprojekten verwendet. Es ist ein einheitlicher, günstiger Sensor der Tiefendaten aufnimmt.
Die Kinect wurde in vielen Forschungsprojekten verwendet. Es ist ein einheitlicher, günstiger Sensor, der Tiefendaten aufnimmt.
Außerdem werden viele benötigten Funktionen direkt im SDK mitgeliefert.
In dieser Arbeit wurde eine Kinect 2 für das Aufnehmen einzelner Punktwolken verwendet.