Commit f0e11f63 by Philipp Adolf

Füge \bzw{} hinzu und benutze es

parent 7d91dfb8
......@@ -22,7 +22,7 @@ Um 2 Frames miteinander zu verbinden, braucht man die relative Transformation zw
Bei bestehenden Algorithmen wird dieses zum Beispiel durch Zurückrechnen der Kamerabewegung erreicht \todo{quellen}.
Solche Verfahren sind meist rechenaufwändig und zeitintensiv.
Für diese Arbeit war es das Ziel, die Kinect mit dem Lighthouse Tracking System zu verbinden.
Die Trackingdaten aus SteamVR, bzw OpenVR geben uns eine globale Position aller Aufnahmen und vereinfachen das Erzeugen einer großen Punktwolke.
Die Trackingdaten aus SteamVR, \bzw{} OpenVR geben uns eine globale Position aller Aufnahmen und vereinfachen das Erzeugen einer großen Punktwolke.
\section{Frames aufnehmen und bereinigen}
......
......@@ -72,7 +72,7 @@ Jeder Knoten kann eine Transformation im lokalen Raum definieren, bestehend aus
Jeder Knoten kann eine Mesh und damit die eigentliche Geometrie referenzieren.
Diese Geometrie wird in Buffern als Binärdaten gespeichert. Diese sind entweder als Base64 String direkt im JSON oder als zusätzliche Binärdatei gespeichert.
Auf einen Buffer wird mit einem Accessor und einer Bufferview zugegriffen. In diesen ist spezifiziert, in welchem Format die Daten vorliegen (z.B. ein Array aus 2D Vektoren (VEC2) aus UNSIGNED SHORT).
Alle Datenformate entsprechen Formaten, die in OpenGL vorliegen, sodass die Daten ohne Konvertierung in OpenGL Vertex Array Objetkts (VAO), bzw. Vertex Buffer Objekts (VBO) umgewandelt werden können.
Alle Datenformate entsprechen Formaten, die in OpenGL vorliegen, sodass die Daten ohne Konvertierung in OpenGL Vertex Array Objetkts (VAO), \bzw{} Vertex Buffer Objekts (VBO) umgewandelt werden können.
Jedes Mesh kann auf ein Material referenzieren. Materialien bestehen aus Materialparametern, Texturen und Techniken.
Techniken bestehen hauptsächlich aus einem GLSL Shader Programm, das ebenfalls im glTF mitgeliefert wird.
......
......@@ -74,7 +74,7 @@ Im Video Szenario wird der Videostream angeschaltet, sodass dieser als Interakti
Nachdem der Lokale Nutzer den gesuchten Stein erkannt hat liest dieser die Beschriftung vor.
Der Experte hat selber bestimmt wann er zum nächsten Aufgabenteil voranschreitet.
Nachdem er aus dem Vorbereitungsdaten den Stein erkannt hat drückt er eine Taste (Controller Trigger/ Enter) und bekommt damit zugriff auf den Laserbeam bzw den Videostream.
Nachdem er aus dem Vorbereitungsdaten den Stein erkannt hat drückt er eine Taste (Controller Trigger/ Enter) und bekommt damit zugriff auf den Laserbeam \bzw{} den Videostream.
Wurde das Label vorgelesen kann er erneut mit der gleichen Taste zur nächsten Aufgabe gelangen.
Bei jedem Tastendruck wird die aktuelle Uhrzeit gespeichert und damit können die Zeiten errechnet werden können.
......@@ -203,7 +203,7 @@ Dies Info kann der Experte im Video sehen und direkt beantworten.
Bei Funktionierendem Tracking hat der Beam gute Ergebnisse geliefert.
Einige Teams konnte durch zeigen und zusätzliches sagen der Farbe den Stein eindeutig beschreiben.
Damit ist der Beam zumindest ein gute Grundorientierung für den lokalen Nutzer.
Ein großes Problem mit dem tracking waren kleine konstante Verschiebungen in eine globale Richtung (Kalibrierfehler, bzw. Längeuntreue).
Ein großes Problem mit dem tracking waren kleine konstante Verschiebungen in eine globale Richtung (Kalibrierfehler, \bzw{} Längeuntreue).
Bei kleine Verschiebungen wurde dies zwar als störend empfunden, aber wenn bekannt ist wie die Verschreibung ist, dann kann diese im Kopf ausgeglichen werden.
Ein weites Problem das in den freien Texten genannt wurde waren zittrige Hände.
......
......@@ -57,7 +57,7 @@ Klickt der Lokale Nutzer in der Welt etwas an so wird die Linie zwischen Kopf un
Eine weiter Hilfreiche Ergänzung könnte das Visualisieren von Avataren in VR und AR sein.
Allein die Visualisierung der aktuellen Kopfposition (Headsets) des Partners könnte darüber Aufschluss geben, was dieser gerade betrachtet.
Eine Weitere Interaktionsmöglichkeit wäre das platzieren von 3D Objektenbzw Hologrammen in der Welt.
Eine Weitere Interaktionsmöglichkeit wäre das platzieren von 3D Objekten \bzw{} Hologrammen in der Welt.
Der Experte hätte damit z.B. die Möglichkeit Referenzobjekte direkt darzustellen.
Bei animierten Hologrammen könnten so direkt Montageschritte visualisiert werden.
\todo{cite Virtual Proxy}
......
......@@ -23,6 +23,8 @@
\usepackage{pdfpages}
\usepackage{pgfplots}
\usepackage{xspace}
\pgfplotsset{compat=newest}
\usetikzlibrary{pgfplots.statistics}
......@@ -65,6 +67,11 @@
\newcommand{\timeend}{30.11.2017}
\newcommand{\submissiontime}{xx.xx.xxxx}
%% ------------------------
%% | Common abbreviations |
%% ------------------------
% mbox so that it does not get hyphenated, xspace to add a space afterwards only if needed}
\newcommand{\bzw}{\mbox{bzw.}\xspace}
%% ---------------------------------
%% | ToDo Marker - only for draft! |
......
Markdown is supported
0% or
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment