Commit cea02bfe by Werner Westerkamp

Kapitel 7 Zeile 200

parent 46abc904
......@@ -140,18 +140,18 @@ Insgesamt wurden die Evaluation mit 13 Teams mit jeweils 2 Personen durchgeführ
Bei den Versuchen 2 und 5 gab es technische Probleme mit dem VR /AR Setup (große tracking Ungenauigkeiten und Abbrüche). Deshalb wurden diese Testläufe komplett aus den Daten gestrichen.
Für die folgende Evaluation werden nur die Daten der verbleibenden 11 Teams mit insgesamt 22 Personen betrachtet.
An der Studie nahmen 19 männlich und 3 weibliche Probanden teil. Für die Evaluation wird nur die männliche Sprachform verwendet. Alle Aussagen beziehen sich aber auf beiden Geschlechter.
In der Altersgruppe bis 20 Jahren waren 2 Teilnehmer, von 20 bis 30 Jahren 17 Teilnehmer und in der Altersgruppe von 30 bis 40 Probanden. %@@ Wieviel in der letzten Altersgruppe?
In der Altersgruppe bis 20 Jahren waren 2 Teilnehmer, von 20 bis 30 Jahren 17 Teilnehmer und in der Altersgruppe von 30 bis 40 Probanden. %@@ Wieviele in der letzten Altersgruppe?
6 der Probanden nutzten eine Sehhilfe und 2 gaben an, an einer Rot-Grün Schwäche zu leiden.
Aus den freien Antworten geht hervor, das eine Rot-Grün Schwäche in dem Versuchsaufbau keine Einschränkungen mit sich brachte.
Aus den freien Antworten geht hervor, dass eine Rot-Grün Schwäche in dem Versuchsaufbau keine Einschränkungen mit sich brachte.
Die rote und grüne Farbe der Duplosteine sei kräftig und unterschiedlich genug, sodass diese trotzdem erkennbar waren.
Jeder Proband wurde nach Erfahrung zu Virtaul Reality und Augmented Realtiy und die dabei verwendeten Systeme gefragt (siehe Box Plot \ref{plot:Erfahrung}).
Dabei ist zu erkennen das viele Personen schon einiges an Erfahrung gesammelt habe.
Dabei ist zu erkennen, dass viele Personen schon ausgeprägte Erfahrungen gesammelt habe. %@@@ gilt nur für VR, oder? Dann muss man das hier einschränken.
Der Median der Befragten lag bei 1 wobei -3 für keine Erfahrung und 3 für sehr viel Erfahrung steht.
Verwendete Systeme waren hierbei Vive (13), Playstation VR (6), Oculus rift (6) und verschiedenen Systeme die ein Handy nutzen (8; Cardboard, Daydream, Gear VR, etc.).
Augmented Reality ist hingegen noch nicht bei der Allgemeinheit angekommen.
14 der 22 Probanden gaben an noch keine AR Erfahrung zu haben (Median -3).
Die Restlichen gaben Erfahrungen mit der HoloLens und mit Pokemon Go an.
Verwendete Systeme waren hierbei Vive (13), Playstation VR (6), Oculus Rift (6) und verschiedenen Systeme, die ein Handy nutzen (8; Cardboard, Daydream, Gear VR, etc.).
Augmented Reality ist hingegen noch nicht bei der Allgemeinheit angekommen. %@@@ Diene Stichprobe ist vermutlich nicht repräsentativ für die Allgemeinheit...
14 der 22 Probanden gaben an, noch keine AR Erfahrung zu haben (Median -3).
Die restlichen gaben Erfahrungen mit der HoloLens und mit Pokemon Go an.
\input{Charts/Erfahrung}
......@@ -163,18 +163,18 @@ Die Restlichen gaben Erfahrungen mit der HoloLens und mit Pokemon Go an.
Zunächst betrachten wir die Vorbereitung des Experten.
In beiden Szenarien bekam der Experte ein Farbsequenz und sollte den gesuchten Stein in den Turmpaaren erkennen.
Im VR Szenario hatte er dazu die Punktwolke gesehen und im Video Szenario standen dem Experte 6 Bilder aus unterschiedlichen Perspektiven zur Verfügung.
Im Fragebogen wurde gefragt wie einfach es sei den Stein zu finden (Plot \ref{plot:Finden}).
Hierbei gaben die Experten im Video Szenario an, dass das Auffinden des Steins sehr einfach sei (Median 3), wobei der VR Experte dies als signifikant \todo{check} schwere einstufte (Median 1).
Im Fragebogen wurde gefragt, wie einfach es sei, den Stein zu finden (Plot \ref{plot:Finden}).
Hierbei gaben die Experten im Video Szenario an, dass das Auffinden des Steins sehr einfach sei (Median 3), wobei der VR Experte dieses als signifikant \todo{check} schwerer einstufte (Median 1).
Diese Einstufung ging zusätzlich auch aus den freien Kommentaren hervor.
6 der Experten fanden die Punktwolke ``schwer sichtbar'' ``pixelig'' und ``ungenau'' und haben vermutlich deshalb das finden als schwieriger eingestuft.
6 der Experten fanden die Punktwolke ``schwer sichtbar'', ``pixelig'' und ``ungenau'' und haben vermutlich deshalb das Finden als schwieriger eingestuft.
Während des Versuchs wurde auch die Zeit für die Vorbereitung gemessen.
In dem Abbildung \ref{plot:Vorberitung} sind die Zeiten eingezeichnet.
In der Abbildung \ref{plot:Vorberitung} sind die Zeiten eingezeichnet.
Bei 4 Gruppen war der Video Experte schneller als der VR Experte, bei Gruppe 1 auch signifikant schneller.
In den restlichen 7 Gruppen war der VR Experte schneller bei den Gruppen 10 und 13 auch hier signifikant.
Im Durchschnitt über alle Versuche hat der VR Experte 9,9 Sekunden und der Video Experte 11 gebraucht.
Damit ist das Stein finden im VR Szenario im Durchschnitt 1,1s schneller aber es konnte keine statistische Signifikanz festgestellt werden.\todo{Check}
Bemerkenswert ist das 5 von 6 Experten, die die Punktwolke kritisiert haben im VR Szenario schneller waren als Ihr Partner als Experte im Video Szenario.
Ein Aspekt auf dem in diesem Test nicht eingegangen wurde ist der jeweilige Experte selber.
Im Durchschnitt über alle Versuche hat der VR Experte 9,9 Sekunden und der Video Experte 11 Sekunden gebraucht.
Damit ist das Steinfinden im VR Szenario im Durchschnitt 1,1s schneller, aber es konnte keine statistische Signifikanz festgestellt werden.\todo{Check}
Bemerkenswert ist, dass 5 von 6 Probanden in der Expertenrolle, die die Punktwolke kritisiert haben, im VR Szenario schneller waren als ihr Partner als Experte im Video Szenario.
Ein Aspekt auf dem in diesem Test nicht eingegangen wurde, sind die persönlichen Qualifikationen der jeweilige Experte. %@@@ richtig korrigiert?
Dieser könnte Einfluss auf das Messergebnis haben.
\input{Charts/SteinFinden}
......@@ -188,27 +188,27 @@ Im VR Szanario stand hierfür der Laser Strahl zur Verfügung, und im Video Szen
\subsubsection{Videostream}
Der Videostream wurde teilweise als verwirrend wahrgenommen und dann von dem Experten fast vollständig ignoriert.
Die meisten Teams haben sich bei den ersten Versuchsdurchläufen direkt oder Indirekt auf eine gemeinsame Bezeichnung der Türme geeinigt.
Häufig wurde links und rechts verwendet, aber auch unterschiedliche Merkmale in den Türmen wie der Turm mit der blauen Spitze oder der Turm mit der Deutschland Flagge.
Links und rechts funktionieren insbesondere dann sehr gut wenn der Nutzer nach jedem vorgelesen Label an seine Ausgangsposition zurückkehrt.
Die meisten Teams haben sich bei den ersten Versuchsdurchläufen direkt oder indirekt auf eine gemeinsame Bezeichnung der Türme geeinigt.
Häufig wurde links und rechts verwendet, aber auch unterscheidende Merkmale in den Türmen, wie der Turm mit der blauen Spitze oder der Turm mit der Deutschlandflagge.
Links und rechts funktionieren insbesondere dann sehr gut, wenn der Nutzer nach jedem vorgelesenen Label an seine Ausgangsposition zurückkehrt.
Ansonsten ist diese Bezeichnung teilweise verwirrend für den Experten.
Ändert sich die Ansicht des lokalen Nutzers ständig, können sich auch die Bezeichner für jeweiligen Türme ändern.
Außerdem wackelt die Kamera stark wenn sich der lokalen Nutzer bewegt, zum Beispiel um die Beschriftung vorzulesen.
Deshalb haben einige Teams nach dem initialen einigen über die Bezeichnungen der Türme, den Videostream nicht wirklich betrachtet.
Außerdem wackelt die Kamera stark, wenn sich der lokalen Nutzer bewegt, zum Beispiel, um die Beschriftung vorzulesen.
Deshalb haben einige Teams nach dem initialen Einigen über die Bezeichnungen der Türme, den Videostream nicht für die Lösung der Aufgabenstellung verwendet. %@@@ richtig verändert?
bei andern Teams wurde der Videostream als direktes Feedback benutzt.
Der lokale Nutzer hat zum Beispiel mit einem Finger auf einen Turm oder Stein gezeigt und nachgefragt ob er das richtig verstanden hat.
Dies Info kann der Experte im Video sehen und direkt beantworten.
bei anderen Teams wurde der Videostream zum direkten Feedback benutzt.
Der lokale Nutzer hat zum Beispiel mit einem Finger auf einen Turm oder Stein gezeigt und nachgefragt, ob er das richtig verstanden hat.
Diese Info kann der Experte im Video sehen und die Kontrollfrage direkt beantworten.
\subsubsection{VR/AR Strahl}
Bei Funktionierendem Tracking hat der Beam gute Ergebnisse geliefert.
Einige Teams konnte durch zeigen und zusätzliches sagen der Farbe den Stein eindeutig beschreiben.
Bei funktionierendem Tracking hat der Beam gute Ergebnisse geliefert.
Einige Teams konnte durch Zeigen und zusätzliches Sagen der Farbe den Stein eindeutig beschreiben.
Damit ist der Beam zumindest ein gute Grundorientierung für den lokalen Nutzer.
Ein großes Problem mit dem tracking waren kleine konstante Verschiebungen in eine globale Richtung (Kalibrierfehler, bzw. Längeuntreue).
Bei kleine Verschiebungen wurde dies zwar als störend empfunden, aber wenn bekannt ist wie die Verschreibung ist, dann kann diese im Kopf ausgeglichen werden.
Ein großes Problem mit dem tracking waren kleine konstante Verschiebungen in eine globale Richtung (Kalibrierfehler, bzw. Längenuntreue).
Bei kleine Verschiebungen wurde dieses als störend empfunden, aber wenn bekannt ist, wie die Verschreibung ist, dann kann diese im Kopf ausgeglichen werden. %@@@ Konnte man das bei den Probanden auch beobachten?
Ein weites Problem das in den freien Texten genannt wurde waren zittrige Hände.
Diese kleinen Bewegungen werden mit übertragen und können dem lokalen Nutzer das erkennen erschweren.
Ein weites Problem, das in den freien Texten genannt wurde, waren zittrige Hände. % @@@ hattest du Parkinsonpatienten ;-)
Diese kleinen Bewegungen werden mitübertragen und können dem lokalen Nutzer das Erkennen erschweren.
\subsubsection{Sprachliche Kommunikation}
\input{Charts/wichtigKommunikation}
......
Markdown is supported
0% or
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment