Commit ac63bf26 by Kai Westerkamp

so related done

(glaubich)
parent 6ee2935d
Pipeline #383 passed with stage
in 1 minute 7 seconds
......@@ -63,7 +63,7 @@ keine Kameras die vom Virtuellen Körper losgelöst werden und keine unnatürli
\section{Augmented Reality (AR)}
%http://etclab.mie.utoronto.ca/people/paul_dir/SPIE94/SPIE94.full.html
\begin{figure}
\begin{center}
......@@ -112,10 +112,39 @@ Bewegt man sich zu schnell so bricht der Scan ab und man kann erneut beginnen.
%http://www.kscan3d.com/ -> nicht merh supported :(
\section{VR AR Assistance}
\cite{Oda:2015:VRR:2807442.2807497} Viirtuelle Proxys
\section{AR Fernunterstützung}
In der Literatur gibt es Ansätze wie eine lokaler Nutzer, auch Techniker gennannt, von einem einem entfernten Experten (Subject Matter Expert, SME) unterstützt werden kann.
Ein Ansatz hierbei ist das der Lokale Nutzer einen Videostream aufnimmt.Dieser wird dann vom Experten live editiert und wieder beim lokalen Nutzer angezeigt \cite{Kuzuoka:1992:SWC:142750.142980}.
Eine Erweiterung dieses Prinzips ist von Bauer et al. \cite{806696} vorgestellt worden.
Hierbei wird in einem AR HMD des lokalen Nutzers der 2D Mauszeiger des Experten eingeblendet.
Die Position des Mauszeigers ist aber schnell veraltet wenn sich der lokale Nutzer bewegt.
Jedoch sieht der Experte hierbei nur ein 2D Abbild der Realität das für komplexere 3D Aufgaben nicht immer ausreicht.
Christine et al. \cite{Chastine:2008} ermöglichen es dem Experten einen 3 dimensionalen Pfeil in der lokalen Ansicht zu manipulieren.
Jedoch ist das Ausrichten des Pfeil schwierig und zeitintensiv.
Botteccia et al. \cite{Bottecchia:2010} erlauben dem Experten vorgefertigte 3D Animationen im Sichtfeld des Lokalen Nutzers zu platzieren.
Dieses Vorgehen dient dazu dem lokalen Nutzer zu demonstrieren wie eine Aufgabe zu lösen ist, jedoch ist dieses Vorgehen wegen den vorgefertigten Animationen nicht sehr flexibel.
Tachia et al. \cite{Tecchia:2012} nutzen statische Tiefensensoren um dynamisch die Umgebung des Experten und des lokalen Nutzers aufzunehmen.
Die 3D Szene des Lokalen Nutzers und die Hände des Experten werden zusammengefügt und beiden Seiten präsentiert.
Das erlaubt dem Experten mit Handgesten Hilfestellungen zu geben.
Kurata et al. \cite{1364691} ahbe ein System entwickelt bei dem der lokale Nutzer eine Kamera und einen Laserpointer auf der Schulter trägt.
Der Experte sieht die Umgebung durch die Kamera und kann mit dem Laserpointer einen Point of Interest in der Echten Welt markieren.
Lanir et al. \cite{Lanir:2013:OCP:2470654.2481309} haben dieses Konzept erweitert.
Auf einem beweglichen Roboterarm wurde eine Kamera und ein portabler Beamer befestigt.
Der Experte kann den Roboterarm steuern und so seine Sicht anpassen und mit dem Beamer 2D Einzeichnungen in die Echte Welt projizieren.
Oda et al. \cite{Oda:2015:VRR:2807442.2807497} haben ein System vorgestellt bei dem der Experte virtueller Replicas manipuliert.
Die Objekte beim Lokalen Nutzer werden durch ein Optisches Tracking System lokalisiert.
In einer VR Umgebung werden für einen Experten zugehörige Virtuelle Proxys visualisiert.
Diese Virtuellen Proxys sind vorgefertigte 3D Repräsentationen der Objekte.
Der Experte erklärt dem Lokalen Nutzer wie er die Objekte zusammenzubauen hat.
Hierfür stehen dem Experten Virtuelle Replikate zur Verfügung.
Der Experte kann ein Objekt virtuell kopieren und an die richtige Position setzen.
Der Lokale Benutzer bekommt diese virtuelle Kopie relativ zu den Originalen in seiner AR Umgebung visualisiert.
Assistancec Papers
%https://dl.acm.org/citation.cfm?doid=2807442.2807497
%http://delivery.acm.org/10.1145/2810000/2807497/p405-oda.pdf?ip=153.96.12.26&id=2807497&acc=CHORUS&key=4D4702B0C3E38B35%2E4D4702B0C3E38B35%2E4D4702B0C3E38B35%2E6D218144511F3437&CFID=826753542&CFTOKEN=76010413&__acm__=1510748576_7702960d3d419dafe9f0e5cbc24547c8
%https://dl.acm.org/citation.cfm?id=2659768
......
......@@ -387,3 +387,134 @@ pages={222-227},
note = {Accessed: 2017-11-26}
}
@inproceedings{Kuzuoka:1992:SWC:142750.142980,
author = {Kuzuoka, Hideaki},
title = {Spatial Workspace Collaboration: A SharedView Video Support System for Remote Collaboration Capability},
booktitle = {Proceedings of the SIGCHI Conference on Human Factors in Computing Systems},
series = {CHI '92},
year = {1992},
isbn = {0-89791-513-5},
location = {Monterey, California, USA},
pages = {533--540},
numpages = {8},
url = {http://doi.acm.org/10.1145/142750.142980},
doi = {10.1145/142750.142980},
acmid = {142980},
publisher = {ACM},
address = {New York, NY, USA},
keywords = {CSCW, focal point, remote collaboration, spatial workspace collaboration, verbal analysis, video mediated communication},
}
@INPROCEEDINGS{806696,
author={M. Bauer and G. Kortuem and Z. Segall},
booktitle={Digest of Papers. Third International Symposium on Wearable Computers},
title={"Where are you pointing at?" A study of remote collaboration in a wearable videoconference system},
year={1999},
volume={},
number={},
pages={151-158},
keywords={augmented reality;groupware;interactive devices;portable computers;teleconferencing;user interfaces;augmented reality;computer supported cooperative work;pointing gestures;remote collaboration;telepointer;verbal communication;wearable videoconference system;Augmented reality;Collaboration;Collaborative software;Collaborative work;Computer displays;Computer science;Electrical capacitance tomography;Tellurium;Videoconference;Wearable computers},
doi={10.1109/ISWC.1999.806696},
ISSN={},
month={Oct},}
@inproceedings{Bottecchia:2010,
author = {Bottecchia, S{\'e}bastien and Cieutat, Jean-Marc and Jessel, Jean-Pierre},
title = {T.A.C: Augmented Reality System for Collaborative Tele-assistance in the Field of Maintenance Through Internet},
booktitle = {Proceedings of the 1st Augmented Human International Conference},
series = {AH '10},
year = {2010},
isbn = {978-1-60558-825-4},
location = {Meg\&\#232;ve, France},
pages = {14:1--14:7},
articleno = {14},
numpages = {7},
url = {http://doi.acm.org/10.1145/1785455.1785469},
doi = {10.1145/1785455.1785469},
acmid = {1785469},
publisher = {ACM},
address = {New York, NY, USA},
keywords = {TeleAssistance, augmented reality, cognitive psychology, collaboration, computer vision},
}
@inproceedings{CRPITV76P19-27,
Author = {Stafford, Aaron and Piekarski, Wayne},
Title = {User Evaluation of God-like Interaction Techniques},
BookTitle = {Ninth Australasian User Interface Conference (AUIC 2008)},
Editor = {Plimmer, Beryl and Weber, Gerald},
Series= {CRPIT},
Address= {Wollongong, NSW, Australia},
Publisher = {ACS},
Volume = {76},
Pages = {19-27},
Year = {2008} }
@inproceedings{Chastine:2008,
author = {Chastine, J. and Nagel, K. and Ying Zhu and Hudachek-Buswell, M.},
title = {Studies on the Effectiveness of Virtual Pointers in Collaborative Augmented Reality},
booktitle = {Proceedings of the 2008 IEEE Symposium on 3D User Interfaces},
series = {3DUI '08},
year = {2008},
isbn = {978-1-4244-2047-6},
pages = {117--124},
numpages = {8},
url = {http://dx.doi.org/10.1109/3DUI.2008.4476601},
doi = {10.1109/3DUI.2008.4476601},
acmid = {1544230},
publisher = {IEEE Computer Society},
address = {Washington, DC, USA},
keywords = {probability, collaborative augmented reality, virtual pointer, virtual referencing technique, group interaction},
}
@inproceedings{Tecchia:2012,
author = {Tecchia, Franco and Alem, Leila and Huang, Weidong},
title = {3D Helping Hands: A Gesture Based MR System for Remote Collaboration},
booktitle = {Proceedings of the 11th ACM SIGGRAPH International Conference on Virtual-Reality Continuum and Its Applications in Industry},
series = {VRCAI '12},
year = {2012},
isbn = {978-1-4503-1825-9},
location = {Singapore, Singapore},
pages = {323--328},
numpages = {6},
url = {http://doi.acm.org/10.1145/2407516.2407590},
doi = {10.1145/2407516.2407590},
acmid = {2407590},
publisher = {ACM},
address = {New York, NY, USA},
keywords = {3D capture and rendering, Microsoft Kinect, mixed-reality, remote collaboration, tele-presence},
}
@INPROCEEDINGS{1364691,
author={T. Kurata and N. Sakata and M. Kourogi and H. Kuzuoka and M. Billinghurst},
booktitle={Eighth International Symposium on Wearable Computers},
title={Remote collaboration using a shoulder-worn active camera/laser},
year={2004},
volume={1},
number={},
pages={62-69},
keywords={cameras;groupware;human computer interaction;lasers;teleconferencing;user interfaces;visual communication;head-mounted camera-based headset interface;head-mounted display;human computer interaction;remote collaboration;shoulder-worn active camera;user interface;wearable active laser;Cameras;Collaboration;Collaborative work;Computer displays;Employment;Fatigue;Humans;Robot vision systems;Testing;Wearable computers},
doi={10.1109/ISWC.2004.37},
ISSN={1530-0811},
month={Oct},}
@inproceedings{Lanir:2013:OCP:2470654.2481309,
author = {Lanir, Joel and Stone, Ran and Cohen, Benjamin and Gurevich, Pavel},
title = {Ownership and Control of Point of View in Remote Assistance},
booktitle = {Proceedings of the SIGCHI Conference on Human Factors in Computing Systems},
series = {CHI '13},
year = {2013},
isbn = {978-1-4503-1899-0},
location = {Paris, France},
pages = {2243--2252},
numpages = {10},
url = {http://doi.acm.org/10.1145/2470654.2481309},
doi = {10.1145/2470654.2481309},
acmid = {2481309},
publisher = {ACM},
address = {New York, NY, USA},
keywords = {control, cscw, point of view, remote assistance, remote gesturing},
}
Markdown is supported
0% or
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment