direkt zum Inhalt springen

direkt zum Hauptnavigationsmenü

Sie sind hier

TU Berlin

Inhalt des Dokuments

MuToAct - Multimodal Touchless Interaction

Projektbeschreibung

Lupe

In bisherigen Mensch-Maschine-Systemen erfolgt die Interaktion meist mittels Tastatur, Maus, Fernbedienung oder Touch-Displays. Der aktuelle Trend geht jedoch dahin, den gesamten Raum zur Informationsdarstellung und -interaktion zu nutzen. So nimmt auf der einen Seite die Anzahl und Größe der Displays in vielen Bereichen zu und zum anderen soll in Zukunft jegliche Oberfläche als Projektionsfläche nutzbar sein, um Informationen anzuzeigen und mit ihnen zu interagieren. Die Folge davon ist, dass direkte Berührung oft nicht mehr möglich bzw. schwierig ist und die Interaktion zusätzlich in sehr unterschiedlichen Distanzen zum Display oder zur Projektionsfläche stattfindet.

Die am häufigsten verwendeten berührungslosen Eingabemodalitäten sind Gestik, Sprache und Blick. Bisher werden die verschiedenen Eingabevarianten zwar einzeln untersucht, jedoch selten im direkten Vergleich und selten aus eine nutzerzentrierten Sichtweise. Bei der Gestaltung der Interaktion ist es jedoch wesentlich, Vor- und Nachteile der einzelnen Modalitäten zu kennen, gegeneinander abzuwägen und je nach Kontext die geeignetsten auswählen.

Das Ziel des Projektes MuToAct ist es daher, die verschiedenen Eingabemodalitäten aus einer nutzerzentrierten Sicht zu erforschen und zu vergleichen, um Gestaltungsrichtlinien für die multimodale, berührungslose Interaktion aufzustellen.

Team

cand. MSc Fabian Hasse (Masterarbeit)
Lupe
cand. Dipl.- Psych. Martin Grund
Lupe
cand. Dipl.-Psych. Marcelina Sünderhauf
Lupe
Dipl.- Psych. Monika Elepfandt (Projektleitung)
Lupe

Ehemalige Teammitglieder

cand. BSc Tristan Kim (Praktikant)
Lupe
cand. BSc Informatik Stefan Piotrowski
Lupe

Publikationen

Elepfandt, M., Hasse, F. & Dzaack, J. (2012). Die Magie der berührungslosen Interaktion – Vom Spiel in die Arbeitswelt. To appear in Proceedings of Useware 2012, VDI, Dec 2012.

Elepfandt, M. & Dzaack, J. (2012). Berührungslose Interaktion mit großen Displays. In Grandt, M. & Schmerwitz, S. (Hrsg.) Fortschrittliche Anzeigesysteme für die Fahrzeug- und Prozessführung: 54. Fachausschusssitzung Anthropotechnik der Deutschen Gesellschaft für Luft- und Raumfahrt. Koblenz: DGLR. S. 249 - 261.

Elepfandt, M. & Grund, M. (2012). Move it there, or not? The design of voice commands for gaze with speech. In Proceedings of the 4th Workshop on Eye Gaze in Intelligent Human Machine Interaction (Gaze-In '12). ACM, New York, NY, USA, Article 12, 3 pages.

Elepfandt, M. (2012). Pointing and speech: comparison of various voice commands. In Proceedings of the 7th Nordic Conference on Human-Computer Interaction: Making Sense Through Design (NordiCHI '12). ACM, New York, NY, USA, 807-808.

Elepfandt, M. & Sünderhauf, M., (2012). Präferenz von Gesten bei der Interaktion mit großen Displays. In: Reiterer, H. & Deussen, O. (Hrsg.), Mensch & Computer 2012 – Workshopband: interaktiv informiert – allgegenwärtig und allumfassend!?. München: Oldenbourg Verlag, S. 451-454.

Elepfandt, M. (2011). Berührungslose Interaktion: Sprache, Gestik oder Blick? Multi- oder unimodal? In Schmid, S., Elepfandt, M., Adenauer, J., Lichtenstein, A. (Hrsg.), Reflexionen und Visionen der Mensch-Maschine-Interaktion, 9. Berliner Werkstatt Mensch-Maschine-Systeme. Düsseldorf: VDI,  S. 413-416.

Elepfandt, M. & Sünderhauf, M. (2011). Multimodal, Touchless Interaction in Spatial Augmented Reality Environments. In V. Duffy (Hrsg.), Digital Human Modeling (Bd. 6777, S. 263–271). Berlin, Heidelberg: Springer.

 

Zusatzinformationen / Extras

Direktzugang

Schnellnavigation zur Seite über Nummerneingabe