Abstract

Zooming und Panning sind die grundlegendsten Interaktionen bei der Navigation und Exploration von Benutzeroberflächen und Informationsräumen. Bei Mobilgeräten werden dazu meist Touch-Gesten wie „Drag“ oder „Pinch“ verwendet. Andere Ansätze haben gezeigt, dass die räumliche Bewegung eines Mobilgerätes als Alternative zu Touch-Eingaben genutzt werden kann. In dieser Arbeit wird ein Software-Modul zur Erkennung von räumlichen Gesten auf Basis des Project Tango entwickelt. Es konnte gezeigt werden, dass aktuelle mobile Geräte in der Lage sind, ein grundlegendes Vokabular solcher Gesten ohne zusätzliche stationäre Hardware zu verarbeiten und als Tangible View dienen können. So stehen Informationsvisualisierungen eine weitere natürliche Eingabemethode zur Verfügung. Zwar ist die Integration von Technologien zur Erkennung räumlicher Gesten in Mobilgeräte noch in den Anfängen, dennoch eröffnen die neuen technologischen Möglichkeiten zahlreiche spannende Forschungsthemen.