Wie können wir angemessene und möglichst natürliche Formen der Kommunikation zwischen Mensch und Computern entwickeln? Künftig werden Computer kaum mehr als solche wahrgenommen werden, sondern nahtlos in unsere Lebens- und Arbeitswelten integriert sein, z.B. in cyber-physikalischen Systemen. Wie kann der Mensch dabei mit seinen Erfahrungen, Sinnesorganen, gestischen Ausdrucksmöglichkeiten sowie sozialen Bedürfnissen effektiv unterstützt werden?

Im Vordergrund unserer Arbeit steht die systematische und grundlegende Erforschung verschiedenartiger, möglichst natürlicher Interaktionsmodalitäten und deren synergistischer Kombination. Dabei forschen wir zu gestischer Multitouch-Interaktion, digitalen Stiften in Kombination mit digitalem Papier, der effizienten Kombination von Touch- und Stifteingabe, gestischer Interaktion mit Händen, Kopf und Füßen, blick-unterstützter Interaktion für entfernte Displays sowie be-greifbaren Tangibles. Dabei liegt unser Fokus auf kleinen und großen interaktiven Oberflächen (Minidisplays, Smartphones, Tablets, Tabletops, hochaufgelöste Wandgroßdisplays) sowie deren effektiver Kombination in Multi-Display-Umgebungen.

Die entwickelten Techniken und Prinzipien wenden wir in verschiedenen Anwendungsdomänen und Projekten mit akademischen und industriellen Partnern aus dem Aus- und Inland an. Wir untersuchen darüber hinaus, wie moderne User Interfaces und Interaktionstechniken in den Bereichen Interaktive Informationsvisualisierung, Musikinformatik und Semantic Web gewinnbringend eingesetzt werden können.

Neue Publikationen

  • The Concrete Evonne: Visualization Meets Concrete Domain Reasoning.

    Alrabbaa, C.; Baader, F.; Dachselt, R.; Kovtunova, A.; Méndez, J.;

    @inproceedings{ABDKM25,
       author = {Christian Alrabbaa and Franz Baader and Raimund Dachselt and Alisa Kovtunova and Juli\'{a}n M\'{e}ndez},
       title = {The Concrete Evonne: Visualization Meets Concrete Domain Reasoning}
    }

  • The Concrete Evonne: Visualization Meets Concrete Domain Reasoning (Extended Abstract).

    Alrabbaa, C.; Baader, F.; Dachselt, R.; Kovtunova, A.; Méndez, J.;

    @inproceedings{eaABDKM25,
       author = {Christian Alrabbaa and Franz Baader and Raimund Dachselt and Alisa Kovtunova and Juli\'{a}n M\'{e}ndez},
       title = {The Concrete Evonne: Visualization Meets Concrete Domain Reasoning (Extended Abstract)}
    }

  • Face Off: External Tracking vs. Manual Control for Facial Expressions in Multi-User Extended Reality.

    Krug, K.; Song, X.; Büschel, W.;

    @inproceedings{krug2025face,
       author = {Katja Krug and Xiaoli Song and Wolfgang B\"{u}schel},
       title = {Face Off: External Tracking vs. Manual Control for Facial Expressions in Multi-User Extended Reality},
       numpages = {5},
       doi = {https://doi.org/10.1145/3743049.3748590},
       keywords = {Mixed Reality, Collaboration, Facial Expression, Avatars}
    }

  • Copy of Face Off: External Tracking vs. Manual Control for Facial Expressions in Multi-User Extended Reality.

    Baader, J.; Ellenberg, M.; Satkowski, M.;

    @inproceedings{baader2025authoring,
       author = {Julian Baader and Mats Ole Ellenberg and Marc Satkowski},
       title = {Copy of Face Off: External Tracking vs. Manual Control for Facial Expressions in Multi-User Extended Reality},
       numpages = {6},
       doi = {https://doi.org/10.1145/3743049.3748552},
       keywords = {Mixed Reality, Labeling, Label Authoring, Context Aware Labels, Mixed Reality Labels}
    }

  • @inproceedings{Weber-2025-DebuggingAsEpisodes,
       author = {Max Weber and Alina Mailach and Sven Apel and Janet Siegmund and Raimund Dachselt and Norbert Siegmund},
       title = {Understanding Debugging as Episodes: A Case Study on Performance Bugs in Configurable Software Systems},
       numpages = {23},
       doi = {10.1145/3717523}
    }