Anwendungfach/Anwendungsprojekt Mensch-Computer-Interaktion, Sommersemester 2023

Einführungsveranstaltung

Für die Themenvorstellung, Gruppeneinteilung und Anrechnungsmöglichkeiten gibt es eine gemeinsame Einführung für die Projektreihen Design Thinking, Mensch-Computer-Interaktion und User Centered Design.

Die Veranstaltungen finden in Präsenz statt.
Der Kick-off ist am 20.04.23 von 14:00 - 16:00 Uhr (s.t.) im H21.

Solltet ihr am Kick-off verhindert sein, kommt gerne zum ersten Design Thinking Kurstermin am 21.04.23 von 14:00 - 15:30 Uhr (s.t.) im O27-123.

Die genauen Informationen und weiteren Termine entnehmt bitte dem Moodle-Kurs. Hierüber erfolgt auch die generelle Koordination.

Bei Fragen wendet euch bitte an tobias.drey(at)uni-ulm.de oder tobias.wagner(at)uni-ulm.de

Inhalt

Im Rahmen diese Projektes soll innerhalb eines Jahres ein umfangreiches Projekt aus dem Bereich Mensch-Computer-Interaktion zunächst theoretisch unter Berücksichtigung existierender Arbeiten konzipiert und anschließend die praktische Realisierung detailliert geplant werden. Die Projekte werden jeweils in Kleingruppen von 3 bis 4 Studenten umgesetzt. 
Die Teilnehmer erhalten zunächst in Mensch-Computer-Interaktion I eine Einführung in die Projektarbeit. Anschließend sollen sie in kleinen Teams selbständig mit Hilfestellung durch den Dozenten ein lohnendes Projektthema aus dem Bereich der Mensch-Computer-Interaktion entwickeln und unter Berücksichtigung existierenden Arbeiten eine entsprechende Umsetzung planen. Diese Arbeit wird im Rahmen eines schriftlichen Projektvorschlags ausführlich dokumentiert. Folgende Bearbeitungsschritte sind für den ersten Teil der Projekt-Phase vorgesehen: Themenfindung, Literaturrecherche / Related Work, Konzeptentwurf, Planung der Nutzerevaluation, Evaluierung potentieller Basistechnologien, Selbständiges Erarbeiten technischer Grundlagen, Architekturentwurf, erster Prototyp, Bestellung notwendiger Hard- und Software, konkrete Planung der folgenden Projektphase. 
In dem zweiten Teil der Veranstaltung (Mensch-Computer-Interaktion II) steht die praktische Umsetzung (Implementation) und ggf. Evaluation im Vordergrund. Weiterhin ist das Projekt zu dokumentieren.

Themenbereiche

Die einzelnen Teams werden im Rahmen der Themenfindung individuelle Aufgabenstellungen erarbeiten. Die diesjährigen Themenbereich sind (wird noch aktualisiert):

  • Therapie der Zukunft: Der Einsatz von VR um psychologische Hilfe zugänglicher zu machen
    In manchen Berufen gehört eine Konfrontation mit starken Stresssituationen zum Alltag. Die Fähigkeit dennoch Ruhe bewahren und Aufgaben erfüllen zu können ist hierbei meist essenziell. Beispielsweise könnte Panik bei einer Reanimation Leben kosten. Daher müssen Fachkräfte fachspezifische Stresskonfrontationstrainings absolvieren, welche sie darin Schulen sollen in solchen Situationen durch gezielte Gegenmaßnahmen Ruhe zu bewahren. Immer öfter wird bei solchen Trainings auch VR eingesetzt. Stresssituationen können hierdurch nicht nur günstiger, sondern auch individueller erstellt werden. Ziel dieses Projekts ist es, eine Psychoedukation und/ oder eine Stressreduktionsübung in VR zu realisieren, um Vorbereitung auf Stresssituationen zugänglicher zu machen. Es soll dann untersucht werden, ob Patienten, welche durch das System geschult wurden, vergleichbare Ergebnisse zu Patienten welche regulär geschult wurden erzielen.

  • Trauma- und Angsttherapie in VR
    Ängste und Traumata haben meist unkontrollierbare Ausbrüche von Stress und Emotionen gemein, welche durch verschiedenste Trigger ausgelöst werden können. Betroffene neigen häufig dazu potenzielle Trigger-Situationen zu vermeiden. Traumata und Ängste können durch Konfrontation therapiert werden. Jedoch erfährt diese Therapiemethode nach wie vor hohe Abbruchsquoten. Grund hierfür ist die Angst vor der Konfrontation. Expositionstherapie in VR kann vergleichbare Ergebnisse zu Konfrontation in der Realität erzielen, bietet aber viele Möglichkeiten darüber hinaus. Ziel dieses Projekts ist es Mechanismen zu entwickeln, welche Abbruchsquoten durch stufenweise Einführung in das VR Szenario reduzieren.

  • Integration of Personal Context into Eco-Visualization
    Die Verständlichkeit von Umweltkennzeichnungen beeinflusst maßgeblich unser Umweltverhalten. Wenn Verbraucherinnen und Verbraucher die Bedeutung von Öko-Visualisierungen verstehen, können sie bewusstere Kaufentscheidungen treffen und umweltfreundlichere Produkte wählen. Jedoch haben viele aktuelle Öko-Visualisierungen ihre Grenzen. Oftmals sind sie komplex und schwer zu verstehen, was dazu führen kann, dass selbst bei vorhandener Intention für umweltfreundliches Konsumverhalten, keine entsprechende Aktion folgen kann (Intention-Behavior Gap) und ein Gefühl der Verwirrung ensteht. Ein möglicher Lösungsansatz ist die Einführung von personalisierten Öko-Visualisierungen, die auf den individuellen Verhaltensmustern und der aktuellen Lebenssituation basieren und so dem Verbraucher helfen können Emissions- und Energieinformationen besser auf ihre Bedüfnisse und Verhaltensweisen zu beziehen. Ziel dieses Projektes ist es, Konzepte, Herausforderungen oder Prototypen für die Integration des persönlichen Kontextes in Öko-Visualisierungen zu entwickeln und in einer Nutzerstudie zu evaluieren.

  • Living Interfaces
    Die wachsenden Umweltprobleme unserer Zeit erfordern innovative Ansätze für Nachhaltigkeit. Hierbei kann die Integration lebender Organismen in digitale Schnittstellen einen innovativen Ansatz bieten. Biointegrierte digitale Interfaces ermöglichen es, natürliche Prozesse und Muster in technologische Innovationen einzuführen und von der Evolution zu lernen. Dies fördert ein Bewusstsein für die Wertschätzung von Leben und Natur und sensibilisiert für einen nachhaltigen Umgang mit Technologie, was zu einem verstärkten Umweltbewusstsein und nachhaltigem Verhalten im Alltag führen kann, wie beispielsweise Energiesparen oder Ressourcenrecycling. Das Ziel dieses Projekts ist es, Konzepte, Herausforderungen oder Prototypen für die Integration lebender Organismen in digitale Interfaces zu entwickeln und mit Nutzern bezüglich unterschiedlicher Kriterien zu evaluieren, um das Potenzial dieser innovativen Ansätze weiter zu erforschen und ihre Auswirkungen zu verstehen.

  • How-To Videos
    Video-Sharing-Plattformen wie YouTube und TikTok ermöglichen Lernende mit How-To-Videos neue praktische Fähigkeiten wie zum Beispiel Kochen, Heimwerken, und Sport-Übungen zu erlernen. Auch für gewisse Problemstellungen können Videos gefunden werden, die Schritt-für-Schritt eine Lösungsmöglichkeit erläutern. Allerdings benötigen Experten viel Zeit für Konzept, Aufnahme, und Editierung dieser Videos. Ziel dieses Projektes ist es, ein System zu entwickeln, das Experten in der Erstellung von lehrreichen How-To Videos unterstützt. Die mit dem entwickelten System erstellten Videos sollen Lernende effektiv in der Problemlösung und in ihrem Lernprozess unterstützen.

  • Sprachen Lernen mit Untertiteln in TV Shows
    Video-On-Demand Plattformen bieten Zuschauern eine Vielzahl an audiovisuellen Medien, welche sowohl informative als auch unterhaltsame Inhalte beinhalten. Um eine maximale Reichweite zu gewährleisten, präsentieren diese Plattformen eine Mehrzahl von Sprachoptionen in Audio und Text als Untertitel, welche es dem Zuschauer ermöglichen, die audiovisuellen Inhalte in der bevorzugten Sprache zu konsumieren. Untertitel können dazu verwendet werden, um das Erlernen einer neuen Sprache zu erleichtern. Vor diesem Hintergrund ist das Ziel dieses Projekts ein Lernsystem zu entwickeln, welches mittels Untertiteln in TV Shows und Filmen Zuschauer beim Sprachen lernen unterstützt. Das System soll automatisierte Verfahren verwenden, um Wörter, welche vom Lernenden nicht verstanden wurden, zu identifizieren. Diese Wörter könnten dann zum Beispiel in Form einer Vokabelliste aufbereitet werden, welche als Lernressource für den Lernenden zur Verfügung gestellt wird. Die Evaluierung des Lernsystems soll hinsichtlich des Lernerfolgs und der Motivation des Lernenden erfolgen.

  • Recognizing Conflict-Potential of Driving Situations
    Konflikte zwischen Passagieren und hochautomatisierten Fahrzeugen können zu sicherheitskritischen Übernahmeszenarien, Diskomfort, verringertes  Vertrauen und Nichtakzeptanz gegenüber dem Fahrzeug führen. Durch die frühzeitige Erkennung des Konfliktpotenzials einer Situation wollen wir es ermöglichen Konfliktlösungsstrategien einzuleiten, bevor es zu kritischen Übernahmen kommt. Hierzu sollen Fahrszenarien gefilmt oder mit Unity implementiert werden. Diese sollen online von Proband anhand dem Konfliktpotenzial bewertet werden, dass ein neuronales Netz mit diesen Daten darauf trainiert werden kann das Konfliktpotential in neuen unbekannten Situationen erkennen zu können.

  • Higher Semantic Strategies for Conflict Resolution
    Konflikte zwischen Passagieren und hochautomatisierten Fahrzeugen können zu sicherheitskritischen Übernahmeszenarien, Diskomfort, verringertes Vertrauen und Nichtakzeptanz gegenüber dem Fahrzeug führen. Es stellt sich daher die Frage, ob solche kritischen Übernahmen verhindert werden können, indem man dem Fahrer anbietet gemeinsam mögliche Ansätze zur Konfliktlösung zu erörtern. Hierzu sollen Konfliktszenarien und mögliche Erörterungsstrategien erarbeitet und mit Unity implementiert werden. Anhand einer anschließenden Studie sollen diese evaluiert werden

  • Mein XR Trainingsplan : Erstellen von (XR) Workoutroutinen mit GenAI
    Trainingsroutinen sollten individuell anpassbar sein. Dazu sollte berücksichtigt werden, welche Muskelgruppen bevorzugt trainiert werden sollen, welche Vorkenntnisse der Sportler hat und wie Verletzungen vorgebeugt werden kann.  
    Wir können bereits AI einsetzen, um Workout-Routinen in Text- oder unzusammenhängender Bildform zu generieren.  
    Der nächste Schritt, worum es hier im Projekt gehen wird, wäre die Erstellung individueller Workout-Routinen in Form von Videos oder Animationen.

  • MoveXR: Unterstützung von XR-Workouts durch visuelles, auditives und/oder haptisches Feedback
    XR-Umgebungen haben das Potential, Heimfitness- und Teletraining durch immersives und erweitertes Feedback zu verbessern. Wie dieses Feedback aussehen sollte, um den Benutzer optimal zu unterstützen, ist teilweise noch sehr unerforscht.  
    In diesem Projekt wollen wir untersuchen, wie Feedbackmethoden in XR aussehen und zusammenspielen können. Insbesondere, wie verschiedene Feedbackmethoden wie visuelles, auditives und haptisches Feedback zusammenspielen könnten.

  • Comparison of Vehicle Motion Simulators
    Bewegungssimulatoren reproduzieren Fahrzeugbewegungen mit unterschiedlicher Genauigkeit, abhängig von der Simulationsmethode und den Freiheitsgraden (Rotation, Bewegung, oder Neigung). Der Einfluss variiert stark zwischen verschiedenen Simulatoren. Um einen zuverlässigen Einsatz im Rahmen einer Nutzerstudie zu ermöglichen, sollten die Fähigkeiten eines Simulators bekannt sein. Simulatoren können unterschiedlich gut verschiedene Fahrer-/Beifahrerzustände messen. Im schlimmsten Fall könnten Messungen im Vergleich zur Realität weniger genau oder ungültig sein. Allerdings gibt es keinen solchen Vergleich von Simulatoren. Das Projektziel ist es daher, am Institut verfügbare Fahrsimulatoren hinsichtlich ihrer Eignung, Validität und Simulationsqualität zu vergleichen.

  • AutoVis - Automotive UI Analysis in Real Vehicles
    Die Analyse von Automobilen User Interfaces (Auto UI) wird aufgrund technologischer Fortschritte beim autonomen Fahren und Interaktionsformen (z.B. Sprache und Gesten) immer komplexer. UI-Entwicklung berücksichtigt viele Faktoren, was zu großen Datenmengen in verschiedene Formaten (Video, Audio und CSV) führt. Effiziente Datenanalyse kann von Werkzeugen profitieren, die Fahrgastverhalten, Fahrzeugumgebung und die Haptik eines echten Fahrzeugs miteinander verbinden. Da solch ein Werkzeug nicht existiert, zielt das Projekt darauf ab, ein immersives Analyse-Tool für Auto UIs zu entwickeln, das mit einer Passthrough-VR-Brille in echten Fahrzeugen verwendet werden kann.

  • RoboVis - Human-Robot Interaction Analysis
    Roboter integrieren sich immer mehr in unser tägliches Leben (z. B. als Haushaltsassistenten oder im öffentlichen Dienst), daher ist es wichtig, die Wahrnehmung, Akzeptanz und Interaktion von Menschen mit Robotern zu verstehen. Faktoren wie Anwesenheit anderer Menschen, Kontext und spezifische Aufgaben erschweren jedoch die Verallgemeinerung von Laborstudien auf reale Orte, wie beispielsweise die Ulmer Sedelhöfe. Das Projektziel ist die Entwicklung des RoboVis Tools, welches Interaktionen mit Robotern protokolliert und eine visuelle Darstellung von Passantenverhalten ermöglicht, um Erkenntnisse über menschliches Verhalten in realen Umgebungen und Interaktionsmuster zu gewinnen.

  • Simulating Human Driving and Interaction
    Die Entwicklung von Automobilen User Interfaces (Auto UIs) ist oft langwierig und teuer, da viele Prototypen entwickelt und später verworfen werden. Ein Simulationssystem, das Nutzer realistisch nachbildet, könnte den Entwicklungsprozess beschleunigen und klassische Nutzerstudien ersetzen. Ein Modell der physischen Eigenschaften eines Menschens (Muskeln und Gelenke) ermöglicht die realistische Simulation von Fahrern und liefert wertvolle Erkenntnisse zur Nutzbarkeit von Auto UIs. Bisher gibt es keinen solchen Ansatz im Bereich der Auto UI. Dieses Projekt beabsichtigt, ein Tool zur Simulation von Auto UI Interaktionen mit einem biomechanischen Benutzermodell zu entwickeln, wodurch ein Avatar die Interaktion mit einem Auto UI realistisch lernen und evaluieren kann.

  • Wind of Change: Urban Air Mobility Simulator
    Future transportation will not be limited to the ground. Several start-up companies are working on flying electrical air taxis (eVTOLs) that aim to bring people to their destinations in megacities such as New York and Sao Paulo. However, even in German cities, Urban Air Mobility is a promising addition to the current infrastructure. This project's goal is to build a flight simulator using a 3-degrees-of-freedom motion chair and VR simulation in order to create a base for future research projects regarding air taxis.

  • I Can See Clearly Now: Interfaces for Blind People in Automated Vehicles
    Automated vehicles will not only comfort sighted people but will also bring advantages to people with disabilities, such as blind people. However, their major concern is getting off the car, not knowing stationary and moving obstacles around them. This project aims to use Computer Vision to detect potential threats and communicate them to the passengers. You will work with auditive and haptic interfaces that are supposed to support blind people in future vehicle technologies.

 

Lernziele

Die Studierenden sind in der Lage eine projektorientierte wissenschaftliche Arbeit im Bereich der Mensch-Computer-Interaktion detailliert zu planen. Sie besitzen die Fähigkeit ein innovatives Projektthema zu definieren und sich in die damit verbundenen Konzepte und Technologien einzuarbeiten. Sie können verwandte Arbeiten eigenständig recherchieren und ggf. aufgreifen. Die Studierenden sind zudem in der Lage selbständig im Team und unter Verwendung modernen Methoden neue Lösungen und Konzepte zur Realisierung des Projektthemas zu finden. Sie sind ferner in der Lage, ihre Ergebnisse angemessen zu dokumentieren und im Rahmen von Vorträgen überzeugend zu präsentieren. 

Hinweise

Das Anwendungsfach erstreckt sich i.d.R. über zwei Semester, kann aber auf Wunsch auch in einem Semester absolviert werden.