
CS5900.162/3
Usable Security and Privacy
Seminar Usable Security and Privacy (Bachelor)
Forschungstrends im Bereich Usable Security and Privacy (Master)
Usable Security and Privacy ist ein interdisziplinäres Forschungsgebiet, das darauf abzielt, die Diskrepanz zwischen Sicherheitsanforderungen und menschlichem Verhalten zu überbrücken. Gerne wird die technische Robustheit von Sicherheitsmechanismen betont, die menschliche Faktoren aber oftmals außer Acht lassen. Dies kann zu Nutzungsbarrieren, Fehlkonfigurationen oder unsicheren Verhaltensweisen führen. Daher zielt dieses Seminar darauf ab, den Studierenden die Möglichkeit zu geben, sich mit effektiven als auch benutzerfreundlichen Lösungsansätzen zu beschäftigen.
Da das Seminar aus dem Institut für Organisation und Management von Informationssystemen (OMI) kommt, wird neben allgemeineren Themengebieten im Bereich Usable Security and Privacy, auch das Thema Internet Zensur erforscht, mit Fokus auf dem Gleichgewicht zwischen Sicherheit, Leistung und Benutzerfreundlichkeit. Außerdem spielen psychologische Faktoren eine entscheidende Rolle für das Sicherheitsverhalten und dementsprechend auch bei dem Design von sicheren Tools.
Die folgende Liste beschreibt die Themengebiete. Die tatsächlichen auszuarbeitenden Themen sind Teile dieser Themengebiete und werden über Moodle individuell vergeben.
Themengebiete
Dieses Forschungsgebiet untersucht, wie staatliche oder private Akteure Informationsflüsse kontrollieren (Zensur) und Benutzeraktivitäten überwachen (Überwachung), sowie die Gestaltung, Benutzerfreundlichkeit und Wirksamkeit von Tools, die Einzelpersonen nutzen, um solche Beschränkungen zu umgehen (z. B. VPNs, Tor, Proxy-Dienste). Regierungen weltweit setzen unterschiedliche Zensurstrategien ein, oft mit dem Argument, nationale Sicherheit oder kulturelle Werte zu schützen. Solche Maßnahmen können jedoch die Meinungsfreiheit einschränken und zu Selbstzensur führen, während Überwachungsmethoden durch übermäßige Datenerhebung die Privatsphäre schwächen. Auf der anderen Seite entwickeln Forschende und Aktivist:innen Umgehungstechnologien, die Nutzer:innen helfen, Zugang zu gesperrten Inhalten wiederherzustellen oder Anonymität zu wahren. Doch die Benutzerfreundlichkeit solcher Tools stellt häufig ein Hindernis für die Nutzung dar: Selbst das robusteste Tool kann scheitern, wenn technisch weniger versierte Nutzer:innen Schwierigkeiten mit der Einrichtung oder Konfiguration haben. Durch die Betrachtung sowohl von Zensur- und Überwachungsmethoden als auch der praktischen Nutzbarkeit von Gegenmaßnahmen zielt dieses Forschungsfeld darauf ab zu verstehen, wie Menschen ihren Informationszugang und ihre persönliche Privatsphäre unter verschiedenen Einschränkungen schützen können.
Technologieakzeptanz befasst sich mit den Faktoren, warum Einzelpersonen, Gemeinschaften oder Organisationen sich entscheiden, neue Technologien – in diesem Zusammenhang neue Sicherheits- oder Datenschutztools – zu nutzen oder abzulehnen. Klassische Modelle wie das Technology Acceptance Model (TAM) (Davis, 1989) oder die Diffusion of Innovations (DOI) (Rogers, 2003) zeigen auf, wie bestimmte Faktoren wie wahrgenommene Nützlichkeit, Benutzerfreundlichkeit, sozialer Einfluss und Kommunikationskanäle das Tempo und die Tiefe der Einführung beeinflussen. Im Sicherheitskontext überschneiden sich diese Elemente mit weiteren Aspekten: der kognitiven Belastung bei der Konfiguration von Sicherheitstools, dem Vertrauen in den Technologieanbieter und den realen oder wahrgenommenen Bedrohungen, die Nutzer:innen zur Selbstschutzmotivation bewegen. Studien in diesem Bereich beziehen sich auch auf Erkenntnisse aus dem Bereich der Organisationsverhaltensforschung und zeigen, wie Führung, Freiwilligkeit und (Arbeitsplatz-)Kultur die Einführung sicherer Systeme fördern oder behindern können. Aus Sicht der Nutzer:innen hängen die Annahme und fortlaufende Nutzung von Sicherheitsmaßnahmen oft von intuitiven Schnittstellen, minimalem Aufwand, sozialen Einflüssen und einer klaren Darstellung des Nutzen-Risiko-Verhältnisses (Kosten-Nutzen-Abwägung) ab.
Die Forschung konzentriert sich darauf, wie Einzelpersonen Sicherheits- und Datenschutzrisiken wahrnehmen und wie sie darauf reagieren: Was motiviert sie dazu, Schutzmaßnahmen zu ergreifen (oder diese zu ignorieren)? Dabei werden mentale Modelle der Nutzer:innen, kognitive Verzerrungen und emotionale Reaktionen untersucht. Ein zentrales Rahmenmodell ist die Protection Motivation Theory (PMT), ursprünglich in der Gesundheitspsychologie entwickelt und mittlerweile auf den Bereich der Cybersicherheit übertragen. PMT besagt, dass Nutzer:innen sowohl die Schwere der Bedrohung (z. B. Risiko eines Identitätsdiebstahls) als auch ihre Bewältigungsfähigkeit (z. B. Installation von Sicherheitssoftware, Verwendung starker Passwörter) bewerten. Die Risikowahrnehmung wird zudem durch Angstappelle, soziale und kulturelle Faktoren sowie persönliche Erfahrungen mit Angriffen (z. B. Phishing oder Malware) beeinflusst. In organisatorischen Kontexten wird die Entscheidungsfindung komplexer, da Mitarbeitende zwischen Benutzerfreundlichkeit, Zeitdruck und Sicherheitsrichtlinien abwägen müssen. Das Verständnis dieser menschlichen Faktoren hilft dabei, effektive Maßnahmen zu entwickeln, die sicheres Online-Verhalten fördern.
Dieses Forschungsfeld untersucht, wie Nutzer:innen ihre persönlichen Daten online wahrnehmen und verwalten. Das sogenannte "Privacy Paradox" bezeichnet die Diskrepanz zwischen den angegebenen Bedenken von Nutzer:innen hinsichtlich ihrer digitalen Privatsphäre und ihrem tatsächlichen Verhalten: Häufig kommt es zu übermäßiger Offenlegung persönlicher Informationen auf Plattformen wie Facebook, Twitter, Instagram oder TikTok. In sozialen Medien ist dieses Phänomen besonders ausgeprägt, da sowohl das Plattformdesign (z. B. standardmäßig öffentliche Einstellungen) als auch soziale Einflüsse (z. B. Gruppendruck, der Wunsch nach Sichtbarkeit) Nutzer:innen dazu verleiten können, umfangreiche persönliche Details zu veröffentlichen. Obwohl in Umfragen häufig hohe Datenschutzbedenken geäußert werden, ändern viele kaum ihre Standardeinstellungen oder lesen Datenschutzrichtlinien, was Fragen darüber aufwirft, inwiefern sich solche Bedenken tatsächlich in konkretes Schutzverhalten übersetzen. Studien untersuchen, wie bestimmte Designansätze – etwa „Nudges“ oder Hinweise zur Datenfreigabe – unbeabsichtigte Offenlegungen verringern können und wie soziale Einflüsse (z. B. Zugehörigkeitswunsch, „Fear of Missing Out“) oder plattformspezifische Kulturen das Gegenteil bewirken.
Trusted Compute Environments (TCEs) bzw. Trusted Execution Environments (TEEs), wie etwa Intel SGX, ARM TrustZone und AMD SEV, versprechen erhöhte Sicherheit und Datenschutz, indem sie isolierte Ausführungsumgebungen schaffen, in denen sensible Daten und Code vor dem restlichen System geschützt verarbeitet werden können. Allerdings erschweren komplexe Programmiermodelle, Performance-Einbußen und fehlende benutzerfreundliche Schnittstellen ihre Anwendung in realen Szenarien. Dieses Seminarthema beleuchtet die Usability-Herausforderungen im Zusammenhang mit TCEs und fokussiert auf die Spannungsfelder zwischen starker Sicherheits-/Datenschutzgarantie und einer positiven Nutzererfahrung.

Prof. Dr. Steffen Wendzel
- Raum: 5209 (O27)
- E-Mail: steffen.wendzel(at)uni-ulm.de
- Telefon: +49 (0) 731 50-22500

M.Sc Julia Lenz
- Raum: 5406 (026)
- E-Mail: julia.lenz(at)uni-ulm.de
- Telefon: +49 (0) 731 50-28785
Organisatorische Informationen
Nächster Veranstaltungsbeginn: SoSe 2025
Turnus: jedes 2. Semester
Ort: O28 - 1002
Zeit: Donnerstag, 14:00 - 16:00 Uhr
ECTS: 4
Seminar: (2 SWS); Schriftliche Seminararbeit, Präsentationsunterlagen und Präsentation im Rahmen eines Seminarvortrags
Bachelor: vorzugsweise Englisch
Master: Englisch
Die Themen können nur alleine bearbeitet werden. Zur Erlangung des Leistungsnachweises ist die Anfertigung einer Seminararbeit sowie einer Präsentation mit anschließender Diskussion notwendig.
Studiengänge: Jeweils B.Sc. und M.Sc. Informatik, Medieninformatik, Software Engineering