Projekt 6: Erklärungen von Klassifikationsentscheidungen hybrider Systeme
Projektbeschreibung
In der Künstlichen Intelligenz kommen sowohl Ansätze des Maschinellen Lernens zum Einsatz als auch Ansätze, die auf modelliertem Wissen z.B. in Form von Ontologien basieren. Das modellierte Wissen kann zur Erklärung der Systementscheidungen herangezogen werden. Lernbasierte Ansätze bieten sich dagegen an, wenn regelhaftes Wissen zur Entscheidungsfindung (noch) nicht oder nur teilweise vorliegt; eine direkte Ableitung von Erklärungen ist allerdings meist nicht möglich. Ziel des vorgeschlagenen Promotionsprojekts ist die Entwicklung von Methoden zur Generierung von Erklärungen für hybride Systeme, die sowohl über eine lernbasierte Komponente (z.B. zur Klassifikation von Sensordaten) als auch über eine wissensbasierte Komponente (z.B. zur Ableitung von Handlungsempfehlungen aus den interpretierten Sensordaten) verfügen. Es stellt sich insbesondere die Frage, wie die mit Wahrscheinlichkeiten behafteten Entscheidungen aus maschinellen Lernverfahren geeignet in kohärente Erklärungen eines hybriden Systems eingebunden und an menschliche Nutzer*innen kommuniziert wenden können.
Betreuer
Erstbetreuer:
Prof. Dr. Birte Glimm, Institut für Künstliche Intelligenz, Universität Ulm
Tandempartner:
Prof. Dr. Michael Munz, Technische Hochschule
Beratende Experten:
Prof. Dr. Hans Kestler, Institut für Medizinische Systembiologie, Universität Ulm
Prof. Dr. Matthias Klier, Institut für Business Analytics, Universität Ulm
Prof. Dr. Manfred Reichert, Institut für Datenbanken und Informationssysteme, Universität Ulm
Prof. Dr. Christian Schlegel, Technische Hochschule Ulm