Projekt 11: Verbesserung von automatisiertem Maschinellem Lernen durch Erklärbarkeitsmethoden
Projektbeschreibung
Wie viele Machine Learning-Modelle selbst, gehören auch einige Verfahren zur Hyperparameter-Optimierung zu den Black-Box-Algorithmen (insbesondere Neural Architecture Search-Modelle). Da bislang unklar ist, wie diese Modelle den Suchraum bearbeiten, könnten wichtige Erkenntnisse über die Anpassung der Hyperparameter verloren gehen. Forschungsgegenstand dieser Arbeit ist daher die Untersuchung von AutoML-Algorithmen mittels geeigneter Explainability-Methoden. Es sollen vom Menschen verwertbare Erkenntnisse über die interne Funktionsweise der Hyperparameter-Suche eines BlackBox-Modells gewonnen werden. Ein Ziel ist die Schaffung eines Feedback-Loops, bei dem Menschen diese Erkenntnisse wiederum für das Design neuartiger Architekturen verwerten können. Im Zuge der Forschungsarbeit soll auch die Entwicklung und Anwendung eines Trust-Scores untersucht werden. Mithilfe dessen soll die Vertrauenswürdigkeit eines ML-Modells quantifiziert werden. Eine Integration des Trust-Scores in die Objective Function von ML-Modellen soll evaluiert werden, damit dieser schon während des Trainingsprozesses optimiert wird.
Betreuer
Erstbetreuer:
Prof. Dr. Volker Herbort, Technische Hochschule Ulm
Tandempartner:
Prof. Dr. Manfred Reichert, Institut für Datenbanken und Informationssysteme
Beratende Experten:
Prof. Dr. Matthias Klier, Institut für Business Analytics, Universität Ulm
Prof. Dr. Michael Munz, Technische Hochschule Ulm
Prof. Dr. Reinhold von Schwerin, Technische Hochschule Ulm
Prof. Dr. Karsten Urban, Institut für Numerische Mathematik, Universität Ulm