Wie können die Entscheidungen von Künstlicher Intelligenz (KI) erklärt werden? Mit dieser Frage beschäftigt sich das Forschungsfeld "Erklärbare Künstliche Intelligenz (Explainable Artificial Intelligence, XAI)", das auch am IBA präsent ist.
Ein Ansatz, um die Entscheidungen von KI zu erklären, sind sogenannte "counterfactual explanations", d.h. Erklärungen in der Form "Wenn X anders wäre, hätte das System nicht Y vorhergesagt". Wie für reale Datensätze besonders stimmige "counterfactual explanations" erzeugt werden können, haben Maximilian Förster, Philipp Hühn, Mathias Klier und Kilian Kluge in ihrem Paper "User-centric explainable AI: design and evaluation of an approach to generate coherent counterfactual explanations for structured data" erforscht, welches gestern im "Journal of Decision Systems" veröffentlicht wurde.
Das Paper gibt es hier zum Download (die ersten 50 Downloads über diesen Link sind kostenlos, weitere kostenlose Versionen sind direkt bei den Autoren erhältlich):
Paper "User-centric explainable AI: design and evaluation of an approach to generate coherent counterfactual explanations for structured data" im Journal of Decision Systems veröffentlicht
Ulm University Ulm UniversityWie für reale Datensätze besonders stimmige "counterfactual explanations" erzeugt werden können, haben Maximilian Förster, Philipp Hühn, Mathias Klier und Kilian Kluge in ihrem Paper "User-centric explainable AI: design and evaluation of an approach to generate coherent counterfactual explanations for structured data" erforscht, welches gestern im "Journal of Decision Systems" veröffentlicht wurde.