Review-basierte Erklärungen für Empfehlungen im E-Commerce

Forschungsprojekt
 

Auf E-Commerce-Plattformen werden NutzerInnen oft mit einer überwältigenden Vielzahl an Produkten und Dienstleistungen konfrontiert, was zu Informationsüberflutung führen kann. Recommender Systeme bieten eine Lösung, indem sie personalisierte Produktempfehlungen generieren. Kundenrezensionen (Reviews) spielen dabei eine wichtige Rolle, da sie als wichtige Informationsquelle über die Qualität und Eigenschaften von Produkten dienen und in State-of-the-Art Recommender Systemen hohe Empfehlungsgüten ermöglichen. Trotz der technologischen Fortschritte von Recommender Systemen stoßen diese oft auf Skepsis und mangelndes Vertrauen. Die Ursache liegt häufig in der Intransparenz der Empfehlungslogik und der Befürchtung, dass kommerzielle Interessen die Empfehlungen dominieren könnten. Um Vertrauen in diese Systeme zu stärken, bedarf es Ansätzen, die ihre Funktionsweise nachvollziehbar machen und die Akzeptanz fördern. Insbesondere für Review-basierte Recommender Systeme existieren jedoch noch keine adäquaten Erklärmethoden, die das vertrauensstiftende Potenzial von Reviews heben – obwohl Reviews insbesondere im E-Commerce unverzichtbar sind und von Nutzerinnen als vertrauenswürdiger wahrgenommen werden als unternehmensseitig bereitgestellte Informationen. 

Im Rahmen des Projekts wird vor diesem Hintergrund eine innovative Erklärmethode für Review-basierte Recommender Systeme entwickelt, die relevante Informationen aus Reviews in den Mittelpunkt stellt. Die Methode basiert auf Konzepten der Erklärbaren Künstlichen Intelligenz (engl. Explainable Artificial Intelligence (XAI)) und macht den Empfehlungsprozess für NutzerInnen transparent, indem sie darlegt, wie und warum spezifische Produkte oder Dienstleistungen vorgeschlagen werden. Reviews werden nicht nur als Input für die Algorithmen der Recommender Systeme genutzt, sondern auch direkt für die Erklärung der Empfehlungen herangezogen. Dadurch wird das vertrauensbildende Potenzial von Reviews umfassend ausgeschöpft, da NutzerInnen nachvollziehen können, welche Informationen aus Reviews die Entscheidungen beeinflusst haben. Durch eine modell-agnostische Herangehensweise, wird die Methode flexibel auf verschiedene Review-basierte Recommender Systeme anwendbar.

Ein zentrales Ziel des laufenden Projekts ist es, die Auswirkungen der Erklärmethode auf Vertrauen, Akzeptanz und Nutzerverhalten umfassend zu evaluieren. Dazu werden kontrollierte Online-Experimente durchgeführt, um zu untersuchen, wie sich die neue Erklärmethode auf das Vertrauen der NutzerInnen in das System und deren Nutzungsbereitschaft auswirkt. Zusätzlich ist geplant, die Erklärmethode in das System eines unserer Kooperationspartner zu integrieren und im Rahmen von Feldexperimenten zu evaluieren.

Projektzeitraum: 2024 - 2026