Die Einführung Künstlicher Intelligenz bringt für Handelsunternehmen gewisse Herausforderungen mit sich. Einerseits gilt es, die täglich anfallenden enormen Datenmengen von Wareneingang bis Einkaufsverhalten in den Griff zu bekommen. Andererseits müssen die von KI-Systemen produzierten Antworten so gestaltet sein, dass sie für unterschiedliche Stakeholder verständlich und nachvollziehbar sind. Wichtig ist zudem, dass eine KI anhand identischer Kriterien zuverlässig die gleichen Entscheidungen trifft.
Im Kern: Entscheidungsprozesse vieler KI-Systeme sind in der Regel intransparent, man nennt diese daher auch „Black Box“. Der Gegenentwurf dazu sind die Methoden der erklärbaren KI (Explainable AI, kurz XAI). Während klassische KI-Modelle in erster Linie Ergebnisse liefern, legt XAI offen, wie diese Ergebnisse zustande kommen. Für den Handel bedeutet das: Geschäftsentscheidungen sind datenbasiert, nachvollziehbar, überprüfbar und validierbar. Diese Transparenz ist entscheidend, wenn KI-Systeme beispielsweise Verkaufsprognosen erstellen, Preisstrategien anpassen oder Personalbedarfe ermitteln.
Anwendungsbeispiele im Einzelhandel

Klar definierte Ziele sind die Basis für eine erfolgreiche Einführung von XAI
Foto: thestandingdesk-wJLwq637lOw-unsplash
Die Potenziale von XAI im Einzelhandel zeigen sich in verschiedenen Bereichen des operativen Geschäfts. Im Bestandsmanagement können XAI-Systeme nach der Erstellung präziser Prognosen auch die Faktoren dahinter erklären. Empfiehlt das System etwa eine Erhöhung des Bestands an Grillzubehör um 30 Prozent, können diese Empfehlungen beispielsweise auf historischen Verkaufsdaten sowie Wettervorhersagen basieren. Diese Kriterien können die für die Planung zuständigen Mitarbeitenden überprüfen und weiteren, möglicherweise fehlenden, Faktoren gegenüberstellen. In der Personaleinsatzplanung berücksichtigen XAI-gestützte Systeme neben Verkaufszahlen und Kundenfrequenz auch komplexere Einflüsse wie lokale Veranstaltungen oder verkaufsoffene Sonntage.
Die Erklärungskomponente zeigt auf, warum die KI für bestimmte Zeiträume mehr oder weniger Personal einplant. Dies erhöht die Akzeptanz für datenbasierte Entscheidungen. Im E-Commerce kann XAI die dynamische Preisgestaltung unterstützen, indem es die Gründe für Preisempfehlungen veranschaulicht. Bei der Sortimentsoptimierung decken die Systeme komplexe Zusammenhänge auf. Führt ein Produkt etwa zu vielen Retouren, kann die KI einem Händler selbst bei guten Verkaufszahlen vorschlagen, dieses aus dem Sortiment zu nehmen. Die Transparenz der dahinterstehenden Argumente ermöglicht es den Händlern, die Entscheidung informierter und mit gutem Gewissen zu treffen. Auch bei der Kundensegmentierung und im Marketing kann XAI zusätzliche Informationen über die getroffenen Entscheidungen und die Gründe dafür liefern – beispielsweise, warum bestimmte Kund:innen in bestimmte Zielgruppen fallen. So können die Verantwortlichen die Entscheidungslogik nachvollziehen und in weiteren Schritten beeinflussen, was gezieltere Kampagnen ermöglicht.
Technologische Grundlagen von XAI
Um XAI im Einzelhandel effektiv einzusetzen, ist ein grundlegendes Verständnis der technologischen Ansätze hilfreich: LIME (Local Interpretable Model-agnostic Explanations): Diese Methode erklärt einzelne Vorhersagen anhand einer lokalen Analyse der wichtigsten Einflussfaktoren. Im Einzelhandelskontext könnte LIME beispielsweise aufzeigen, warum das KI-System einen bestimmten Artikel als Verkaufsschlager prognostiziert.
SHAP (SHapley Additive exPlanations): SHAP verwendet spieltheoretische Konzepte, um den Beitrag jeder Variable zum Endergebnis zu quantifizieren. Dies ist besonders nützlich, um die Relevanz verschiedener Faktoren in komplexen Vorhersagemodellen zu verstehen. Bei einer Analyse von Kundenverhalten und Kaufwahrscheinlichkeit von bestimmten Produkten kann SHAP aufdecken, welche Merkmale (z. B. Alter, Kaufhistorie, Standort des Lieblingssupermarktes) den größten Einfluss auf die Vorhersage vom nächsten Einkauf haben.
Grad-CAM (Gradient Class Activation Mapping): Grad-CAM verwendet Gradienten im neuronalen Netzwerk, um auf dieser Basis eine Heatmap zu erstellen. Diese demonstriert die jeweilige Bedeutung der Merkmale. Dies wird oft im Bereich Computer Vision angewendet, beispielsweise für erklärbare Objekterkennung auf Bildern, etwa wie bei einer Erkennung von Obst- und Gemüzesorten mit einer Kamera bei einer Selbstbedienungskasse.
LRP (Layer-wise Relevance Propagation): LRP berechnet die Relevanz einzelner Merkmale, indem es die Vorhersage schichtweise durch das neuronale Netzwerk rückwärts überträgt. LRP ist ebenfalls für die erklärbare Objekterkennung einsetzbar. Counterfactual Explanations: Mithilfe von Counterfactual Explanations lässt sich nachvollziehen, welche veränderten Werte zu einem anderen Ergebnis geführt hätten und welchen Einfluss einzelne Anpassungen auf das Ergebnis haben. Im Fall einer geringen Nachfrage nach einem Produkt: Unter welchen Bedingungen (z. B. Außentemperaturen, Niederschlagsvorhersage, Feiertage und Schulferien), wäre das Produkt ausverkauft gewesen?
Intrinsisch erklärbare Modelle: Diese Modelle setzen auf Algorithmen wie Entscheidungsbäume oder lineare Modelle, die aufgrund ihrer Funktionsweise von Haus aus transparent sind. Solche Modelle sind für Preis- und Verkaufsprognosen auf strukturierten Daten geeignet. Für die Anwender:innen sind diese technischen Details allerdings irrelevant. Sie benötigen ein intuitiv zu nutzendes User Interface, in dem sie die wichtigsten Faktoren einer Entscheidung erhalten – mitsamt der Möglichkeit, Einfluss darauf zu nehmen.
Letztendlich hängt der Erfolg von XAI-Projekten maßgeblich von der richtigen Balance zwischen Erklärungstiefe und Praktikabilität ab. Eine zu detaillierte Darstellung, insbesondere durch die Nennung interner technischer Scores oder Werte, überfordert die Anwender:innen, zu oberflächliche Darstellungen dagegen hinterlassen sie mit offenen Fragen und fehlendem Vertrauen.
Erfolgsfaktoren für die Implementierung

Die Vorteile von XAI sind immens, doch gibt es auch hier Hürden zu überwinden
Foto: hyundai-motor-group-h2rWePLKxvs-unsplash
Klar definierte Ziele sind die Basis für eine erfolgreiche Einführung: Unternehmen sollten präzise festlegen, welche Entscheidungen XAI unterstützen soll und welches Maß an Erklärbarkeit erforderlich ist. Diese Punkte gilt es, im Vorfeld gemeinsam mit allen relevanten Akteuren abzustimmen. Bewährt hat sich eine schrittweise Umsetzung mit überschaubaren Pilotprojekten als Anfangspunkt. XAI in der Absatzprognose für eine ausgewählte Produktkategorie zu verwenden, wäre etwa hierfür ein sinnvoller Anwendungsfall. Das Stakeholder-Management nimmt dabei eine Schlüsselrolle ein.
Entscheidend ist die frühzeitige Einbindung aller Beteiligten von der IT bis zum Betriebsrat sowie eine transparente und offene Kommunikation, um Akzeptanz und Vertrauen zu schaffen. Ebenso wichtig ist die gezielte Qualifizierung der Mitarbeitenden: Sie müssen einerseits das nötige technische Know-how erwerben und andererseits lernen, KI-gestützte Entscheidungen kritisch zu hinterfragen. Eine kontinuierliche Evaluation sichert den langfristigen Erfolg. Unternehmen sollten regelmäßig die Qualität der Ergebnisse, der Erklärungen sowie die Akzeptanz bei den Anwender:innen überprüfen und klare Feedback-Mechanismen etablieren, um auf dieser Basis die Systeme fortlaufend zu optimieren. Und schließlich sollte XAI sich nahtlos in bestehende Geschäftsprozesse sowie IT-Landschaften einfügen, um den maximalen Nutzen zu erzielen.
Herausforderungen und Grenzen
Eine zentrale Herausforderung bleibt der Balanceakt zwischen Komplexität und Verständlichkeit für Händler im Alltag. Hinzu kommt, dass die Implementierung von Erklärbarkeit in manchen Fällen die Schnelligkeit von KI-Lösungen negativ beeinflussen kann. Hier sollten Handelsunternehmen sorgfältig abwägen und eine für sie passende Balance finden. Auch besteht das Risiko von Fehlinterpretationen, wenn Anwender:innen die generierten Erklärungen nicht richtig verstehen oder überinterpretieren, was zu fehlgeleiteten Entscheidungen führen kann. Nicht zuletzt werfen detaillierte Erklärungen auch Datenschutzfragen auf, da sie unbeabsichtigt sensible Geschäftsinformationen offenlegen könnten. Diese Herausforderungen unterstreichen, wie wichtig eine durchdachte Implementierungsstrategie und kontinuierliche Schulung der Anwender:innen sind.
Dr. Kira Vinogradova ist Advanced Consultant für Artificial Intelligence (AI)/Computer Vision/GenAI bei Telekom MMS.