Beratung vereinbaren
|
Beratung vereinbaren

Explainable AI für Zeitreihenprognosen: Forecasts erklärbar machen mit SHAP

Portrait von Dr. Markward Britsch, Senior Data Scientist bei HMS
Markward Britsch

Veröffentlicht am 10. März 2026

Warum braucht Forecasting Explainable AI?

Zeitreihenprognosen sind in Organisationen ein operatives Steuerungsinstrument. Forecasts werden regelmäßig aktualisiert, diskutiert und in Entscheidungen übersetzt. Genau deshalb entsteht ein wiederkehrendes Akzeptanzproblem: Prognosen werden als Black Box wahrgenommen.

Business-Anwender erwarten Plausibilität und Vertrauen. Sie müssen einen Forecast verstehen und gegenüber anderen erklären können. Zentral sind dabei zwei Fragen: Welche Treiber wirken? auf den Forecast und woher kommt eine Veränderung?, wenn erneut mit neuen Daten vorhergesagt wird (z.B. im Januar und dann im Februar eine Vorhersage für März getroffen wird).

Explainable AI (XAI) adressiert diese Anforderungen, indem sie Prognosewerte nachvollziehbar macht, wodurch sie entstehen, und warum sie sich zwischen zwei Prognoseläufen verändern.

Management Summary: Was ist der Business-Nutzen von erklärbaren Zeitreihenprognosen?

Erklärbare Zeitreihenprognosen sind für Entscheider relevant, weil Forecast-Systeme durch ihre Prognosen Entscheidungen beeinflussen. Wenn Forecasts als Black Box wahrgenommen werden, sinkt Akzeptanz – unabhängig davon, wie gut die Modelle sind.

Ein belastbarer XAI-Ansatz schafft Transparenz in zwei Dimensionen:

  1. Forecast-Treiber erklären: Welche Einflussgrößen treiben einen konkreten Forecast?
  2. Forecast-Revisionen erklären: Warum hat sich der Forecast in der nächsten Forecasting-Periode verändert?

Forecast-Revisionen sind in der Praxis unvermeidbar. Sie entstehen typischerweise durch neue Zielwerte, aktualisierte Features oder Modelländerungen (Parameter, Indikatoren, Algorithmus).

Eine zentrale methodische Grundlage hierfür sind SHAP-Werte, die Vorhersagen als additive Beiträge erklären.

Welche Modelle werden bei Zeitreihenprognosen eingesetzt?

Zeitreihenprognosen werden in der Praxis mit unterschiedlichen Modellklassen umgesetzt. Unterschieden wird hier meist in statistische, Machine Learning (ML) und Deep Learning (DL) Verfahren, aber auch in lineare (bspw. VAR) und nicht-lineare Modelle (bspw. XGBoost).

In produktiven Umgebungen werden Forecasts oft automatisiert erzeugt, z. B. via Auto-ML (statistische, ML und DL-Verfahren) und unter Nutzung eines Feature-Pools.

Was sind SHAP-Werte und wie erklären sie Zeitreihenprognosen?

SHAP (SHapley Additive exPlanations) basiert auf Shapley-Werten aus der koalitionstheoretischen Spieltheorie. Merkmalswerte einer Dateninstanz werden als „Spieler“ betrachtet. Die Vorhersage wird als „Auszahlung“ interpretiert, die fair auf die Merkmale verteilt wird.

Die entscheidende Eigenschaft für Forecasting ist die Additivität:

Die Summe der SHAP-Werte einer Vorhersage entspricht der Differenz zwischen der konkreten Vorhersage und der mittleren Vorhersage.

Dadurch lässt sich eine Prognose als Baseline plus Einflussbeiträge darstellen. Das ist die Basis für nachvollziehbare Treiber-Erklärungen.

Wie erklärt man Forecast-Treiber in Zeitreihenmodellen verständlich?

Zeitreihenprognosen können sehr viele Beiträge erzeugen, insbesondere durch Lag-Strukturen und mehrere externe Indikatoren. Für die Zielgruppe ist daher entscheidend, dass Erklärungen komplexitätsreduziert werden.

Ein praktikabler Ansatz ist die Aggregation: Autoregression und Saisonalität werden als eigener Einflussblock dargestellt, während Indikatoren über alle Lags hinweg zusammengefasst werden.

Zusätzlich kann eine textuelle Zusammenfassung erzeugt werden, die die wichtigsten positiven und negativen Einflüsse beschreibt.

Für die Praxis ist dabei zentral: Für manche Business-Anwender sind textuelle Erklärungen wichtig, und Komplexitätsreduzierung ist essenziell.

SHAP explanation of a time series forecast showing influence of Net Sales (target variable) and Supplier Payments (exogenous feature)

SHAP-based decomposition of a time series forecast showing the contribution of Net Sales (target variable), Supplier Payments (exogenous feature) and autoregressive seasonal effects.

 

Wie kann man Forecast-Revisionen erklären?

Forecast-Revisionen sind der häufigste Punkt, an dem Vertrauen gewonnen oder verloren wird: Warum weicht eine Prognose zwischen zwei Zeitpunkten ab, obwohl es um denselben Monat geht?

Zwei typische Fragestellungen sind:

  • Differenz zwischen Vorhersagen für denselben Monat aus unterschiedlichen Zeitpunkten
  • Differenz zwischen Vorhersagen für aufeinanderfolgende Monate

Der methodische Kern ist klar:

Forecast-Differenzen werden erklärt, indem die SHAP-Werte der Vorhersagen subtrahiert werden.

Damit wird sichtbar, welche Einflussgrößen und welche Änderungen die Revision treiben.

Warum ändern sich Forecasts zwischen zwei Forecast-Läufen?

Forecasts können sich zwischen zwei Läufen aus klar benennbaren Gründen unterscheiden:

  • neue Werte der Target-Zeitreihe (z. B. neuer Januar-Wert)
  • neue Werte eines Indikators (wenn keine Projektion genutzt wird)
  • Updates von Indikatorwerten, insbesondere bei Projektionen
  • Modelländerungen infolge dieser Änderungen: andere Parameter, andere Indikatoren, möglicherweise anderer „besserer“ Algorithmus

Diese Ursachenlogik ist entscheidend, weil sie Diskussionen strukturiert: Eine Revision ist nicht „unerklärlich“, sondern lässt sich auf konkrete Änderungen zurückführen.

Was muss Explainable AI in produktiven Forecast-Systemen leisten?

Erklärbarkeit ist nur dann wirksam, wenn sie im Betrieb anschlussfähig bleibt.

Praxisrelevante Punkte sind:

  • Vergleiche unterschiedlicher Modelle und Modelltypen sind möglich, aber oft schwierig bis wenig aussagekräftig.
  • Modelle sollten zwischen zwei Vorhersagen weniger stark geändert werden, um Vergleichbarkeit zu verbessern.
  • Textuelle Erklärungen können für Business-Anwender wichtig sein; Komplexitätsreduzierung ist essenziell.

Welche Herausforderungen treten bei der Implementierung von XAI im Forecasting auf?

Explainable AI im Zeitreihen-Forecasting ist methodisch klar beschreibbar. In der praktischen Umsetzung zeigen sich jedoch strukturelle Hürden.

1. Keine Standardlösung für Zeitreihen-XAI

Für SHAP-Werte existieren Standardbibliotheken. Diese sind jedoch in ihrer Grundform nicht speziell für Zeitreihenmodelle ausgelegt.

Zeitreihenmodelle enthalten:

  • Lag-Strukturen
  • Autoregression
  • Saisonalität
  • gruppierte Indikatoren

Eine direkte Anwendung von Standard-SHAP-Implementierungen führt daher häufig zu Erklärungen, die mathematisch korrekt, aber für Zeitreihenstrukturen nicht sinnvoll aggregiert sind.

Erklärbare Zeitreihenprognosen erfordern deshalb eine Anpassung der Darstellung und Aggregation – insbesondere bei Lag-basierten Effekten.

2. Nachträgliche Integration ist aufwändig

In der Praxis zeigt sich:
Wenn Explainable AI erst nachträglich in bestehende Forecast-Systeme integriert wird, ist der Implementierungsaufwand erheblich.

SHAP-Berechnungen müssen:

  • in bestehende Modellpipelines eingebunden werden
  • versioniert werden
  • für mehrere Forecast-Läufe vergleichbar gemacht werden
  • in Visualisierungen oder Textzusammenfassungen überführt werden

Die Erfahrung zeigt, dass eine frühzeitige Berücksichtigung von Erklärbarkeit in der Systemarchitektur deutlich einfacher ist als eine spätere Integration.

3. Enge Zusammenarbeit mit Anwendern ist notwendig

Erklärbarkeit ist kein rein technisches Problem.

Selbst wenn SHAP-Werte korrekt berechnet werden, bedeutet das nicht automatisch, dass die Erklärungen akzeptiert oder verstanden werden.

In der Praxis ist eine enge Zusammenarbeit mit Business-Anwendern notwendig, um:

  • geeignete Aggregationsebenen zu definieren
  • Terminologie anzupassen
  • relevante Treiber zu priorisieren
  • verständliche Darstellungsformen zu entwickeln

Erst wenn Erklärungen den tatsächlichen Informationsbedarf der Zielgruppe treffen, werden sie genutzt.

Fazit: Die zentrale These zu Explainable AI für Zeitreihenprognosen

Forecast-Systeme werden nicht nur daran gemessen, ob sie Prognosewerte liefern. Sie werden daran gemessen, ob diese Werte verstanden und genutzt werden.

SHAP liefert eine methodische Grundlage, um Forecast-Treiber als additive Beiträge zu erklären. Der entscheidende Mehrwert entsteht jedoch bei Revisionen:

Forecast-Revisionen werden erklärbar, indem SHAP-Werte zweier Vorhersagen differenziert werden.

Die zentrale These lautet:

Ein Forecast-System wird nicht durch komplexere Modelle vertrauenswürdig, sondern durch erklärbare Revisionen.

 

FAQ: Explainable AI im Forecasting

Was sind erklärbare Zeitreihenprognosen?

Erklärbare Zeitreihenprognosen liefern neben einem Forecast-Wert nachvollziehbare Treiber, die erklären, was eine Vorhersage beeinflusst und welche Faktoren eine Änderung zwischen zwei Läufen verursacht.

Was sind SHAP-Werte?

SHAP-Werte basieren auf Shapley-Werten aus der Spieltheorie und verteilen die Vorhersage fair auf die zugrundeliegenden Einflussfaktoren in einem additiven Erklärungsmodell.

Wie erklärt SHAP eine Vorhersage?

Die Summe der SHAP-Werte entspricht der Differenz zwischen der zeitaktuellen Vorhersage und einer mittleren Vorhersage. So lässt sich ein Forecast als Baseline plus Einflussbeiträge darstellen.

Wie erklärt man Forecast-Differenzen zwischen zwei Prognosezeitpunkten?

Indem die SHAP-Werte der beiden Vorhersagen voneinander subtrahiert werden.

Warum ändern sich Forecasts zwischen zwei Läufen?

Typische Ursachen sind neue Target-Werte, neue oder aktualisierte Indikatorwerte sowie Modelländerungen (Parameter, Indikatoren, Algorithmus).

Welche Rolle spielt Komplexitätsreduzierung bei XAI?

Komplexitätsreduzierung ist essenziell, damit Erklärungen für Business-Anwender nutzbar bleiben.

Sind textuelle Erklärungen im Forecasting sinnvoll?

Für manche Business-Anwender sind textuelle Erklärungen wichtig, um Forecasts intern erklären zu können.

 


Markward Britsch
Senior Data Scientist

Fragen zum Artikel?

Wir geben gerne Antworten.
Kontaktieren Sie uns
© 2024 – 2026 HMS Analytical Software
chevron-down