
Zeitreihenprognosen werden häufig als klar definierte Machine-Learning-Aufgabe verstanden: Daten werden gesammelt und aufbereitet, Modelle trainiert, Forecasts generiert und über Metriken bewertet.
In Forecasting-Projekten zeigt sich jedoch, dass Prognosen selten isoliert als Modelloutput betrachtet werden. Sie sind in vielen Organisationen eine Grundlage für geschäftskritische Entscheidungen und damit automatisch Gegenstand intensiver Prüfung und Diskussion.
Ein zentrales Spannungsfeld entsteht dabei oft aus zwei Faktoren:
Die technische Modellqualität ist damit nur ein Teil des Gesamtbildes. Entscheidend ist, ob Forecasts in der Organisation akzeptiert und nutzbar gemacht werden können.
Die folgenden Erkenntnisse basieren auf Projekterfahrungen aus der Entwicklung und Umsetzung von Forecasting-Lösungen in regulierten Unternehmensumgebungen bei HMS Analytical Software GmbH.
Erfolgreiche Prognoseanwendungen zeichnen sich nicht allein durch eine beispielsweise hohe Genauigkeit aus, sondern durch Eigenschaften, die eine Nutzung im operativen Umfeld ermöglichen.
Drei Aspekte stechen aus den Projekterfahrungen besonders hervor:
Zusätzlich muss eine Grundsatzentscheidung getroffen werden: Soll ein Forecast mittels unabhängigen und allgemeinen Ansatzes entstehen oder auf einzelne Business-Anforderungen angepasst werden? Die Antwort beeinflusst Akzeptanz und Governance der gesamten Lösung.
In HMS-Projekten zeigte sich dabei, dass technische Forecast-Qualität allein selten ausreicht, wenn die organisatorische Einbettung und die Vergleichbarkeit mit bestehenden Prozessen nicht geklärt sind.
Die betrachteten Projekte wurden auf unterschiedlichen Plattformen umgesetzt. Genutzt wurden unter anderem:
Plattformen
Infrastruktur und Orchestrierung
Umsetzung und Modellierung
Forecasting-Methoden
Die Kombination dieser Technologien spiegelt typische HMS-Projektanforderungen wider: Forecasting muss nicht nur modelliert, sondern als reproduzierbarer End-to-End-Prozess in bestehende Datenplattformen integriert werden.
Die Methoden zeigen, dass Forecasting in der Praxis häufig sowohl klassische Zeitreihenverfahren als auch Machine-Learning-Modelle umfasst – abhängig von Datenlage, Zielbild und Skalierungsanforderungen.
Ein zentrales Learning aus dem Projektkontext lautet:
Verständnis führt zu Akzeptanz.
Forecasting-Systeme werden nicht automatisch akzeptiert, nur weil sie mathematisch oder statistisch überzeugend wirken. Besonders dann, wenn eine neue Applikation mit bestehenden Prozessen oder Tools verglichen wird, entsteht Erklärungsbedarf.
Im Projektkontext wurde daher empfohlen, Lösungen frühzeitig „zum Anfassen“ bereitzustellen, etwa durch:
Explainable AI für Zeitreihenprognosen wird damit nicht als Zusatz verstanden, sondern als Voraussetzung, um Forecasts in die Entscheidungslogik des Business integrieren zu können.
Aus HMS-Sicht ist Explainability damit kein optionales Feature, sondern ein zentrales Element der Produktakzeptanz in Forecasting-Systemen.
Ein wiederkehrender praktischer Mechanismus ist der Vergleich neuer Forecasting-Lösungen mit vorhandenem Tooling, häufig anhand identischer Evaluationsmetriken.
Dieser Vergleich entsteht typischerweise aus Business-Sicht: Der Erfolg eines neuen Tools wird daran bewertet, ob es gemessen an der bestehenden Metrik mindestens gleichwertig oder besser ist als das bisherige Verfahren.
Gleichzeitig wurde klar formuliert:
Niemals auf eine einzige Evaluationsmetrik verlassen.
Aus Data-Science-Perspektive reicht eine einzelne Kennzahl nicht aus, um Prognosequalität umfassend zu bewerten. Forecasts sollten zusätzlich gegen tatsächliche Werte validiert werden, beispielsweise stichprobenartig über Plots, und gegen eine größere Anzahl an Metriken.
Abweichungen zwischen einer neuen Forecasting-Lösung und einem bestehenden Vergleichstool sind dabei nicht zwingend ein Hinweis auf schlechte Modellierung.
Ebenso können Differenzen zwischen Forecast und tatsächlichen Werten unterschiedliche Ursachen haben, die über eine einzelne Evaluationsmetrik hinausgehen.
In den Projekten zeigte sich, dass solche Abweichungen häufig aus strukturellen Unterschieden zwischen den Tools entstehen , etwa durch:
Forecast-Differenzen zu erklären bedeutet daher, jeweils klar zu benennen, welcher Vergleich vorgenommen wird: Gegen ein bestehendes Tool, gegen tatsächliche Werte oder entlang unterschiedlicher Datenkontexte.
Ein weiteres Learning aus den Projekten war, dass Forecasting-Systeme langfristig nur dann funktionieren, wenn Feedbackprozesse vorgesehen sind.
Erfolgreiche Applikationen leben von Feedback der Nutzer und des Business. Gleichzeitig sollte früh definiert werden:
Die Erfahrung zeigte zudem, dass Business-Nutzung oft erst dann entsteht, wenn das Business selbst Verantwortung für die Forecasting-Lösung übernimmt – beispielsweise finanziell oder organisatorisch.
Forecast-Revisionen sind damit weniger ein Sonderfall als eine erwartbare Konsequenz realer Nutzung.
Eine der wichtigsten fachlichen Entscheidungen betrifft die Ausrichtung der Prognose:
Soll das Forecasting-System eine unabhängige Vorhersage liefern oder soll es Business-Erwartungen berücksichtigen?
Im Projektkontext wurde diese Entscheidung explizit als Spannungsfeld formuliert:
Die Klärung dieser Frage wurde als Grundlage für Akzeptanz bewertet. Ohne diese Entscheidung bleibt unklar, nach welchen Kriterien ein Forecast „richtig“ ist.
Diese Entscheidung hat sich in HMS-Projekten als zentrale Weichenstellung erwiesen, sowohl für die Modelllogik als auch für die spätere Nutzung durch Fachbereiche.
Forecasting-Projekte starten häufig mit globalen Datenquellen, beispielsweise Sales-Zahlen. Gleichzeitig verfügen Länder und Business Units häufig über zusätzliche lokale Datentöpfe.
Im Projektkontext wurde klar benannt, dass das Business häufig erwartet, dass diese lokalen Datenquellen beispielsweise als Indikatoren in Forecasts einfließen.
Eine Forecasting-Lösung sollte daher in der Lage sein, ein breites Spektrum lokaler Datenquellen in ein generalisiertes Modellierungsframework zu integrieren.
Forecasting-Projekte können nur dann sinnvoll umgesetzt werden, wenn ein Zielbild definiert ist. In einem Projektkontext wurde explizit benannt, dass das angestrebte Zielbild zunächst unklar war, sowohl in Bezug auf Automatisierung und Standardisierung als auch auf die zugrunde liegende Datengrundlage.
Im Forecasting betrifft die Zieldefinition nicht nur technische Anforderungen, sondern vor allem die Frage, was als „gute“ Prognose gilt:
Soll primär eine Metrik optimiert werden?
Soll das bestehende Tool ersetzt oder ergänzt werden?
Oder steht Transparenz über Prognoseverhalten im Vordergrund?
Die Projekterfahrung zeigte, dass insbesondere die Erwartungshaltung des internen Kunden präzisiert werden muss, bevor Modellierung sinnvoll bewertet werden kann.
Ein wiederkehrendes Hindernis im Projektverlauf war die Unsicherheit über die Datengrundlage sowie Verzögerungen durch Zugriffs- und Berechtigungsfragen.
Aus Kundensicht steht dabei vor allem eine andere Erwartung im Vordergrund:
Die relevanten Daten sollen vollständig, aktuell und zuverlässig verfügbar sein – insbesondere dann, wenn Prognosen als Entscheidungsgrundlage dienen.
Die Projekterfahrung lässt sich in einem Satz zusammenfassen:
Ohne Daten keine Ergebnisse.
Für die Umsetzung bedeutet das zweierlei:
Forecasting-Systeme sind damit unmittelbar abhängig von organisatorisch geklärtem Datenzugriff – nicht nur von Modellqualität.
In einem Proof-of-Concept-Kontext wurde als Empfehlung formuliert: mehr Fokus auf Plots und Ergebnisdarstellung, weniger Fokus auf Infrastruktur.
Diese Beobachtung ist fachlich relevant, weil sie verdeutlicht, dass Forecasting-Projekte nicht allein über technische Eleganz bewertet werden, sondern über die Frage, ob Ergebnisse für Stakeholder nachvollziehbar und bewertbar sind.
Starke Prognoseanwendung entstehen nicht nur durch die Wahl eines einzelnen Algorithmus, sondern durch die Fähigkeit, Forecasts nachvollziehbar, vergleichbar und organisatorisch anschlussfähig zu machen.
Die Projekterfahrungen zeigen: Akzeptanz entsteht durch Verständnis, Prognosequalität darf nicht über eine einzelne Metrik bewertet werden, und lokale Datenquellen sind häufig entscheidend für die tatsächliche Nutzbarkeit von Forecasting-Systemen.
HMS positioniert Forecasting daher nicht als reines Modellthema, sondern als Zusammenspiel aus Datenintegration, Modellierung, Validierung und Business-Akzeptanz.
