Danny Szajnowicz ist Partner der CA Akademie AG und verantwortet den Bereich CA Consulting. Er verfügt über umfangreiche Erfahrung in der Durchführung und Leitung von Projekten in den Bereichen Strategieentwicklung, Unternehmenssteuerung/ Controlling, Organisationsentwicklung und Prozessoptimierung. in der Realität eher selten, denn ständig stoßen wir auf Beobachtungen, die klaren Trends und Saisonalitäten folgen. Der erste Schritt beinhaltet die Zerlegung der Zeitreihe, um deren Eigenschaf ten zu analysieren. Mittels einer speziellen Methode (Decomposition) können wir diesen Schritt grafisch abbilden, siehe Abb. 1. Die Zeitreihe wird zunächst in ihre Bestandteile zerlegt. Die Grafik zeigt dabei von oben nach unten: 1) Originale Datenpunkte 2) Trend 3) Saisonalität 4) White Noise Punkte (Datenpunkte, die weder einem Trend noch einer Saisonalität zugeordnet werden können) Wie zuvor angedeutet, ist die Voraussetzung für die Modellierung von Zeitreihen deren Stationarität; Im vorliegenden Beispiel ist dies leider nicht der Fall. Genau aus diesem Grund sind ARIMA-Modelle die passende Lösung, denn sie ermöglichen die Modellierung unregelmäßiger Zeitreihen. Trend und Nicht-Stationarität werden vom Algorithmus anhand statistischer Methoden (Transformation) sofort erkannt und im Modell mitberücksichtigt, wobei Mittelwert und Varianz über den Zeitraum stabilisiert werden. Dies erfolgt entweder durch Logarithmieren oder Bildung der First-Order-Dif ference, d.h. man bildet die Dif ferenz von Periode zu Periode (hier Woche zuWoche). Mit Hilfe eines Correlograms kann man visuell herauszufinden, ob ein Auto Regressive (AR) oder ein Moving Average (MA)-Prozess vorliegt. Stellt man beispielsweise eine Autokorrelation über mehrere vergangene Datenpunkte fest (sog. „LAGS“), dann sprechen wir von einem autoregressiven Prozess, der Abhängigkeiten über die gesamte Zeitreihe berücksichtigen sollte. Sind die Abhängigkeiten jedoch nur für eine kurze Dauer zu beobachten, handelt es sich eher um ein MA-Prozess. Nach erfolgter Analyse der Zeitreiheneigenschaf ten können wir das finale Modell laufen lassen, um Schätzungen und Validierungen vornehmen zu können, siehe Abb. 2. Zu sehen ist die ursprüngliche Zeitreihe mit einem maschinellen Forecast in blau. Die grauen Bereiche definieren die Konfidenzintervalle. Sie stellen einen statistisch berechneten Bereich dar, mit dem man besser einschätzen kann, wo der wahre Mittelwert des vorhergesagten Datenpunktes liegt. Der Forecast lässt sofort erkennen, wie das Modell den Trend und die Saisonalität mitberücksichtigt hat. Wichtig ist jetzt, noch das Modell zu validieren. Dies erfolgt durch die genauere Analyse der sogenannten Residuen oder Abweichungen. Die wichtigsten Punkte sind dabei dessen Stationarität und Normalverteilung. Hier gibt es im Statistikprogramm R eine entsprechende Funktion, die die Analyse grafisch aufbereitet. Das Vorhersagemodell ist nun aufgebaut. Zu guter Letzt ist die Qualität des Modells zu testen, indem die vorhergesagten Werte mit den tatsächlich eingetretenen Werten verglichen werden (sogenanntes Backtesting). Im präsentierten Beispiel betrug die durchschnittliche Abweichung ca. +/- 2%. Dies stellt ein sehr gutes Ergebnis dar, mit demman exzellent arbeiten kann. Abschließend noch zwei Hinweise: Je mehr Datenpunkte zur Verfügung stehen, desto besser kann der Algorithmus arbeiten. Als Faustregel ist von mindestens 50 Datenpunkten auszugehen. ImModell kann der Parameter des vorhergesagten Zeitraums manuell definiert werden (in Beispiel sind es 20 Wochen). Je höher dieser Wert ist, desto ungenauer wird die Vorhersage. Man kann das mit einer Wettervorhersage vergleichen. Wie das Wetter in den nächsten 3 Tagen aussehen wird ist recht gut prognostizierbar. Eine Vorhersage der nächsten 2 Wochen hingegen ist ziemlich schwierig. f Predictive Analytics Community Nächste Termine 13.05.2022: V orgehen und Erfahrungen bei der Einführung von Predictive Analytics bei bofrost 07.07.2022: P räsenztermin in Hamburg mit Erfahrungsaustausch 16.09.2022: E xcelbasierte Prognose von Marktparametern 18.11.2022: Risikomanagement mit „R“ www.controllerakademie.de/ predictive-analytics/ „Impräsentierten Beispiel betrug die durchschnittliche Abweichung ca. +/- 2%. Dies stellt ein sehr gutes Ergebnis dar, mit dem man exzellent arbeiten kann.”
RkJQdWJsaXNoZXIy Mjc4MQ==