CONTROLLER Magazin 1/2020
68 oder der Kosten. Auch der Einbezug von Ein- flussgrößen oder Treibern ist nichts Neues. In Bezug auf Linearität und Separationsannah- men gibt es allerdings keine Beschränkungen mehr. Neuronale Netze sind beispielsweise in der Lage, jegliche Funktionsart abzubilden. Neu ist, deutlich granularere Informationen in die Analyse einzubeziehen. Man betrachtet das Verhalten eines einzelnen Kunden anstatt einer abstrakten Verdichtung, beispielsweise Kun- dengruppen. Deswegen ist Big Data wichtig. Machine Learning setzt häufig auf Einzelbeob- achtungen wie Kundenabwanderungen auf. Statt einer Trendanalyse können konkrete Ei- genschaften in vorhandenen Daten (zum Bei- spiel Leads und Opportunities aus dem CRM) verwendet werden. Auch unstrukturierte Daten wie eMails oder Gesprächsnotizen lassen sich einbeziehen. Abbildung 1 stellt die klassische statistische Analyse dem maschinellen Lernen gegenüber. Sie zeigt, dass die Methoden feiner werden, aber auch deutlich mehr Daten brauchen. Da- bei stellt sich auch die Frage der Datenhoheit. Neu ist auch die Einfachheit moderner Werk- zeuge hinsichtlich der Konfiguration. Bislang erfordern ML-Ansätze einen hohen Konfigurati- onsaufwand. Sogenanntes automatisches ML ermöglicht die automatische Konfiguration der Analyseparameter, der Modelle und auch kommt einer Regressionsanalyse nicht gut. Somit ist eine Voranalyse (zum Beispiel eine Hauptkomponentenanalyse) insbesondere bei vielen Einflussgrößen unerlässlich. · Es ist eine größere Anzahl an Datenpunkten notwendig. Die Qualitätsprüfung im Rah- men einer Zeitreihenanalyse erfolgt in der Regel „in Sample“, d. h. die Qualität wird an- hand der Trainingsdaten (Abweichung zwi- schen Modellergebnis und Istwert) ermittelt, eigentlich eine „Todsünde“ im maschinellen Lernen. Zudem gibt es auch Herausforderungen bei der Datenanalyse, die ein manuelles Eingreifen not- wendig machen. 6 Zum Beispiel fehlen Daten bei neuen Produkten. Auch alle möglichen Arten von Strukturbrüchen, z. B. Preiserhöhungen er- schweren die Analyse. Maschinelles Lernen Maschinelles Lernen als Teilgebiet der künstli- chen Intelligenz ist in der Lage, selbständig Zu- sammenhänge oder Auffälligkeiten entdecken zu können, überwacht oder unüberwacht auf der Basis von Trainingsdaten. Was kann nun maschinelles Lernen besser als statistische Verfahren? Die Fragestellung an sich hat sich nicht verändert. Ziel ist immer noch, die möglichst akkurate Vorhersage einer oder meh- rere Zielgrößen, beispielsweise des Absatzes und ein gewisses Volumen an Datenpunkten. Das ist beispielsweise bei Massenproduktion häufig gegeben. Anknüpfpunkt statistische Verfahren Die statistischen Methoden haben aber einige Limitationen: · In der klassischen Statistik wird in der Regel mit linearen Annahmen gearbeitet. Regressi- onskoeffizienten spiegeln diesen Sachverhalt wider. Dies wird bei Treiberabhängigkeiten genutzt: Aufgrund einer Ausprägung, z. B. ei- nes Rabatts, kann über den Koeffizienten das Ergebnis (Absatzvolumen) ermittelt wer- den. Diese Linearitätsannahme ist nicht un- problematisch, weil häufig realitätsfern. 5 Die Annahme der Linearität bei einer möglichen Rabatt-Absatz-Relation erscheint gewagt: Es erscheint plausibel, dass die Rabattwirkung mit zunehmender Höhe nachlässt. · In der Regel geht man von additiven Wirkun- gen der Einflussgrößen aus. Auch dies ist zu hinterfragen. Am Beispiel von Qualität und Rabatt kann man sich das vorstellen: Bei zu- nehmender Qualität könnte die Wirkung von Rabatten auf den Absatz abnehmen. Prog- nosen, die von einer deutlichen Rabatterhö- hung ausgehen, könnten somit stark in Be- zug auf die Wirkung auf den Absatz ver- fälscht werden. · Starke Korrelationen zwischen den Einfluss- größen (sogenannte Multikollinearität) be- Abb. 1: Gradueller Übergang Statistik zu maschinellem Lernen Advanced Analytics im Controlling
Made with FlippingBook
RkJQdWJsaXNoZXIy Mjc4MQ==