CONTROLLER Magazin 2/2020
29 Änderung in den ML- Eingabedaten widerspie- geln. Bei den Eingabedaten kann es sich um grundsätzliche neue Daten oder um additive Daten einer aktuellen Pipeline handeln. Im Beispiel der Abbildung 2 folgt eine Rabatt- anpassung für eine Kundengruppe. Dies wird auf verschiedene Industriekunden angewen- det, indem die Einzelrabatte angepasst wer- den. Hieraus können die relevanten Kunden- datensätze adjustiert werden. Eine Interferenz gibt das veränderte Kaufverhalten zurück. Falls der Entscheidungshorizont höher als die Pipelinefrequenz ist, müssen neue Einträge, die einen plausiblen Forecast darstellen, ge- neriert werden. Allerdings gelten einige Einschränkungen: · Für die Berechnung der Simulation ergibt sich die Besonderheit, dass aus der Simula- tion heraus die ML-Interferenz gestartet wer- den muss. Solche Kalkulationen sind lauf- zeitkritisch, insbesondere bei einer Monte- Carlo-Simulation. Insofern wäre es sinnvoll, die Kalkulation nicht „überbrücken“ zu müs- sen. Eine Regeltransformation zur Übernah- me in die Simulationskalkulation wäre ange- messen. Bei modernen ML-Methoden ist dies allerdings unrealistisch, da sich die er- mittelten Abhängigkeiten kaum in Formeln beschreiben lassen, die von Simulations- werkzeugen verarbeitet werden. · Die Verfahren des maschinellen Lernens werden immer selbstständiger, allerdings lei- der dadurch auch intransparent. Während ein klassisches Entscheidungsbaumverfah- ren einfach zu integrierende Regeln liefert, ist das bei neuronalen Netzen, Sampling- oder Boosting-Verfahren nicht mehr der Fall. Zwar können die Ergebnisse des ML-Modells integriert werden. Die konkreten Wirkungs- beziehungen lassen sich jedoch kaum noch isoliert betrachten. Simulationsmethoden haben sich bewährt und sind entsprechend um maschinellen Methoden zu erweitern. Allerdings ist eine Transformation notwendig. Dies ist zum einen technischer Natur (siehe Abschnitt zur Umsetzung). Es sind auch kon- zeptionelle Hürden zu überwinden. Wie auch schon beim Forecasting dargestellt, haben die ML-Modelle in der Regel andere, operative Aufgaben und werden nicht originär für die Si- mulation entwickelt. Es muss zudem eine Transformation von Korrelationen in vermutete Kausalitäten vorgenommen werden. Hierbei ist Vorsicht geboten. Da häufig mit niedriger Signifikanz potentieller Wirkungsbeziehungen gearbeitet wird, sind Einflussstärken hinsicht- lich der Plausibilität zu hinterfragen. Ein konzeptionelles Problem ist die mögliche Abstraktionsdifferenz zwischen dem ML-Modell und der Simulation. Das Controlling arbeitet bei der Simulation wie auch im Forecasting meis- tens auf periodisierten Daten. Die ML-Modelle benötigen, wenn sie wirkungsvoll sein sollen, Detaildaten, also möglichst einzelne Transakti- onen. Eine Ausnahme stellen ML-unterstützte Zeitreihenanalysen dar. Hier ist eine Kopplung einfacher. Die Ergebnisse eines ML-Modells stellen häufig Auswertungen in der Form „Kunde xy kauft mit x % Wahrscheinlichkeit“, dar. Die Simulation enthält hingegen nur Aggregationen wie bei- spielsweise Kundengruppen. Somit müssen die einzelnen Ergebnis-Datensätze auf eine Kun- dengruppe transformiert werden. Kundengrup- pen sind unter Umständen selbst Einflussgrö- ßen für die Entscheidung. Wenn beispielsweise durch eine Marketinginiti- ative die Anzahl Kundengruppe um erwartete 10% gesteigert werden soll, muss sich diese Möglichkeit bereit, zu simulieren, indem neue Daten im Sinne von Eingabeparametern gene- riert werden. Man betrachtet nur noch die In- putvariablen und das ML-Modellergebnis. Bei einfachen Simulationsmodellen dürfte das praktikabel sein. Ein Beispiel: Bei der Betrachtung einer Ver- triebspipeline könnten als wesentliche Treiber Besuchsfrequenz und Rabatte identifiziert wor- den sein. Wenn dann eine Simulation über die aktuelle Pipeline durchgeführt werden soll, können die entsprechenden Maßnahmen im Rahmen einer Simulation direkt mittels ML-Mo- dell durchgespielt werden. Fragestellungen, wie sich beispielsweise eine zweiprozentige Rabatt- erhöhung auf den Vertriebserfolg auswirkt oder welche Auswirkungen die Erhöhung der Be- suchsfrequenz auf die Kaufentscheidung haben könnten, ließen sich damit beantworten. Aber das Beispiel skizziert nur eine verein- fachte Simulation. Wenn die Erfolgs-und Li- quiditätskonsequenzen von Maßnahmen deutlich werden sollen, sind umfassendere Betrachtungen notwendig. Welche weiteren Konsequenzen ergeben sich aus einer Auf- tragsannahme? Sind vielleicht sprungfixe Kos- ten oder Engpässe zu betrachten? Welche Zahlungswirkungen sind zu betrachten? Dies betrifft Erfolg und Liquidität. Ergo ist das Ein- binden in eine umfassende Rechnung not- wendig. Auch dies könnte rein theoretisch über ein ML-Modell mit dem EBIT als Zielvari- abler erstellt werden. Allerdings wird dann ein solches Modell zu einer Blackbox, da Wir- kungsbeziehungen stark verdichtet werden. Zudem schwächt sich durch die vielfältigen Einflüsse die Identifizierbarkeit einzelner Be- ziehungen ab. Auch ist auf dieser Ebene schwer entscheidbar, ob es sich nicht unter Umständen um Modellanomalien wie bei- spielsweise Scheinkorrelationen handelt. Mehr Transparenz durch „hand- gefertigte“ Simulationsmodelle In Bezug auf die Transparenz haben „handge- fertigte“ Simulationsmodelle mit der Ergänzung von ML-Komponenten einen Vorteil. Insofern ist für eine Kopplung zwischen maschinellem Lernen und Simulation zu plädieren. Klassische Autor Prof. Dr. Karsten Oehler ist Professor für Controlling an der Provadis Hochschule Frank- furt und Solution Architect und Domain Expert für Advanced Analytics bei CCH Tagetik in Unterschleißheim. Er beschäftigt sich seit vielen Jahren mit der Ausgestaltung von Informations- systemen im Controlling. E-Mail: karsten_oehler@yahoo.de CM März / April 2020
Made with FlippingBook
RkJQdWJsaXNoZXIy Mjc4MQ==