CONTROLLER Magazin 1/2020

82 muster erlernen, z. B. der k-nächste-Nachbarn- Algorithmus, oder die durch iterativen Abgleich von Input zu Output eine Art Gewichtsfilter er- stellen, wie z. B. künstliche neuronale Netze (Deep Learning). Welche Algorithmen die bes- seren Ergebnisse liefern, ist äußerst abhängig von dem beabsichtigten Forecast. Spielen viele kategorische Werte eine Rolle, beispielsweise die Produktkategorie, Produkt- farbe, Kundenkategorie, Regionen usw., sind grundsätzlich die aus der Statistik stammenden Verfahren im Vorteil, zumindest aber leichter in der zuvor notwendigen Datenaufbereitung. Ka- tegorische Werte spielen erfahrungsgemäß bei einer Retouren-Vorhersage eine große Rolle. Bei besonders vielen metrischen Werten neigen künstliche neuronale Netze zu besseren Ergeb- nissen. Dennoch sind solche Grundsätze auch als solche zu verstehen und Ausnahmen sind hier die Regel (vgl. Abbildung 1). Ein Tipp ist dann aber doch drin: Viele Fore- cast-Modelle basieren auf einem Ensemble von Entscheidungsbäumen (sogenannte Random Forests) oder einem Mix aus verschiedenen Al- gorithmen oder auf mehrschichtigen neurona- len Netzen. Dabei ist es im Ergebnis selten nur ein Modell, dass die Prädiktion über alle Pro- dukte, Kunden oder Shops ermöglicht, sondern ein Set von mehreren Modellen, die auf ihre je- weilige Kategorie abgerichtet sind (vgl. Abbil- dung 2). Statistik ist unverzichtbar Auch unter dem Einsatz von Deep Learning ist Stochastik für gute und vielseitige Forecasts unverzichtbar, denn immerhin geht es hier um die Wahrscheinlichkeit von Umsätzen, die kauf- männisch betrachtet positiv und negativ (z. B. Stornierungen, Retouren oder verloren gegan- gene Warentransporte) sein können. Ein maschinell erlerntes Modell berechnet die Wahrscheinlichkeit beispielsweise für eine Re- toure auf der Ebene einer Bestellposition, also auf Bestell-Item-Ebene. Der Prädiktionsalgo- rithmus betrachtet dabei den Kontext dieser Bestellposition, also die Situation der Position selbst und auch der übergeordneten Bestellin- formation. Abb. 1: Ein Ensemble aus Klassifikatoren, die mit den gleichen Daten (oder jeweiligen Teilen dieser Daten) trainiert werden. Hier: Entscheidungsbaumverfahren (Entropie), Naive Bayes (Häufigkeit), k-nächste-Nachbarn (Ähnlichkeit) und Support-Vector-Machine (Trennbarkeit) Abb. 2: Hier wird ein neuer Datenpunkt (z.B. eine Kunden-Bestellung) von dem Ensemble klassifiziert, beispielsweise ob diese vom Kunden wieder retourniert werden wird oder nicht. Enterprise-AI

RkJQdWJsaXNoZXIy Mjc4MQ==