CONTROLLER Magazin 1/2020
83 Doch wenn der Algorithmus nun die Wahrscheinlichkeit einer Warenrück- sendung auf Ebene der Bestellposition vorhersagt, wie lässt sich dann die Wahrscheinlichkeit dafür herleiten, dass auf Ebene der Bestellung min- destens eine Bestellposition retourniert wird? Denn nur Bestellungen, in denen eine oder auch mehrere Bestellpositionen zurückgesendet werden, verursachen Transportkosten. Angewandte Statistik ergänzt die Prädiktion um weitere Wahrscheinlich- keitsaussagen: P ( X = "min. ein Artikel retouniert") = 1 – P ( X = "alle Artikel behalten") P ( X = "min. ein Artikel retouniert") = 1 – ∏ i n =1( P ( x i = "Artikel behalten")) P ( X = "min. ein Artikel retouniert") = 1 – ∏ i n =1(1 – P ( x i = "Artikel retou- niert")), wobei i für jeden Artikel inklusive der Berücksichtigung der gekauften Anzahl pro Artikel steht. Wenn also eine Bestellung zwei unterschiedliche Artikel A und B beinhal- tet, wobei A in diesem Bestell-Kontext eine Retourenquote von 40% und B eine von 5% aufweist, A in der Menge 1 und B in der Menge 2 gekauft wurden, ist die Wahrscheinlichkeit dafür, dass eine Bestellung mindes- tens einen Rückversand (Transport-Auftrag) auslöst: P ( X = "min. one item returned") = 1 – (1 – 0.4) * (1 – 0.05) * (1 – 0.05) = 46% Training, Test und Validierung Gedanklich befinden wir uns dabei übrigens im Kontext des Forecastings ausschließlich im überwachten maschinellen Lernen, also einer Metho- dik, in der Modelle maschinell generiert werden, die die Beziehung zwi- schen einem Input und einem Output von Metriken beschreiben. Mit anderen Worten: Für den Aufbau eines Prädiktors werden Daten-His- torien benötigt, die jene Situationen beinhalten, auf die wir uns auch in gleicher oder ähnlicher Konstellation auf die Zukunft vorbereiten wollen. Dies bedeutet zum einen, dass völlig neue Situationen nicht – oder nur unzureichend – abgefangen werden, das Modell daher laufend neu trai- niert werden muss. Zum anderen aber auch, dass wir diese Historie in einer Datenbank vorliegend benötigen. Diese Datenhistorie wird gleichfalls auch für den Test des Prädiktors be- nötigt. Denn mit einem Anteil an den Daten, die nicht zum Training ver- wendet werden, kann ermittelt werden, wie akkurat die Prognosen des Modells sind. Wurde ein im Test zufriedenstellendes Modell gefunden, wird dieses über Probeläufe im produktiven Einsatz validiert, meistens in Form des paral- lelen Einsatzes als Empfehlungssystem. Ein gutes und skalierbares Mo- dell, welches im rollenden Lauf trainiert wird, wird sehr schnell besser werden als jede vom Menschen festgelegte Regel. Ganz egal, wie viele Jahre an Erfahrung jener elitäre Personenkreis haben mag. Vom Prototypen zum produktiven Einsatz Den Prototypen zu entwickeln und dessen Ergebnisse zu validieren ist die eine Sache, ihn in das Unternehmen zu integrieren – und erst somit wirk- lich Enterprise-fähig zu machen – dann doch noch die andere, die häufig vergessen wird und an der auch so manches Data Science Team letzt- endlich gescheitert ist. IT’ler sprechen in diesem Kontext übrigens vom Deployment des Machine Learning Algorithmus, der als Prädiktor mit X- Variablen (= z. B. der Bestellkontext) gefüttert werden soll und als Prädik- tor für y-Variablen (z. B. der Umsatz oder die Retouren) fungiert. Abhängig von der generellen IT-Strategie des Unternehmens gibt es immer einen Weg des Deployments, sofern dieser seit dem Beginn der Entwicklung nicht aus dem Auge verloren wurde. Dabei spielt beispielsweise auch eine Rolle, wie oft der Algorithmus neu trainiert werden soll. Wenn die Integration in eine physisch vorhandene oder On-Premises zugebuchte IT-Infrastruktur nicht implementiert werden soll, empfiehlt sich das Deployment in der Cloud, beispielsweise über Microsoft Azu- re, Google Cloud Platform oder Amazon Web Services. Der Prädiktor wird dann zwar in die Cloud verlagert, kann jedoch als Webservice ein- fach von bestehenden IT-Systemen aufgerufen und abgefragt werden. Der Automatisierung von operativen Entscheidungen steht somit nichts mehr im Wege. Fazit Der Schritt weg vom manuellen Forecast in Excel zu einer selbstlernen- den und automatisierten Lösung ist nicht ganz einfach, aber machbar und bereits vielfach erprobt sowohl im Handel und eCommerce als auch in der Finanzwelt und der traditionellen Industrie. Mit Ensemble Learning und Deep Learning lassen sich Vorhersagen treffen, die eine Treffsicherheit von +/- 1% erreichen und zu mehr als 85% akkurat sind, also in mehr als 85% Vorhersage-Fällen wirtschaftlich hilfreiche Prognosen machen. Und ja, diese Prognose-Modelle lassen sich recht einfach in die beste- hende IT-Infrastruktur integrieren und die Prognosen in die Business In- telligence und andere IT-Systeme zur Weiterverarbeitung einspeisen. Autor Benjamin Aunkofer ist Chief Data Scientist bei DATANOMIQ und war auch als Interim Head of Busi- ness Intelligence bei verschiedenen Unternehmen tätig. Er befasst sich da- bei mit Data Science und Machine Learning für Business Analytics und lehrt diese Themen als Blogger und als Dozent an der HTW Berlin für die Wirt- schafts- und Informatik-Studiengänge. E-Mail: aunkofer@googlemail.com CM Januar / Februar 2020
Made with FlippingBook
RkJQdWJsaXNoZXIy Mjc4MQ==