Management Reporting
Die Standardformatierung der Bericfite reictit
für spezielle Kundenanforderungen oft nicht
aus. Zum Beispiel kann es oft nötig sein, be–
stimmte Spalten je nach Berichtsanforderung
ein- oder auszublenden. Durch die starke Of–
fice-Integration ist die
Verwendung von VBA-
Makros
in Standardberichten einfach möglich,
die dann beim Aktualisieren der Berichte ange–
stoßen werden.
Projekterfahrungen und Best
Practices
Bei der Durchführung von Reportingprojekten
mit Microsoft Bl im Allgemeinen und im Beson–
deren bei Bl-Projekten in einem volatilen Um–
feld sind einige Dinge zu beachten. Vor allem
vor dem Hintergrund häufiger Änderungen in
den Anforderungen an das Reporting und bei
den Masterdaten ist es ratsam, die folgenden
Erfahrungen bei der Planung ähnlich gearteter
Projektvorhaben zu berücksichtigen.
Gerade bei Business Intelligence-Projekten be–
steht oftmals die Gefahr die Erwartungen an
das Vorhaben zu hoch zu stecken, um dann
nach der Realisierung enttäuscht zu sein. Die
Komplexität des Vorhabens, die aufgrund vieler
Abhängigkeiten im systemtechnischen und or–
ganisatorischen Bereich meistens sehr hoch ist,
wird oft unterschätzt, und Anforderungen wer–
den zu unscharf formuliert. Daher ist ein
realis–
tisches und gezieltes Anforderungsma–
nagement
essentiell für den Projekterfolg.
Anforderungen und Aufwand
dürfen nicht unterschätzt werden
Selbst wenn die Applikation flexibel gestaltet ist,
wird der Aufwand an mehreren Stellen häufig zu
niedrig geschätzt. Scheinbar einfache Ände–
rungswünsche bei den Reports erfordern oft–
mals aufwändige Anpassungen an mehreren
Stellen der Reportingapplikation. Daneben kann
die Klärung bei der Abstimmung unterschied–
licher Zahlen zum selben Thema, insbesondere
bei
manuellen Korrekturen in Excel, ein
Aufwandstreiber
sein. Frühzeitige Optimie–
rungen durch Reduktion manueller Schritte, z.B.
durch VBA-Makros, kann hier besonders von
82
Vorteil sein.
Die
Integration des Systems in bestehende
IT-Landschaften
des Kunden sollte möglichst
früh geklärt werden. Denn aufgrund von zu
Recht vorliegenden strengen IT-Richtlinien und
komplexen Domainstrukturen wird das Einbin–
den in bestehende Authentifizierungs- und Äu-
torisierungskonzepte oftmals ein längeres Un–
terfangen als geplant.
Sorgfältige Modellierung zahlt
sich aus
Das Design der für das Reporting benötigten
Modelle bzw. Cubes ist ausschlaggebend für
die Performance. Ein
schlechtes Design kann
die Laufzeit
einzelner Standardreports bei spe–
ziellen Selektionen exponentiell erhöhen, denn
selbst die beste Software kann mathematische
Berechnungsgesetze nicht umgehen. Oft emp–
fiehlt es sich, nicht alle Reporting-Anforde-
rungen in einem Modell abzubilden, sondern
mit Hilfe von Geschäftsregeln aus einem Gene–
ralmodell einzelne Submodelle abzuleiten, wo–
bei hier entsprechend vorberechnete Datensät–
ze physisch in den relationalen Tabellen abge–
legt werden. Für die spätere Administration der
abgeleiteten Modelle ist hierbei zu beachten,
dass diese nicht nur nach einem Update des
Hauptmodells aktualisiert werden müssen, son–
dern dass auch Änderungen am Datenmodell
an sich reflektiert werden müssen.
Um die Qualität und Flexiblität bei Berechnungen
zu steigern, sollte auf Ad-hoc-Regeln zurückge–
griffen werden, die direkt auf den Cubes ausge–
führt werden. Zum Beispiel kann ein bestimmtes
Versionselement eingeführt werden, das dann
zur Berechnung von Abweichungsspalten zwi–
schen Versionen wie Actual und Forecast be–
nutzt wird. Es ist aus Performance-Gründen
stets ratsam, viele voneinander abhängige Re–
geln für Ad-hoc-Berechnungen zu vermeiden.
Kollisionen mehrerer gleichzeitg aktiver Regeln
kann durch sorgfältiges Design des Berech–
nungsablaufs entgegengewirkt werden.
Stammdaten müssen aktuell und
konsistent gehalten werden
Den künftigen Benutzern ist ein solides Ver–
ständnis für das strukturierte und mehrdimensi–
onale Datenmodell zu vermitteln, damit nicht
weiterhin in einfachen Excel-Strukturen gedacht
wird. Oft ist nicht bekannt, dass manche Ände–
rungen an den Masterdaten, wie z.B. zusätz–
liche Eigenschaften in Dimensionen, keinen
großen Aufwand nach sich ziehen, während
scheinbar einfache Konfigurationen wie die Ab–
bildung von Matrixstrukturen, z.B. die Szenario–
zuordnung von Landesgesellschaften und Ge–
schäftsaktivitäten, im Datenmodell nur schwer
umgesetzt werden können. Durch eine
aus–
führliche und sorgfältige Masterdatenana–
lyse
kann beispielsweise eine im Nachgang
schwierige Änderung einer Dimensionsbezeich–
nung vermieden werden.
Auch bei einer kleineren Lösung darf
das
Stammdaten-Management nicht unterschätzt
werden. Ein lückenloses manuelles Tracking al–
ler Systemänderungen muss gewährleistet sein,
um
die Masterdaten und auch die jeweiligen
Berichte der Reportingapplikation immer auf
dem neuesten Stand zu halten. Falls große Ab–
hängigkeiten von Quellsystemen vorhanden und
häufige Änderungen im Bereich der Masterda–
ten zu entarten sind, empfiehlt sich eine
di–
rekte Anbindung des Masterdatenmanage–
ments
über die Integration Services.
Eine korrekte Datenübernahme
aus den Vorsystemen muss
sichergestellt werden
Eine stets aktuelle Datenbasis ist für ein erfolg–
reiches Controlling und Reporting ausschlagge–
bend. Deshalb ist das automatische Tracking
von Daten-Uploads aus den Vorsystemen sehr
empfehlenswert. Dieses kann in das entspre–
chende SSIS-Package integriert werden, wobei
nach jedem erfolgreichen Ladeprozess der ak–
tuelle Datenstand in einer simplen Tabelle fest–
gehalten wird. Der aktuelle Stand dieser Tabelle
kann jeder Standardauswertung in Excel auf
einem separaten Blatt hinzugefügt werden, da–
mit man bei einer Aktualisierung des Reports
auch das Datum der letzten Aktualisierung aus
dem Vorsystem bzw. den Datenstand parat hat.
Nicht nur empfehlenswert, sondern essentiell
ist die Sicherstellung einer korrekten Daten–
übernahme aus dem Vorsystem in die Repor–
tingapplikation. Die hierfür notwendige Abstim–
mung (Reconciliation) der Datenbasis kann
ONTROLLER