11
03/17 PERSONALquarterly
Diese Kritik richtet sich aber nicht einseitig gegen Unter-
nehmensberater, auch Forscher sind – vor allem in der Ver-
gangenheit – immer wieder in dieselbe Falle getappt, aus
Korrelationen voreilig Kausalschlüsse zu ziehen. In den letz-
ten Jahren ist aber in der empirischen Forschung, vor allem
durch einen starken Fokus auf die Etablierung kausaler Wirk-
zusammenhänge in vielen Bereichen, ein sehr starker Trend
zur Präzision in der Sprache zu beobachten. People Analytics
kann dem Management gegenüber nur dann glaubwürdige
Handlungsempfehlungen geben, wenn die Analysen präzise
interpretiert werden.
Empfehlung:
Vermeiden Sie voreilige kausale Interpretati-
onen von Korrelationen.
Wie aber kann ich Wirkung evaluieren und einen präzisen
Business Case liefern?
Die Identifikation interessanter Korrelationen ist oft der erste
Schritt hin zu People-Analytics-Prozessen mit einem noch hö-
heren Reifegrad, bei denen das entscheidende Ziel der Nach-
weis von Wirkung (Ziel 2) ist. Denn nur auf diesen kann man
einen Business Case präzise und sauber aufbauen. Im Idealfall
erreicht man dadurch Aussagen wie „Das Trainingsprogramm
steigert den Gewinn pro Mitarbeiter im Mittel um 1.500 Euro
im Jahr“ oder „Die Maßnahme X senkt die Fluktuationsrate im
Mittel um 17%“. Hier wird also nicht nur der kausale Zusam-
menhang qualitativ identifiziert; gleichzeitig wird die Effekti-
vität einer Maßnahme auch noch quantifiziert. Dies ist sicher
ein ambitioniertes Ziel, das in vielen Fällen nur schwer zu
erreichen sein wird. Es ist aber manchmal auch überraschend
einfach, hier zu klaren Antworten zu kommen.
Wie kann ich also im Unternehmen die Frage beantworten:
„Wenn ich X verändere, wie wirkt sich dies auf Y aus?“. Es
gibt dazu im Grunde nur einen sauberen Weg – wir müssen
X aktiv verändern und dies ausschließlich für eine zufällig
ausgewählte Teilgruppe tun. Die Statistiker Rubin und Hol-
land haben dazu einmal das Motto ausgegeben „No Causation
without Manipulation“ (vgl. Holland, 1986, S. 959). Mit ande-
ren Worten: Man kann einen Kausalnachweis nur mit einer
aktiven, kontrollierten Veränderung erreichen. Dies ist sehr
wichtig in der prominenten Debatte über Big Data: Auch ein
noch so großer Datensatz garantiert mir nicht, dass ich Kausa-
lität nachweisen kann. Um Wirkung nachzuweisen, muss ein
Unternehmen gezielt Maßnahmen für Teilgruppen verändern.
Forscher sprechen dann oft trocken vom „Durchführen von
Feldexperimenten mit einer Kontrollgruppe“ oder von „RCTs“
(Randomized Controlled Trials). Silicon-Valley-Unternehmen
wie Ebay und Google nennen es „A/B Testing“.
Gerade in der personalökonomischen Literatur der letzten
Jahre gibt es eine ganze Reihe von Beispielen für erfolgreich
durchgeführte Feldexperimente mit hohem praktischem Er-
kenntnisgewinn. Eine der ersten Studien stammt von Lazear
(2000), der den Übergang von einem gehaltsbasierten hin
zu einem stückbasierten Entlohnungssystem beim amerika-
nischen Reparaturunternehmen für Windschutzscheiben Safe
lite Glass beleuchtet. Er kann zeigen, dass dieser Übergang zu
Produktivitätsgewinnen von 44% je Mitarbeiter geführt hat.
Besonders interessant ist, dass sich dieser Gesamteffekt je zur
Hälfte auf Anreize und Rekrutierungseffekte zurückführen
lässt: „Alte“ (verbleibende) Mitarbeiter werden nun produk-
tiver und unproduktive Mitarbeiter verlassen das Unterneh-
men, während produktivere vom Stücklohn angezogen werden.
Bei Safelite wurde kein echtes RCT durchgeführt, d.h. es wurde
nicht randomisiert, welche Filiale in das neue Vergütungssys
tem aufgenommen wurde. Es ergab sich aber die Struktur eines
„natürlichen Experiments“, da das neue System nicht überall
gleichzeitig, sondern schrittweise ausgerollt wurde. Dadurch
wird ein Kontrollgruppenvergleich möglich und mithilfe dieses
Kontrollgruppenvergleichs identifiziert Lazear den kausalen
Effekt des neuen Systems.
Eine ganze Reihe aktueller experimenteller Studien in Un-
ternehmen befassen sich mit der Effektivität von spezifischen
Anreizmechanismen. Manthei und Sliwka (2016) analysieren
dazu ein Beispiel aus dem Privatkundengeschäft einer Bank
in Deutschland. Die Bank hatte vor mehr als zehn Jahren
eine Diskussion mit dem eigenen Betriebsrat. Es ging um die
Frage, ob die Filialleiter zur Vergabe von Bonuszahlungen
und für Zielvereinbarungen Zugriff auf die im IT-System der
Bank gespeicherten Daten über die Kundenabschlüsse der Fi-
lialmitarbeiter haben sollte. Die Bank kam in der Diskussion
zu einer Lösung, die dem Ideal eines RCT sehr nahekam: Sie
führte die Maßnahme für einen Zeitraum von sechs Monaten
in einer Teilgruppe von für das Filialnetz der Bank repräsen-
tativ ausgewählten Filialen ein. Die Analyse zeigt, dass in
diesen Filialen der finanzielle Erfolg signifikant stärker stieg
als in den anderen – ein sauberer Nachweis, dass die Maßnah-
me wirkt, die dann auch ein Jahr später unternehmensweit
ausgerollt wurde.
Friebel et al. (2016) führen ein RCT in einer Bäckereikette
durch und weisen anhand der Einführung eines Teambonus in
einer zufällig ausgewählten Teilgruppe von Filialen nach, dass
dieser den Umsatz und Gewinn der Bäckereien signifikant stei-
gert, da er dazu führt, dass Kunden schneller bedient werden.
Englmaier et al. (2016) zeigen in einemRCT mit landwirtschaft-
lichen Erntearbeitern in Deutschland, dass überkomplexe
Anreizschemata dazu führen können, dass Mitarbeiter ihre
Prioritäten über verschiedene Aufgaben hinweg falsch setzen.
Ein besseres Erklären und Verdeutlichen der Implikationen
des Anreizmechanismus führte dazu, dass sowohl die Produk-
tivität als auch das Einkommen der Mitarbeiter anstiegen.
Neben der Gestaltung von Anreizmechanismen lassen sich
experimentelle Designs aber auch in anderen Bereichen er-
kenntnisfördernd einsetzen. Horton (2017) untersucht anhand