Personal quarterly 2/2023

48 STATE OF THE ART_MITARBEITERBEFRAGUNGEN PERSONALquarterly 02 / 23 die Gefahr, dass die Reliabilität der Messung schlechter wird oder Sie einzelne Facetten des Konstrukts nicht mehr erfassen können. Wie viele Fragen Sie für die Messung einzelner Konstrukte verwenden sollten, hängt von zwei Faktoren ab: Erstens ist der Inhalt des Konstrukts relevant, denn gerade sehr einfache und eindimensionale Konstrukte lassen sich über sehr wenige Items messen. Tatsächlich gibt es einige Konstrukte, die sich sogar recht gut über ein einzelnes Item erfassen lassen. Wanous, Reichers und Hudy (1997) bspw. zeigen, dass ein Item zur Messung von Arbeitszufriedenheit schon ganz gut funktioniert. Für gängige Konstrukte wurden auch schon gut funktionierende Kurzskalen entwickelt, bspw. die drei Fragen umfassende Kurzskala zu Work Engagement (UWES-3; Schaufeli et al., 2017). Zweitens sollte die Bedeutung des Konstrukts im Fragebogen bei der Entscheidung über die Skalenlänge in der Mitarbeiterbefragung bedacht werden. Ist die Erfassung zentral, sollten entsprechend mehr Items verwendet werden. Wie lang sollte der Fragebogen sein? Ein sehr langer Fragebogen ist schwer in der Organisation umsetzbar und liefert tatsächlich durch eine reduzierte Aufmerksamkeit und Teilnahmebereitschaft nicht unbedingt bessere Ergebnisse. Eine einfache Regel zur maximalen Länge einer Mitarbeiterbefragung existiert aber nicht, da sie von sehr vielen Faktoren abhängig ist, bspw. der wahrgenommenen Bedeutung der Mitarbeiterbefragung in der Organisation oder der Unterstützung durch die Unternehmensführung. Die ungefähre Dauer der Beantwortung lässt sich über einen kleinen Pretest ermitteln oder über die Anzahl der Fragen abschätzen, bei der Sie fünf bis zehn Sekunden pro Item kalkulieren können. Bei Online-Fragebögen ist zudem ein modularer Aufbau leicht umsetzbar, bei dem ein Kern der Fragen für alle Teilnehmenden identisch ist, einzelne Module dagegen nur von Teilen der Belegschaft beantwortet werden. Wie kann ich feststellen, ob ehrlich und aufmerksam geantwortet wird? Mitarbeitende könnten beim Fragebogen „durchklicken“, ohne die Fragen überhaupt zu lesen, oder bei kritischen Fragen unehrlich antworten. Einige bereits genannte Faktoren im Design des Fragebogens können dieses unerwünschte Verhalten etwas vermeiden, z. B. über einen kurzen Fragebogen, in dem die Anonymität der Teilnehmenden gewährleistet wird. Zusätzlich gibt es verschiedene Techniken, Teilnehmende zu identifizieren, die unachtsam antworten. Erstens können Items verwendet werden, welche die Aufmerksamkeit der Teilnehmenden testen, sog. attention check items. Antworten auf Items wie z. B. „I have never used a computer“ oder „respond with strongly disagree for this item“ sind Beispiele, allerdings in Mitarbeiterbefragungen begrenzt sinnvoll, da sie im organisationalen Setting befremdlich auf Teilnehmende wirken könnten. Gut umsetzbar dagegen sind einzelne Items mit umgedrehter Skala (reverse-coded items), bei denen eine starke Zustimmung eine niedrige Ausprägung bedeutet. Im Kurzfragebogen zu den Big-5-Persönlichkeitsdimensionen von Ramstedt und John (2007) bspw. schätzen die Teilnehmenden ein: „I see myself as someone who is outgoing, sociable“ sowie „I see myself as someone who is reserved“. Beide Items messen Extraversion, allerdings bedeutet die Zustimmung zum zweiten Item eine niedrige Ausprägung. Wenn nun Teilnehmende zu beiden Items voll zustimmen oder voll ablehnen, haben sie vermutlich nicht aufmerksam geantwortet. Zweitens gibt es einige statistische Techniken, um unaufmerksame Teilnehmende zu identifizieren (Curran, 2016). Ein sehr einfaches Maß ist z. B. der Longstring-Index, bei dem die maximale Länge identischer Antworten für jeden Teilnehmenden berechnet wird. Klickt jemand bspw. 20 mal nacheinander auf „5 - stimme voll zu“, beträgt dessen Longstring-Wert 20. Teilnehmende mit sehr hohen Werten könnten dann von weiteren Analysen ausgeschlossen werden, da ein unachtsames Ausfüllen wahrscheinlich ist. Wie kann ich die Rücklaufquote erhöhen? Eine hohe Rücklaufquote ist immer wünschenswert, da sich mit steigender Teilnehmerzahl die Möglichkeit genauerer statistischer Analysen wie auch die Repräsentativität der Stichprobe erhöht. Zudem bestehen viele Betriebsräte darauf, dass Auswertungen auf Team- oder Abteilungsebene erst ab einer Mindestteilnehmerzahl erfolgen. Einen Überblick zu den Faktoren, die auf die Rücklaufquote einwirken, geben Fan und Yan (2010). Sie können verschiedene Faktoren identifizieren, die positiv auf die Rücklaufquote wirken, unterteilt in Faktoren bei der Entwicklung des Fragebogens (z. B. kurze Fragebögen und interessante Themen), bei der Durchführung (z. B. Anreize und Verlosungen) sowie beim Ausfüllen durch die Teilnehmer (z. B. wahrgenommener Nutzen durch die Teilnehmer). Die schon zuvor empfohlenen Pretests helfen auch bei der Erhöhung der Rücklaufquote. Für einen Überblick zu Trends und erwarteten Rücklaufquoten empfehlen wir Holtom et al. (2022). Bei Mitarbeiterbefragungen könnte zusätzlich ein non-­ response bias wirken, dass z. B. gerade sehr unzufriedene Mitarbeitende den Fragebogen beantworten und so das Gesamtbild verzerrt wird. Es ist kaum möglich, solche Verzerrungen generell auszuschließen. Ein schneller Weg, um zu überprüfen, ob tatsächlich ein verzerrtes Bild entsteht, ist die Analyse der Zeitpunkte, zu denen die Antworten eingegangen sind. Es ist zu vermuten, dass über bestimmte Aspekte sehr verärgerte Mitarbeitende nicht lange warten und die Befragung direkt angehen. Vergleicht man nun die Gruppe derjenigen, die am ersten Befragungstag geantwortet hatten, mit späteren Antworten, können daraus Indizien für einen non-response bias abgeleitet werden. Ein Vergleich der demografischen Charak-

RkJQdWJsaXNoZXIy Mjc4MQ==