PERSONALquarterly 3/2019 - page 6

6
SCHWERPUNKT
_INTERVIEW
PERSONALquarterly 03/19
PERSONALquarterly:
Der Einsatz von künstlicher Intelligenz (KI)
oder allgemein algorithmenbasierten Entscheidungen wird
zurzeit in HR viel diskutiert. Tatsächlich Anwendung finden sie
bereits häufiger im Recruiting und bei der Personalauswahl,
jedoch wird deren Fairness teilweise angezweifelt und es gibt
Beispiele von Unternehmen, die den Einsatz solcher Entschei-
dungshilfen deshalb wieder eingeschränkt haben. Wird durch
den Einsatz von KI mehr diskriminiert oder weniger?
Stefan Strohmeier:
Mit Blick auf mögliche Diskriminierungen ist
zwischen lernenden und nichtlernenden Algorithmen der KI
zu unterscheiden. Lernende Algorithmen (also das sogenannte
„Machine Learning“, das derzeit häufig mit KI gleichgesetzt
wird) verwenden existierende Datenbestände, um Vorschläge
für Personalentscheidungen zu generieren. Etwa „lernt“ ein
künstliches neuronales Netz auf der Basis von historischen Be-
werbungsdaten, welche Attribute geeignete von ungeeigneten
Bewerbungen systematisch unterscheiden. Diese Attribute
werden dann verwendet, umneu eingehende Bewerbungen den
Klassen „geeignet“ und „ungeeignet“ zuzuordnen. Lernende
Algorithmen sind entsprechend dann für Diskriminierungen
anfällig, wenn die zum Lernen verwendeten Daten bereits
Diskriminierungen enthalten. Enthalten Bewerbungsdaten
Diskriminierungen, etwa nach Alter oder Geschlecht, besteht
die Möglichkeit, dass diese vom Algorithmus „gelernt“ und
als Entscheidungsvorschlag reproduziert werden. Enthalten
die zum Lernen verwendeten Daten dagegen keine Diskrimi-
nierungen, sind lernende Algorithmen diskriminierungsfrei.
Nichtlernende Algorithmen generieren Lösungsvorschläge für
das Erreichen von Zielen unter Einhaltung von Nebenbedin-
gungen. Beispielsweise ordnet ein genetischer Algorithmus in
der Einsatzplanung einzelne Mitarbeiter und Mitarbeiterinnen
einzelnen Schichten zu und „entscheidet“ damit über den Per-
sonaleinsatz. Diskriminierung entsteht bei solchen Algorith-
men nur dann, wenn der Systemanbieter diese – gewollt oder
ungewollt – „einprogrammiert“.
Ein Beispiel für eine ungewollte Diskriminierung: Erhal-
ten gewerkschaftlich organisierte Mitarbeiter und Mitarbei-
terinnen Zuschläge für Nacht- und Sonntagsarbeit, während
Nichtorganisierte keine Zuschläge erhalten, wird ein gene-
tischer Algorithmus mit dem Ziel der Einsatzkostenminimie-
Einsatzpotenziale und -grenzen von
künstlicher Intelligenz in der Personalarbeit
Das Interview mit
Prof. Dr. Stefan Strohmeier
führte
Prof. Dr. Torsten Biemann
rung die „billigeren“ Nichtorganisierten systematisch den
unbeliebten Nacht- und Sonntagsschichten zuordnen und so
diese Gruppe systematisch diskriminieren. Es kommt damit
darauf an, KI-Algorithmen überlegt zu implementieren, um
Diskriminierungen zu vermeiden.
PERSONALquarterly:
Wie könnte dann eine optimale Kombination
von Algorithmus und menschlichen Entscheidern aussehen, um
zum Beispiel solche Diskriminierungen zu vermeiden?
Stefan Strohmeier:
Diesbezüglich hat sich die Formel der „Aus-
nutzung der jeweiligen komparativen Stärken von Mensch und
Maschine“ etabliert. Probleme einer Kombination mensch-
licher und algorithmischer Entscheidungen lassen sich aber
für den Dissensfall erwarten – wenn etwa ein Algorithmus
die Einstellung eines Bewerbers befürwortet, während der/
die zuständige Personaler/-in nach Sichtung der Unterlagen
und Einstellungsgespräch dies ablehnt. Erschwert wird eine
solche Situation durch Algorithmen, die – wie künstliche neu-
ronale Netze – eine „Black Box“ darstellen und der Anwender
entsprechend nicht nachvollziehen kann, wie der Algorithmus
die Entscheidung generiert hat. Rein rechtlich ist die Situation
klar: Die DSGVO erlaubt keine vollautomatisierten Personal-
entscheidungen. Entsprechend hat stets der Mensch das letzte
Wort. Sehr viele PersonalerInnen werden dieser Position auch
nachdrücklich zustimmen. Aus Sicht der Entscheidungsgüte
ist dies allerdings keineswegs so selbstverständlich: Immer-
hin verweisen vorhandene wissenschaftliche Metastudien
zur Güte algorithmischer Entscheidungsfindung darauf, dass
Algorithmen dem Menschen in der Entscheidungsfindung
tendenziell überlegen oder zumindest ebenbürtig (dann aber
billiger und schneller) sind. Auch wenn dieser Befund für den
Personalbereich ohne Frage noch repliziert werden muss, ver-
weist er auf sehr grundlegende Fragestellungen und Probleme
einer kombinierten Entscheidungsfindung. Diese sind in der
Personalprofession derzeit nicht diskutiert, geschweige denn
befriedigend beantwortet.
PERSONALquarterly:
Trotz dieser Einschränkungen finden sich
immer mehr Anbieter im HR-Bereich, die ihre Produkte mit
Begriffen wie „Künstliche Intelligenz“, „Machine Learning“
1,2,3,4,5 7,8,9,10,11,12,13,14,15,16,...60
Powered by FlippingBook