PERSONALquarterly 3/2019 - page 30

30
PERSONALquarterly 03/19
SCHWERPUNKT
_KÜNSTLICHE INTELLIGENZ IN HR
und Autonomie, ob Robotern von Menschen ein Verstand zuge-
schrieben wird (Stein/Ohler, 2017) und ob sie, wie Menschen,
in soziale Gruppen eingeteilt werden (Westlund et al., 2016).
So werden bspw. mechanisch aussehende Roboter weniger
höflich behandelt und es wird erwartet, dass sie weniger leis­
tungsfähig sind als menschlich aussehende Roboter. Darüber
hinaus scheinen individuelle Unterschiede von Menschen wie
Geschlecht, Alter und technologisches Engagement die Einstel-
lung zu Robotern zu beeinflussen (Shibata, 2004). Auch scheint
das emotionale Klima in Gruppen die Akzeptanz von Robotern
als Teammitglieder zu beeinflussen (Mutlu/Forlizzi, 2008). Es
hat sich zudem gezeigt, dass Menschen Robotern Anerken-
nung schenken, sie in manchen Situationen für Fehlverhalten
beschuldigen (Kim/Hinds, 2006) und dass Menschen einem
Roboter gehorchen, wenn dieser eine Aufgabenverteilung vor-
gibt (Gombolay et al., 2015).
Roboterführungskräfte würden für die Interaktion mit
menschlichen Beschäftigten soziale Fähigkeiten benötigen, die
es ihnen ermöglichen, auf menschliche Bedürfnisse und situ-
ationsspezifische Anforderungen zu reagieren. Einige Studien
zeigen bereits, dass Roboter soziales Verhalten hervorrufen
können und Aspekte der sozialen Intelligenz in Mensch-Robo-
ter-Interaktion integriert werden können (Fong et al., 2002). In
einer Studie von Young und Cormier (2014) gehorchten 46 %
der Teilnehmenden einem Roboter, der sie aufforderte eine
sehr banale Dateiumbenennungsaufgabe zu erledigen, 86 % ge-
horchten einem Menschen. Es konnte zudem gezeigt werden,
dass Menschen Robotern mehr Anerkennung und Schuld zu-
schreiben, je autonomer sie sind (Kim/Hinds, 2006). Gombolay
et al. (2015) zeigten, dass Beschäftigte es sogar vorzogen, Teil
eines von einem Roboter geführten Teams zu sein, wenn das
die Effizienz erhöht. Goetz et al. (2003) fanden heraus, dass die
Bereitschaft von Menschen, einem Roboter zu gehorchen, da-
von abhängt, ob sein Verhalten zur Situation passt (spielerisch
vs. seriös). In schwierigen oder dringenden Situationen scheint
ein autoritärer Roboter am erfolgreichsten zu sein (Goetz et al.,
2003). In einem Experiment, in dem Roboter und Menschen
Karten spielen, fanden Mota et al. (2016) heraus, dass in Inter-
aktionen zwischen Menschen und Robotern ähnliche Faktoren
zu einem Gefühl von Vertrauen führen wie in Interaktionen
zwischen Menschen. Gladden (2014) eröffnete die Diskussi-
on darüber, inwiefern charismatische Führung dazu beitragen
könnte, ob Roboter als CEOs akzeptiert werden würden und
prognostiziert eine Zukunft, in der Menschen soziale Roboter
annehmen, die als charismatische Führungskräfte program-
miert sind.
Diese Ergebnisse und Diskussionen deuten darauf hin, dass
Menschen in verschiedenen Situationen Roboter als Führungs-
kräfte akzeptieren könnten. Wenn Roboter in Führungsrollen
eingesetzt werden, ist eine Elaboration der ethischen Fragen
notwendig.
Perspektive 2: Ethische Fragestellungen
Der Einsatz von Robotern in Führungsrollenwirft viele ethische
Fragen auf: Ist es möglich, dass Roboter auf die individuellen
Bedürfnisse von Menschen Rücksicht nehmen? Ist es ethisch
vertretbar, die Verantwortung für menschliche Beschäftigte
auf Roboter zu übertragen? Obwohl die Programmierung von
Robotern schon lange vor moralisch geprägten Entscheidungen
steht (Conitzer et al., 2017; Mittelstadt et al., 2016), insbeson-
dere, seit Roboter mehr Autonomie erlangen, hat die Diskus-
sion über eine „Maschinenmoral“ und „Roboterethik“ gerade
erst begonnen (Malle, 2016). Fragen wie „Unter welchen Be-
dingungen sollten Algorithmen menschliche Entscheidungen
beeinflussen oder Entscheidungen für sie treffen?“ sind noch
unbeantwortet. Einige ethische Fragen wurden bereits in Dis-
kussionen über autonome Fahrzeuge, sichere Produktions-
verfahren oder algorithmische Vorauswahl von Bewerbern
aufgeworfen. Sie wurden aber noch nicht auf Führungssituati-
onen übertragen. Um fundamentale Prinzipien für das Design
und die Regulation für den Einsatz von Robotern (und KI im
Allgemeinen) zu entwickeln, wird aktuell diskutiert, wann Ver-
antwortung an Roboter abgegeben werden kann und wie mit
dem (unsichtbaren) Einfluss von Robotern auf Entscheidungen
umgegangen werden soll (Taddeo/Floridi, 2018).
Es ist zu erwarten, dass Beschäftigte Roboterführungskräf-
ten mit Skepsis begegnen. Bspw. sind mehr als 60 % der EU-
Bürgerinnen und -Bürger der Ansicht, dass Roboter für die
Betreuung von Kindern, älteren Menschen und Menschen mit
Behinderungen verboten werden sollten. Es ist wahrscheinlich,
dass sie (zunächst) ähnlich über einen Roboter in einer Füh-
rungsrolle denken. Wir sollten jedoch berücksichtigen, dass
Führung durch einen Roboter Vorteile gegenüber der Führung
durch eine Person haben kann. Zahlreiche Studien zeigen, dass
menschliche Führungskräfte, z. B. wenn sie unter Zeitdruck
arbeiten, Entscheidungen auf Basis unzureichender Informa-
tionen treffen oder zu missbräuchlicher oder ausbeutender
Führung neigen (Schmid et al., 2017). Eine Roboterführungs-
kraft könnte so programmiert werden, dass sie jederzeit einen
funktionalen Führungsstil zeigt, unabhängig von Stress oder
persönlichen Befindlichkeiten.
Wenn Roboter als Führungskräfte programmiert werden,
stellt sich die Frage, ob sichergestellt werden kann, dass Robo-
ter auf die individuellen Bedürfnisse des Menschen Rücksicht
nehmen, und ob es ethisch vertretbar ist, die Verantwortung
für menschliche Beschäftigte auf Roboter zu übertragen. Asi-
mov (1950) legte in den „Three Laws of Robotics“ fest, dass
niemals Menschen durch Roboter zu Schaden kommen dürfen
und Roboter prinzipiell Menschen gehorchen müssen. Es ist
zu diskutieren, wie diese Anforderungen beim Einsatz von
Robotern in Führungsrollen gewährleistet werden können.
Um der Bedeutung der ethischen Aspekte gerecht zu werden,
muss man zudem hinterfragen, wie Roboter auf ethische Weise
1...,20,21,22,23,24,25,26,27,28,29 31,32,33,34,35,36,37,38,39,40,...60
Powered by FlippingBook