Personal quarterly 2/2023

MATERIAL-NR. 04000 -5068 Wie Teams und künstliche Intelligenz erfolgreich zusammenarbeiten quarterly PERSONAL 02 2023 | 75. Jahrgang | www.personalquarterly.de Wissenschaftsjournal für die Personalpraxis State of the Art: Wie Sie die Aussagekraft von Mitarbeiterbefragungen erhöhen können S. 46 BIEMANN/WECKMÜLLER Adding AI to human teams can really change the social dynamics between human beings S. 6 INTERVIEW MIT LESLIE DECHURCH Künstliche Intelligenz in der Personaleinsatzplanung von Teams S. 24 ELLWART/SCHILLING KI als Teammitglied: Wie Erwartungen die Zusammenarbeit prägen S. 10 KERSTAN/GEORGANTA/ULFERT-BLANK Wie gestaltet man menschengerechte algorithmenunterstützte Arbeit? S. 32 LANGER Prozessmodell personalorientierter Entscheidungsgestaltung einer KI S. 18 BENTLER/GABRIEL/LATOS/MAIER

3 EDITORIAL 02 / 23 PERSONALquarterly Liebe Leserinnen und Leser, nutzen Sie künstliche Intelligenz für die Zusammenarbeit im Team, um produktiver, effizienter und reibungsloser zu arbeiten? Ohne Frage wird KI in der täglichen Zusammenarbeit künftig Bedeutung haben. Dabei sind viele Fragen zu klären: Wie und unter welchen Bedingungen funktioniert die Zusammenarbeit zwischen Menschen und KI? Welche Faktoren müssen beachtet werden? Was ist der Unterschied, wenn die KI als Assistenzsystem oder als Teammitglied eingebunden wird? Welche Erwartungen stellen Menschen an KI-Teammitglieder und wie wirken sich diese Erwartungen auf die Mensch-KI-Zusammenarbeit aus? Welche Informationen benötigt eine künstliche Intelligenz, um z. B. personalorientierte Entscheidungen treffen zu können? Welche Faktoren beeinflussen die Akzeptanz von KI-Systemen bspw. bei Personaleinsatzplanungen? Wie können generell algorithmusbasierte Systeme implementiert werden, um menschengerechte Arbeit zu fördern? Seit Chat GPT in aller Munde ist, haben die Fragen noch weiter an Aktualität und Brisanz gewonnen. Eine anregende Lektüre wünscht Ihre Simone Kauffeld, Herausgeberin PERSONALquarterly

4 IMPRESSUM PERSONALquarterly 02 / 23 MANAGING EDITORS Prof. Dr. Rüdiger Kabst, Paderborn Prof. Dr. Simone Kauffeld, Braunschweig Prof. Dr. Torsten Biemann, Mannheim Prof. Dr. Claudia Buengeler, Kiel EHRENHERAUSGEBER Prof. em. Dr. Dieter Wagner, Potsdam Gegründet im Jahr 1949 IMPRESSUM Redaktion/Schriftleitung: Prof. Dr. Rüdiger Kabst (Universität Paderborn), Telefon: 05251 602804, E-Mail: redaktion@personalquarterly.de Redaktion/Objektleitung: Haufe-Lexware GmbH & Co. KG, Reiner Straub, Munzinger Straße 9, 79111 Freiburg, Telefon: 0761 898-3113, E-Mail: Reiner.Straub@haufe-lexware.com Associate Review Editor: Dr. Benjamin Krebs , E-Mail: Benjamin.Krebs@uni-paderborn.de Redaktion/CvD (Chefin vom Dienst): Anja Bek, Telefon: 0761 898-3537, E-Mail: Anja.Bek@haufe-lexware.com. Redaktionsassistenz: Brigitte Pelka, Telefon: 0761 898-3921, E-Mail: Brigitte.Pelka@haufe-lexware.com Disclaimer: Mit Namen gezeichnete Artikel spiegeln nicht unbedingt die Meinung der Redaktion wider. Texteinreichung: Alle Manuskripte sind an die obige Adresse der Redaktion, bevorzugt die Schriftleitung (redaktion@personalquarterly.de), zu schicken. Für unverlangt eingesandte Manuskripte wird keine Haftung übernommen. Beiträge werden nur nach Begutachtung im Herausgeberbeirat veröffentlicht. Näheres regelt ein Autorenmerkblatt: Dies können Sie anfordern unter: redaktion@personalquarterly.de; zum Download unter www.haufe.de/pq. Verlag: Haufe-Lexware GmbH & Co. KG, Ein Unternehmen der Haufe Group, Munzinger Straße 9, 79111 Freiburg, Telefon: 0761 898-0, Fax: 0761 898-3990, Kommanditgesellschaft, Sitz Freiburg, Registergericht Freiburg, HRA 4408 Komplementäre: Haufe-Lexware Verwaltungs GmbH, Sitz Freiburg, Registergericht Freiburg, HRB 5557; Martin Laqua Geschäftsführung: Isabel Blank, Iris Bode, Jörg Frey, Matthias Schätzle, Christian Steiger, Dr. Carsten Thies Beiratsvorsitzende: Andrea Haufe; Steuernummer: 06392/11008 Umsatzsteuer-Identifikationsnummer: DE812398835. Leserservice: Haufe Service Center GmbH, Munzinger Straße 9, 79111 Freiburg, Telefon: 0800 72 34 253 (kostenlos), Fax: 0800 50 50 446 (kostenlos), E-Mail: Zeitschriften@haufe.de Anzeigen/Media Sales: Haufe-Lexware GmbH & Co. KG, Niederlassung Würzburg, Unternehmensbereich Media Sales, Im Kreuz 9, 97076 Würzburg; Bernd Junker (verantwortlich), Telefon: 0931 2791-477, E-Mail: Bernd.Junker@haufe-lexware.com; Thomas Horejsi, Telefon: 0931 2791-451, E-Mail: Thomas.Horejsi@haufe-lexware.com; Anzeigendisposition: Yvonne Göbel, Telefon: 0931 2791-470, Yvonne.Goebel@haufe-lexware.com Erscheinungsweise: vierteljährlich Internetpräsenz: www.personalquarterly.de Abonnementpreis: Jahresabonnement PERSONALquarterly (4 Ausgaben) 124 Euro inkl. MwSt., Porto- und Versandkosten. Bestell-Nummer: A04123 Copyright: Alle Rechte vorbehalten. Der Inhalt dieser Publikation darf ohne schriftliche Genehmigung des Verlags bzw. der Redaktion nicht vervielfältigt oder verbreitet werden. Unter dieses Verbot fällt auch die gewerbliche Vervielfältigung per Kopie sowie die Aufnahme in elektronische Medien (Datenbanken, CD-ROM, Disketten, Internet usw.) Layout: Maria Nefzger, Ruth Großer Titelbild: imagenavi/gettyimages.de Druck: Grafisches Centrum Cuno GmbH & Co. KG, ISSN 2193-0589

5 INHALT 02 / 23 PERSONALquarterly SCHWERPUNKT 6 Adding AI to human teams can really change the social dynamics between human beings Interview mit Leslie DeChurch 10 KI als Teammitglied: Wie Erwartungen die Zusammenarbeit prägen Sophie Kerstan, Prof. Dr. Eleni Georganta, Prof. Dr. Anna-Sophie Ulfert-Blank 18 Prozessmodell personalorientierter Entscheidungsgestaltung einer künstlichen Intelligenz Dominik Bentler, Stefan Gabriel, Dr. Benedikt A. Latos, Prof. Dr. Günter W. Maier 24 Künstliche Intelligenz in der Personaleinsatzplanung von Teams Prof. Dr. Thomas Ellwart und Thomas Schilling 32 Wie gestaltet man menschengerechte algorithmenunterstützte Arbeit? Jun. Prof. Dr. Markus Langer NEUE FORSCHUNG 40 Arbeitsbezogenes E-Learning durch Spaced Learning verbessern Hanan Kondratjew und Prof. Dr. Andreas Engelen STATE OF THE ART 46 Wie Sie die Aussagekraft von Mitarbeiterbefragungen erhöhen können Prof. Dr. Torsten Biemann und Prof. Dr. Heiko Weckmüller ESSENTIALS 50 Rezensionen: Richtungsweisendes aus internationalen Top-Journals Dr. Benjamin P. Krebs, Johannes Brunzel, Maie Stein SERVICE 53 In eigener Sache: Wechsel im Herausgebergremium der PERSONALquarterly 54 Die Fakten hinter der Schlagzeile: Trotz Krankheit zu Hause arbeiten? 56 Forscher im Porträt: Prof. Dr. Ulrike Fasbender, Universität Hohenheim 58 Den PERSONALquarterly-Fragebogen beantwortet Gundula Roßbach, Präsidentin der Deutschen Rentenversicherung Bund

6 SCHWERPUNKT_INTERVIEW PERSONALquarterly 02 / 23 Teams are formed in the working world in a wide variety of areas. Working together with others is a natural way for most people to achieve common goals. For example, synergies can be exploited from the different competencies of the members. More and more teams are using artificial intelligence (AI) for decision making and automation. This raises questions about collaboration between humans and artificial intelligence. PERSONALquarterly: How do you collaborate with AI in your day-today work? Leslie DeChurch: At the moment I use it in pretty silly ways actually. I have a Google Home in my office and I often ask it about my next meeting, or to schedule reminders, do quick and easy math, or look things up. Mostly I love having the ability to talk to it, that really changes the feeling that you are collaborating. PERSONALquarterly: How do teams in different industries collaborate with AI? Do you have examples in which AI is more than just an assistance system? Leslie DeChurch: There are so many different industries that are starting to use AI in different ways. I think some of the early examples of AI were helping people make complex decisions. We all know the famous example of IBM‘s Watson beating jeopardy super champions on live TV. That technology has since been deployed in settings like healthcare, helping physicians diagnose complex cases. AI has been extremely useful in many data-intensive fields. Some of the most interesting to me personally have been the ones in the creative industries. New software applications help designers to create things. I was at a recent academic talk where all the illustrations and artwork in the slides were generated by AI. Your question about more than an assistant system is really an important one. I think that up until now AI really has been in an ancillary role assisting human beings. I‘ve gotten very interested in AI from a research perspective because increasingly there are use cases where AI joins as a full-fledged teammate. You can imagine military applications where AI is embedded in sensors and vehicles embedded with human soldiers. We can also imagine AI making recommendations to physicians in mediAdding AI to human teams can really change the social dynamics between human beings Das Interview mit Leslie DeChurch führte Simone Kauffeld cal and healthcare settings. We can imagine AI playing a quasi leadership role in important discussions detecting patterns in information sharing and then making recommendations about critical questions to consider. In all of these applications the use of AI is more than an assistant and rather it‘s something that is fundamentally changing the dynamics of people interacting with each other, assessing the value of one another‘s information and decisions. There are interesting social dynamics that could come about. I run some simple experiments in my classes where I have teams doing basic problem solving and creative thinking tasks and I have them do it over zoom with the technology that they think is an AI, but it‘s actually a person behind an avatar. During the debrief I am struck by some of the students comments where they will reflect on feeling hurt or excluded from the conversation because one of their human teammates preferred the ideas of the AI. Or at least what they thought at the time was an AI. There will also be cases where one member of the group gained status quickly because of their ability to interact proactively and to get more detailed information from the AI. These are some simple illustrations of how adding AI to human teams can really change the social dynamics between human beings and how they intuit who has valuable information or who they can trust or who‘s motivated. AI as a teammate can reshape a team’s status hierarchy. PERSONALquarterly: What are possible areas of application for hybrid teams? What is the difference between purely human teams, teams working with AI as an assistance system, and hybrid teams where AI becomes the teammate? Leslie DeChurch: To me the real critical difference between AI as an assistant versus a teammate comes into play when the AI starts to have agency and motivation. When we think about the example of an intelligent assistant, it waits to listen and respond until you specifically address it and ask for a particular thing. The AI doesn‘t have any kind of programming to be acting on its own beyond the bounds of what the person is telling it to do. But when we think toward future applications, we can easily imagine cases where certain motivations are embedded in the AI, and as it learns it exhibits its own intentions without merely responding to assist a person.

7 02 / 23 PERSONALquarterly I also think one of the big open questions is where you insert AI in a workflow. Right now most uses position AI doing work that then feeds into a decision being made by a human. But the reverse could also be the case, where people direct AI and then rely fully on its decisions. That would certainly mark a transition where AI is not just an assistant. PERSONALquarterly: How do teams working with AI differ compared to traditional teams, for example, in terms of goal achievement in teams? Leslie DeChurch: Teams working with AI differ from traditional teams in that there is an additional layer between people and intelligent machines. I would speculate that many of the same processes that are important in teams will continue to be important in human AI teams, but they might look a little bit different. For example, we know that developing transactive memory systems is one of the cognitive foundations that allows people to work together effectively. People need to understand who knows what, and coordinate their expertise. With human AI teams, transactive memory will also include a meta layer of people understanding the AI and understanding their teammates understanding of the AI. These mental perceptions are the foundation of effective teamwork, they enable human teams to work together. When we add intelligent machines to teams, cognitive processes will gain an order of magnitude of complexity. That said, I think much of what we know about teams in terms of the kinds of processes and states that are important to perform will be extremely helpful in understanding both how to design the technology and how to develop team members’ capability to use it. PERSONALquarterly: What do team members think about their AI „colleagues“? Leslie DeChurch: This is my favorite question of all! We‘ve been doing lab experiments where we use a Wizard of Oz technology to introduce an AI into teams and then we observe how three and four member teams who‘ve been working together for about an hour react to their new AI teammate. We‘ve done some studies manipulating the kinds of contributions the AI makes. What‘s​ been most interesting to me is that people respond extremely well and, in some cases, too well to an AI doing task work. I say too well because sometimes they get lazy and rely on the AI to just do the work, or they start disregarding their other human teammates contributions in favor of just having the AI do the task. PERSONALquarterly: Could we use AI to optimize processes in teams? What will happen when AI tries to regulate team social interactions? Leslie DeChurch Something unexpected happened when we had the AI help regulate team social interactions. There is an abundant literature on team process that finds that sometimes teams do not perform as well as they should because of reLESLIE DECHURCH Department Chair, Professor E-Mail: dechurch@northwestern.edu https://communication.northwestern.edu/faculty/lesliedechurch.html Leslie DeChurch is Professor and Department Chair of Communication Studies & Professor of Psychology at Northwestern University. She is an expert on leadership and team effectiveness. Her current research is situated in three contexts: human-machine partnerships, space exploration, and innovation. DeChurch holds a PhD in Industrial and Organizational Psychology, is the Past-President of INGRoup (Interdisciplinary Network for Group Research), and Fellow of the American Psychological Association (APA), Association for Psychological Science (APS), and the Society of Industrial & Organizational Psychology (SIOP).

8 SCHWERPUNKT_INTERVIEW PERSONALquarterly 02 / 23 gulatory deficiencies. A key example is moving too quickly towards critiquing ideas when the team is trying to ideate. Or in the decision making space, we know that teams are notoriously over focused on common and redundant information and tend to under explore and consider the importance of members uniquely held information. These are two examples where AI could make a contribution to the team by helping regulate the discussion away from critique and towards idea generation, for creative tasks. For problem solving tasks, they can say simple things that help the team shift towards identifying unique perspectives and ideas. However, when we did experiments where the AI did exactly these kinds of things, people didn’t like it. Teammates appreciate AI when it contributes to the task but they‘re not really willing to let the AI tell it how to interact socially within a team. PERSONALquarterly: How does collaboration between humans and AI work? What factors need to be considered? How can these be taken into account during the development of AI so that the right decisions can be made and team goals achieved? Leslie DeChurch: In human teams we think about the big three factors that help people work together: team affect, team cognition, and team behavioral processes. Team affect and cognition are thought of as emergent states - the emotional and mental processes that provide a framework for people to work together. Behavioral processes involve the timing and sequencing of joint actions. Research on teams shows that affect and cognition are core enabling conditions for teams, people have to emotionally connect and trust one another to be willing to work together (affect) and they have to mentally have enough compatibility in their understanding of the task (cognition). These same affective and cognitive states will be critical to human AI interfaces as well. On the affect side people need to trust the AI and feel a sense of identity with the team. That drives their motivation to engage and to remain committed. At the same time people need to understand tasks in ways that are compatible with how the AI views the task. That‘s one of the fascinating prospects because when two people don‘t see the task the same way the solution is to talk to each other. As people discuss a problem or a task through planning activities for example they are able to converge their mental understanding of the work in ways that will reduce the need for future direct communication. How will this work with a person and an AI? Because people and machines think and learn in fundamentally different ways, and ways that are not transparent all the time to humans, that‘s one of the critical barriers that we will need to overcome. What we don‘t want are people learning to live with the incompatibility or disengaging. Designers need to develop mechanisms by which people can synchronize mental processes with AI without being computer scientists. PERSONALquarterly: We know that shared mental models (an understanding of what is done by whom, when, how) are essential for decision making, coordination, and goal achievement in teams. Due to the existing complexity and black-box issues of self-learning systems, the question of how AI can be helpful in a team context may not be so easy to answer. What do we know about whether and how these mental models also relate to AI and what this means for team success? Leslie DeChurch: Mental models are been one of the most robust predictors of team performance. Fundamentally mental models in teams are about developing a way to predict how people are going to act in particular situations. Having similarity in your schema about your task, how the team works, or how you should interact is a critical foundation of two people being able to work together. Mental models will be all the more important in human AI teams. I think one of the big challenges though is understanding how we can develop effective shared mental models working with AI given the complexity and differences in how people and machines learn. PERSONALquarterly: What are success factors for AI to provide value as a teammate? Leslie DeChurch: Respected contributions to the task are the sine non qua for AI teammates. One of the most important things our early research has shown is that AI is only viewed as a valuable teammate to the degree that it is making foundational contributions to the work. Anything else, providing leadership or helping to regulate the team social climate is going to be totally negated if the AI isn‘t contributing to the task. PERSONALquarterly: What do you see as the practical benefits of seeing AI as a teammate rather than just an assistance system or a tool, and integrating it into teams? Leslie DeChurch: One of the practical benefits of seeing AI as a teammate is that people will grant it far greater latitude in providing input into teamwork and taskwork. When people view it as an assistant, it can make only limited contributions to the team. So realizing the full potential of AI is going to require this transition to viewing AI not just as an assistant but as a full blown member of the team. There are other benefits as well, we know that teams provide an important source of social support. People exhibit greater motivation when they work in successful teams than when they work alone. AI has the benefit of going with a person and working with them anywhere. It doesn‘t require travel or colocation to be effective. This could greatly contribute to meaningful work. PERSONALquarterly: What dangers do you see when AI is no longer just understood as a tool but as a teammate? Leslie DeChurch: Like many technologies one of the potential dangers is suppressing human connections. If people come to view

AI as their teammate, and we can imagine experiencing less conflict and having an AI that is easier to work with than a human teammate, that might ultimately devalue the contributions of human teammates. Another potential danger is “over trust.” I think one of the things we‘ve seen as a result of automation within the aviation industry is that sometimes when automation gets really good people come to rely on it too much and their own skills degrade. I‘m a little concerned when I think about AI as a decision aid where people rely on it too much and don‘t ask critical enough questions and ultimately their ability to make highly complex decisions may degrade. PERSONALquarterly: In your experience, do the use of AI as teammates – differ across organizations and industries? How about intercultural differences? Leslie DeChurch: I think that some industries have been more receptive to AI than others. Certainly those in data-intensive fields or in fields that have other forms of automation in place, AI teammates have had an easier time gaining acceptance. The creative sector has been a bit slower to see the benefits but that is certainly changing. PERSONALquarterly: People do not want to be patronized by a machine. People have a basic need for autonomy. One question, therefore, is who actually decides - the robot or the human being? Do humans always want to act in the role of decisionmakers or as the final authority? Leslie DeChurch: People don‘t want to be patronized but you would be shocked how quickly they will rescind authority to a machine. I think that‘s the bigger worry personally. I welcome the contributions of AI to teams, but it shouldn‘t substitute for thoughtful deliberative and critical decision making by people. That‘s not to say that the human should be the only one to decide, but I don‘t think the goal is to have a situation where humans are taken out of the loop. PERSONALquarterly: It is becoming increasingly apparent that work is being done on or with machines that not only behave humanly, but also look human - in some cases even lifelike, with artificial hair, silicone skin and natural micro-movements to imitate humans as best as possible. Are these machines actually already in development, or is the human look still more of a vision? What is the impetus behind the development of these extremely human-like robots? Is this embodiment always important or can AI be effective without it? Leslie DeChurch: Humanoid robots have been in development for quite some time and are becoming extremely realistic. Google Sophia (Hanson Robotics)! Many researchers have found that embedded AI can be just as accepted as a teammate as embodied AI. Embodied AI has a physical form. One of the early theories in this area was the uncanny valley, this was the idea that the more an embodied AI or robot looked human it would improve people‘s liking, but, as it got more and more human but not quite perfect there would be an uncanny valley where people wouldn‘t like interacting with it. That‘s been used to explain the ick factor with some of the humanoid robots that look almost human but not quite. You can compare this to other robots like Pepper (Aldebaran) that have an almost childlike, cute appearance but are clearly not human. The important thing to consider with embodiment is that people use physical features as a way to make attributions of the functioning of the underlying system. Social perception research finds people use physical features to make attributions of for example agency and communion. When designing AI, incorporating physical features adds a whole other layer of complexity because the designer has to be aware of the psychology of social perception and how people will take cues from physical form and make attributions about the motives and intention of the underlying system. In some ways it‘s simpler to begin with the embedded system that doesn‘t have physical form. PERSONALquarterly: What are the „critical hurdles“ that need to be overcome when implementing hybrid teams? What challenges do organizations face? Leslie DeChurch: There are plenty of challenges that computer scientists are working on. I think a lot about the social challenges. I think teamwork is one of the critical hurdles that has to be overcome and it is important that we are studying how people react to intelligent machines as teammates now even before the technology advances. We see this with the recent release of chatGPT technology. PERSONALquarterly: What is your personal conclusion: why do we need hybrid teams in the future world of work? How will our work change as a result? Leslie DeChurch: There is no question that we need hybrid teams in the future world of work. I like the vision of AI taking on the work tasks that people dislike, freeing them up to have more meaningful work engaged in the parts of the work they enjoy most. There is great potential of humans working alongside intelligent machines. I can think of many aspects of jobs that people would be happy to offload. Being able to partner with machines means there is an opportunity for people to do more of what they like. There are also major hurdles. There is a large percentage of the workforce that will need the skill set to enable them to make valuable contributions and engage in meaningful work as an increasing number of tasks become automatable through AI.

PERSONALquarterly 02 / 23 10 SCHWERPUNKT_KI ALS TEAMMITGLIED Ob Bürosachbearbeitungs-Humanoid Lena oder Barkeeper-Roboter Sam – die Praxisbeispiele für den Einzug von künstlicher Intelligenz (KI) in die Arbeitswelt mehren sich. Dieser Trend besteht bereits seit einigen Jahren. Neu ist jedoch, dass KI zunehmend als Teammitglied positioniert wird, das eine auf seine Fähigkeiten abgestimmte Rolle ausfüllt und dabei mit Mitarbeitenden interagiert (O’Neill et al., 2020). Dabei geht die Konzeption von KI als Teammitglied über die bisher vorherrschende Anwendung von KI als Assistenzsystem hinaus. KI-Assistenzsysteme unterstützen klar definierte Teilaspekte einer Aufgabe, indem sie bspw. Informationen liefern oder Entscheidungsvorschläge generieren. Die endgültige Entscheidungs- und Handlungsbefähigung liegt jedoch beim Menschen. KI-Assistenzsysteme verfügen demnach über wenig bis keine Autonomie in der Ausführung einer gegebenen Aufgabe. Durch das stark begrenzte KI als Teammitglied: Wie Erwartungen die Zusammenarbeit prägen Von Sophie Kerstan (ETH Zürich), Prof. Dr. Eleni Georganta (Universität von Amsterdam) und Prof. Dr. Anna-Sophie Ulfert-Blank (Technische Universität Eindhoven) Fähigkeitsspektrum und den eingeschränkten Handlungsspielraum der KI sind die Interaktionen zwischen Menschen und KI in diesen Fällen stark repetitiv. Als Teammitglied wird KI hingegen ein erweiterter Handlungsspielraum zugeschrieben, sodass der Grad der Autonomie steigt und KI eigene Entscheidungen treffen und Handlungen ausführen kann. Auf Basis dessen können KI-Teammitglieder ihre Verhaltensweisen flexibler an Veränderungen innerhalb der Aufgabe oder hinsichtlich der Rahmenbedingungen anpassen. Zudem sind Aufgabenausführung und Zielerreichung von Menschen und KI stärker miteinander verbunden. KI trägt dabei indirekt (durch Interaktionen mit menschlichen Mitarbeitenden) sowie unmittelbar (durch Handlungen oder Entscheidungen) zum Arbeitsergebnis bei. Die aufgezeigten Unterschiede zwischen KI-Assistenzsystemen und KI-Teammitgliedern sind in Abbildung 1 zusammengefasst. Abb. 1: Darstellung der Unterschiede zwischen dem Einsatz von KI als Assistenzsystem und KI als Teammitglied Quelle: Eigene Darstellung DIMENSION DER UNTERSCHEIDUNG KI als Assistenzsystem KI als Teammitglied Aufgabenspektrum KI übernimmt klar definierte, eng begrenzte, repetitive Teilaufgaben. KI kann Aufgaben(-pakete) übernehmen, die umfassend sind und Anpassungen unterliegen können. Interaktion zwischen Mensch und KI KI unterstützt bei der Bearbeitung einer Aufgabe. Über das Arbeitsergebnis bestimmen jedoch die Entscheidungen und Handlungen des Menschen. Die Interaktionsmuster zwischen KI und Mensch sind weitestgehend repetitiv und vorgeschrieben. KI und Mensch arbeiten in gegenseitiger Abhängigkeit an einem gemeinsamen Ziel. Das Arbeitsergebnis ist durch die Handlungen der KI mitbestimmt. Die Interaktionsmuster zwischen KI und Mensch werden von dynamischer Koordination geprägt. Autonomie und Proaktitivität der KI KI wird von Menschen kontrolliert (z. B. müssen Menschen Handlungsvorschläge der KI bewilligen). Handlungen der KI sind dementsprechend im Sinne ihrer Proaktivität stark eingeschränkt. KI besitzt (in Teilen) Autonomie über eigene Handlungen (z. B. kann KI selbstgesteuert Entscheidungen treffen). Dies befähigt KI zu proaktivem Verhalten (z. B. unaufgeforderte Ausführung einer Handlung). Vorhersagbarkeit KIbasierter Handlungen Handlungsschritte der KI können von menschlichen Teammitglieder in der Regel passend vorhergesagt werden. Aufgrund von gesteigerter Flexibilität und Proaktivität sind Vorhersagen zu den Handlungsschritten der KI von Unsicherheit geprägt.

11 02 / 23 PERSONALquarterly Auch steht der Einsatz von KI als Teammitglied demKonzept, Mitarbeitende durch KI ersetzen zu wollen, entgegen, da er darauf beruht, die Fähigkeiten und Stärken von Menschen und KI so zusammenzubringen, dass sie sich gegenseitig ergänzen. Diese Herangehensweise ist u. a. darin begründet, dass für die überwiegende Zahl der bestehenden und voraussehbaren KIAnwendungen eine Besetzung von auf Menschen zugeschnittene Arbeitsrollen durch KI schlicht nicht möglich ist. Spätestens während der Implementierung von KI wird meist deutlich, dass Arbeitsprozesse durch KI eher transformiert werden, als dass bestehende Posten gänzlich von KI eingenommen würden. Entsprechend zielt der Ansatz, KI als Teammitglied zu integrieren, darauf ab, die bestehenden Fähigkeiten der menschlichen Teammitglieder zu bereichern, ummittels der so entstehenden Mensch-KI-Teams Leistungssteigerungen zu erwirken (Seeber et al., 2020). Neben diesen Überlegungen befeuert auch der rasante technologische Fortschritt den Diskurs über den Einsatz von KI als Teammitglied. Laufend werden Studien veröffentlicht, die über neue Durchbrüche, bspw. im Bereich von selbstlernenden Algorithmen oder KI-basierter Spracherzeugung und -verarbeitung, berichten. Erfolge wie diese ermöglichen die Entwicklung von KI-Systemen, die sich an sich verändernde Umgebungsbedingungen und Aufgaben anpassen, zu proaktivem Handeln in der Lage sind und mit Mitarbeitenden flexibel kommunizieren können. Aus Perspektive der Teamforschung decken diese Fähigkeiten viele der Kerneigenschaften ab, die für die Zusammenarbeit im Team essenziell sind (Lyons et al., 2019). Es sind jedoch nicht die wachsenden technologischen Möglichkeiten allein, wegen derer es für Unternehmen von Interesse sein sollte, sich mit dem Einsatz von KI als Teammitglied zu beschäftigen. Studienergebnisse zeigen, dass Personen, die KI nicht nur als Tool, sondern als Teammitglied wahrnehmen, eine positivere affektive Einstellung gegenüber KI haben und über geteilten Aufgaben besser mit ihr kommunizieren und sie koordinieren (O’Neill et al., 2020). In KI ein Teammitglied zu sehen, kann demnach leistungsbezogene Vorteile erbringen. Obwohl sich die Forschung zu Mensch-KI-Teams derzeit erst im Aufbau befindet, sind die Faktoren, die dazu beitragen, dass Menschen KI als Teammitglied wahrnehmen, vielfältig. Die Befundlage zeigt insbesondere, dass Menschen eine Reihe von Erwartungen (z. B. hinsichtlich fehlerloser Leistung, menschenähnlichen Kommunikationsfähigkeiten und der Fähigkeit zur Entwicklung eines geteilten Verständnisses der gemeinsamen Aufgabe) gegenüber KI-Teammitgliedern haben (Zhang et al., 2021). Wissen und Verständnis über diese Erwartungshaltungen und ihre Auswirkungen auf die Zusammenarbeit zwischen Mitarbeitenden und KI sind ein fundamentaler Baustein für eine sichere und effektive Mensch-KI-Zusammenarbeit (O’Neill et al., 2020; Lyons et al., 2019). Ziel dieses Artikels ist deshalb, den derzeitigen Forschungsstand innerhalb dieses Themengebiets zusammenzufassen und die Auswirkungen KI-bezogener Erwartungen auf die Zusammenarbeit in Mensch-KI-Teams zu beleuchten. Neben der Literatur zu Mensch-KI-Teams ziehen wir dazu auch Erkenntnisse aus der psychologischen Literatur zur Erwartungsbestätigung und -widerlegung sowie der Forschung zu Interaktionen in menschlichen Teams heran. Die gesammelten Erkenntnisse fassen wir in sieben Beobachtungen zusammen. Zudem erarbeiten wir Handlungsempfehlungen für eine aktive Einbindung von KI-bezogenen Erwartungen in die Entwicklung und Implementierung von KI-Teammitgliedern und die fortlaufende Ausgestaltung der Mensch-KI-Zusammenarbeit. Welche Erwartungen haben Mitarbeitende gegenüber KI-Teammitgliedern? Erwartungen können als Annahmen über in der Zukunft liegende Geschehnisse und Handlungen definiert werden, die sich auf Situationen, Personen, technologische Systeme oder Institutionen beziehen können. Diese Erwartungen werden oftmals als antizipatorisch betitelt, da sie der Frage „Was wird geschehen?“ nachgehen. Darüber hinaus setzen sich Erwartungen jedoch auch mit der Frage „Was sollte geschehen?“ auseinander. In diesem Fall beschreiben Erwartungen keine Annahme (antizipatorische Erwartung), sondern einen Anspruch, der an die Zukunft gestellt wird. Sie werden deshalb auch als normativ beschrieben. Antizipatorische Erwartungen können sich von normativen Erwartungen unterscheiden. So zeigen z. B. Experimentalstudien, dass Menschen gegenüber KI-Teammitgliedern die antizipatorische Erwartung haben, sie würden eingeschränktere Kommunikationsfähigkeiten als ABSTRACT Forschungsfrage: Künstlicher Intelligenz (KI) wird zunehmend die Rolle eines Teammitglieds zugeschrieben. Deshalb untersuchen wir, welche Erwartungen Menschen an KI-Teammitglieder stellen und skizzieren, wie sich diese Erwartungen auf die Mensch-KIZusammenarbeit auswirken. Methodik: Wir fassen den Forschungsstand zusammen und leiten sieben Beobachtungen ab. Praktische Implikationen: KI-bezogene Erwartungen sollten in die KI-Entwicklung, Implementierung und fortlaufende Mensch-KI-Zusammenarbeit einbezogen werden. Wir zeigen Möglichkeiten auf, dieses Erwartungsmanagement in der Praxis umzusetzen.

PERSONALquarterly 02 / 23 12 SCHWERPUNKT_KI ALS TEAMMITGLIED KI-Teammitgliedern erwartet werden (Lyons et al., 2019). Zu den am häufigsten erwarteten Fähigkeiten zählt bspw. eigenständiges und proaktives Handeln der KI (Zhang et al., 2021). Außerdem wird zunehmend von der Erwartung berichtet, dass KI-Teammitglieder ein mit menschlichen Teammitgliedern geteiltes Verständnis von Arbeitszielen, -schritten und Kooperationsweisen formen können sollten (Andrews et al., 2022). Allerdings zeigt sich auch, dass Erwartungen an KI von Erwartungen an menschliche Teammitglieder in einigen Aspekten abweichen. So wird KI-Teammitgliedern gegenüber teils weniger bis keine Fehlertoleranz eingeräumt. Studien untersuchen dieses Phänomen bspw. im Rahmen eines kognitiven Schemas der perfekten Automatisierung, dem Glaubenssätze wie „Hochentwickelte Technologien treffen immer die richtigen Entscheidungen“ zugrunde liegen (Merritt et al., 2015). Während in diesem Punkt höhere Erwartungen an KI als an Menschen gestellt werden, können die Erwartungen an KI in anderen Bereichen niedriger ausfallen. An diesem Punkt wird erneut die Differenzierung zwischen normativen und antizipatorischen Erwartungen wichtig. Normativ wird von KI-, wie von menschlichen Teammitgliedern, eine hohe Kommunikationsfähigkeit gefordert. Antizipatorisch gilt diese Erwartung aber für KI-Teammitglieder bedeutend weniger als für menschliche. Zusammenfassend lässt sich festhalten: Beobachtung 3: Erwartungen an KI-Teammitglieder zeigen inhaltliche Schnittmengen mit Erwartungen, die menschlichen Teammitgliedern gegenüber bestehen, sie sind jedoch nicht deckungsgleich. Welche Auswirkungen haben Erwartungen gegenüber KITeammitgliedern auf Arbeitsprozesse und -leistung? Um die Auswirkungen von KI-bezogenen Erwartungen darlegen zu können, ist es notwendig, zuerst logisch festzustellen, welche Szenarien sich ergeben, wenn initiale Erwartungen innerhalb einer Interaktion mit einem KI-Teammitglied auf die Realität treffen. Ganz grundsätzlich fällt dabei entweder eine Bestätigung oder eine Widerlegung dieser initialen Erwartungen an. Darüber hinaus können sich Erwartungen jedoch auch in ihrer Valenz (positiv/hoch vs. negativ/gering) unterscheiden und jeweils unter- oder übertroffen werden. Bei initial hohen Erwartungen an KI-Teammitglieder, wie dem zuvor beschriebenen Anspruch auf Perfektionismus und Fehlerlosigkeit, ist es sehr wahrscheinlich, dass es zu einer Enttäuschung der Erwartungen in Form einer negativen Erwartungswiderlegung kommt. Das tatsächliche Verhalten des KI-Teammitglieds bleibt in diesem Fall hinter der Ursprungserwartung zurück. Schon im Jahrzehnt der 2000er-Jahre zeigten Studien zum Gebrauch simpler Informations- und Kommunikationstechnologie (wie E-Mail-Programme), dass diese Form der Erwartungswiderlegung die Einstellung von Mitarbeitenden gegenüber technologischen Systemen nachhaltig negativ prägt und somit ihre Menschen besitzen (z. B. McNeese et al., 2018). Aus qualitativen Studien wird allerdings ersichtlich, dass an ein ideales KI-Teammitglied oftmals der Anspruch gestellt wird, es sollte über ein möglichst menschenähnliches Sprachverständnis und Kommunikationsverhalten verfügen (z. B. Zhang et al., 2021). Daraus wird deutlich, dass normative Erwartungen nicht automatisch in antizipatorische übersetzt werden. Die Differenzierung dieser Erwartungstypen ist wichtig, um zu verstehen, was passiert, wenn Erwartungen auf die (technologische) Realität treffen. Es lässt sich festhalten: Beobachtung 1: Erwartungen an KI als Annahme (antizipatorische Erwartungen) unterscheiden sich von idealisierten Erwartungen an KI in Form von Ansprüchen (normativen Erwartungen). Neben den Unterschieden zwischen Erwartungstypen können Erwartungen an KI in sich widersprüchlich sein. Bspw. wird einerseits diskutiert, dass KI, um der Rolle eines vollwertigen Teammitglieds gerecht zu werden, die Fähigkeit besitzen muss, sich eigenständig und flexibel an Veränderungen anzupassen und eigene Arbeitspakete zu übernehmen (Lyons et al., 2019). Somit wäre KI den Mitarbeitenden nicht mehr kategorisch unterstellt, sondern würde über vergleichbare Handlungs- und Entscheidungsfreiheit verfügen. Andererseits wird aus ethischen und sicherheitsbezogenen Gesichtspunkten gefordert, dass Menschen zu jedem Zeitpunkt die Handlungen einer KI überwachen, kontrollieren und wenn nötig korrigieren können sollten (Rieth/Hagemann, 2022). Aus den beschriebenen Anforderungen kann ein Paradox aus Flexibilitäts- und Kontrollerwartungen an KI-Teammitglieder entstehen. Als ein weiteres Beispiel für einen solchenWiderspruch lässt sich die in einigen Studien dokumentierte Erwartung nennen, dass KI als Teammitglied Emotionen erkennen können sollte (Rieth/Hagemann, 2022). Mit dieser Fähigkeit könnte KI bspw. Stresslevel in Echtzeit ermitteln und so menschliche Teammitglieder in besonders anspruchsvollen Situationen besser entlasten. Im Rahmen von Affective Computing, einem Ansatz, bei dem mittels KI-basierter Verfahren angestrebt wird, Personendaten wie Gesichtsausdrücke oder Stimmlagen zu analysieren, um daraus auf den emotionalen Zustand eines Menschen zu schließen, scheint dies durchaus denkbar. Allerdings steht diesem Anspruch entgegen, dass menschliche Interaktionspartner vielfach nicht wollen, dass KI personenbezogene Daten dieser Art erfasst, verarbeitet oder gar speichert. Auch aus dieser Spannung wird deutlich: Beobachtung 2: Erwartungen an KI-Teammitglieder könnenWidersprüche enthalten. Des Weiteren stellt sich die Frage, inwiefern Erwartungen an KI-Teammitglieder mit Erwartungen, die menschlichen Teammitgliedern gegenüber gelten, übereinstimmen. Studien zeigen diesbezüglich, dass Fähigkeiten, die für Teamarbeit in klassischen menschlichen Teams essenziell sind, auch von

13 02 / 23 PERSONALquarterly Adaption langfristig erschweren kann. Zusätzlich stellten die Forschenden fest, dass dieser negative Effekt selbst bei einer positiven Erwartungswiderlegung (z. B. niedrige initiale Erwartungen, die durch die Fähigkeiten einer Technologie übertroffen wurden) auftrat (z. B. Bhattacherjee/Premkumar, 2004). Andere Studien berichten hinsichtlich einer positiven Erwartungswiderlegung gegenteilige Ergebnisse. Bspw. konnte in einem Experiment gezeigt werden, dass Studienteilnehmende mit niedrigen antizipatorischen Erwartungen an die kommunikativen Fähigkeiten ihres KI-Interaktionspartners positiv überrascht reagierten, wenn die KI in der Interaktion menschenähnliche kommunikative Fähigkeiten zeigte. Die KI wurde daraufhin von den Teilnehmenden besser bewertet als vor der Interaktion (Grimes/Schuetzler/Giboney, 2021). In der derzeitigen Studienlage sind somit gegenläufige Ergebnisse gegeben. Es scheint, als könne eine Überbietung der initialen Erwartungen in der tatsächlichen Interaktion mit KI sowohl negative als auch positive Konsequenzen haben. Grundsätzlich lässt sich jedoch festhalten: Beobachtung 4: Wenn KI-bezogene Erwartungen auf die Realität treffen, ergeben sich verschiedene Szenarien der Erfüllung oder Widerlegung dieser Erwartungen, die Auswirkungen auf Einstellungen und Verhalten gegenüber KI-Teammitgliedern haben können. Wenn eine initiale Erwartung einer Person an ein KI-Teammitglied widerlegt wird, könnte vermutet werden, dass die Person diese Erwartung an die Realität anpasst. Bspw. könnte eine Person vor der ersten Interaktion mit ihrem KI-Teammitglied eine fehlerlose Ausführung der gegebenen Aufgaben von der KI erwarten. Für den Fall, dass das KI-Teammitglied jedoch teils Fehler macht, mag auf Basis der Erwartungswiderlegung davon ausgegangen werden, dass sich der Inhalt der initialen Erwartung dem tatsächlichen Leistungsniveau der KI anpasst. Die Person würde somit automatisch lernen zu antizipieren, wann die Handlungen der KI richtig und wann sie fehlerhaft sind. Die psychologische Forschung zeigt allerdings, dass Erwartungsanpassungen oftmals weder automatisch noch unmittelbar geschehen. Vielmehr gehen Menschen mit Informationen oder Erfahrungen, die ihre Erwartungen verletzen, sehr unterschiedlich um. Zu den Strategien im Umgang mit erwartungswiderlegenden Erfahrungen gehören z. B. das Ignorieren unerwarteter Handlungen, das Herunterspielen ihrer Wichtigkeit oder die erhöhte Ausrichtung der Aufmerksamkeit auf Vorkommnisse, die die initialen Erwartungen bestätigen (Pinquart et al., 2021). Im äußersten Fall richten Menschen in Situationen des Zusammenarbeitens ihre eigenen Handlungen so stark nach ihren Erwartungen aus, dass sie im Sinne einer selbsterfüllenden Prophezeiung das vorab erwartete Resultat herbeiführen. Zur Illustration dieses Effekts stelle man sich eine Person vor, die mit einem KI-Teammitglied innerhalb einer beliebigen Aufgabe zusammenarbeitet. Bereits vor der Interaktion hat die Person sehr geringe antizipatorische Erwartungen an die KI. Nun besitzt das KI-Teammitglied Fähigkeiten, die deutlich über diesen Erwartungen liegen. Die Person blendet diese auf Basis ihrer Ursprungserwartung jedoch aus und lässt das Potenzial der KI in der Aufgabe, an der sie zusammen mit der KI arbeitet, ungenutzt. Daraufhin ist das aus der Zusammenarbeit hervorgehende Arbeitsergebnis mangelhaft, was jedoch vor allem an der ausbleibenden Integration der Fähigkeiten der KI und nicht etwa an einer schlechten Leistung der KI per se liegt. Erste Studienergebnisse unterstreichen, dass initiale Erwartungen an KI-Teammitglieder ungeachtet der tatsächlichen Realität überdauern und Einfluss auf die Interaktion mit KI nehmen können (z. B. Demir/McNeese/Cooke, 2018). Im Rahmen eines Experiments wurden Teilnehmende in zwei Gruppen unterteilt, wobei den Personen in der einen Gruppe mitgeteilt wurde, sie würden zusammen mit einer KI eine Aufgabe lösen. Der zweiten Gruppe hingegen wurde gesagt, sie würden die Aufgabe mit einem Menschen bearbeiten. In Wahrheit interagierten alle Teilnehmenden mit einer eingeweihten Person, die über die Gruppen hinweg das gleiche Verhalten zeigte. Der einzige Unterschied zwischen den Gruppen war somit die Information über die Art (KI oder Mensch) ihres Teammitglieds. Die Ergebnisse der Studie zeigen, dass die Teams, in denen die Teilnehmenden dachten, sie würden mit einer KI interagieren, weniger Abstimmungen trafen und so auch im Ergebnis der Aufgabe eine schlechtere Leistung erbrachten (Demir/McNeese/Cooke, 2018). Daraus lässt sich ableiten, dass die Information, eine KI oder ein Mensch wäre Teil des Teams, antizipatorische Erwartungen bei den Teilnehmenden aktivierte. Diese Erwartungen bestimmten die Zusammenarbeit in einem solchen Ausmaß, dass die tatsächlichen Fähigkeiten des Interaktionspartners in den Hintergrund traten. In Summe wird deutlich: Beobachtung 5: KI-bezogene Erwartungen können anhaltende Effekte auf den Umgang und die Zusammenarbeit mit KI haben, denn auf die Verletzung einer Erwartung folgt nicht zwangsläufig eine Anpassung dieser Erwartung. Wie beeinflussen KI-bezogene Erwartungen mehrerer menschlicher Teammitglieder das Team als Ganzes? Bisher haben wir uns in unseren Ausführungen auf die Erwartungen eines menschlichen Teammitglieds gegenüber einem KI-Teammitglied bezogen. In Organisationen werden jedoch vielfach mehrere menschliche Teammitglieder mit demselben KI-Teammitglied zusammenarbeiten. Zwischen diesen Teammitgliedern können Unterschiede in KI-bezogenen Erwartungen vorliegen, weil Erwartungen von verschiedenen personenbezogenen Faktoren beeinflusst werden (z. B. Kaplan et al., 2021). Besonders gut untersucht sind solche Unterschiede in Bezug auf Vertrauen in KI. Grundsätzlich beruht Vertrauen auf der Annahme, dass ein Gegenüber etwas, das für die vertrauende Person wichtig ist, tun wird. Somit kann Vertrauen als eine Form der positiven Erwartungshaltung angesehen wer-

PERSONALquarterly 02 / 23 14 SCHWERPUNKT_KI ALS TEAMMITGLIED den. Unterschiede im Ausmaß, in dem Personen KI-Systemen vertrauen, beruhen bspw. auf der individuellen Erfahrung im Umgang mit Technologien oder der eigenen Expertise in Bezug auf die Aufgabe, die mit der KI zusammen bearbeitet wird. In Summe zeigen Studienergebnisse diesbezüglich, dass mehr Erfahrung und eine höhere Expertise innerhalb des Aufgabenbereichs eine positive Erwartungshaltung gegenüber KI fördern. Auch soziodemografische Aspekte wie die Kultur, in der Menschen aufwachsen und leben, können bedingen, wie sehr sie KI vertrauen (Kaplan et al., 2021). Somit muss festgehalten werden: Beobachtung 6: Da Erwartungen an KI-Teammitglieder auf Basis personenbezogener Faktoren entstehen, können sich Erwartungen an das KI-Teammitglied zwischen menschlichen Teammitgliedern unterscheiden. Die Teamforschung beschäftigt sich im Rahmen von empirischen Studien zu sog. mentalen Modellen bereits seit mehreren Jahrzehnten mit der Frage, welchen Einfluss Erwartungen verschiedener Teammitglieder auf die Zusammenarbeit in menschlichen Teams haben. Mentale Modelle eines Teams sind kognitive Strukturen der Teammitglieder, in denen Vorstellungen dazu verankert sind, wie Aufgaben am besten erledigt werden, wie andere Teammitglieder sich verhalten und wie man zusammenarbeiten möchte. Diese Glaubens- und Wissensstrukturen werden als erwartungsbestimmend und somit rahmengebend für Interaktionen im Team angesehen (Andrews et al., 2022). Bei der Bewertung der Güte mentaler Modelle in Teams wird meist zwischen zwei Kriterien unterschieden. Das eine Kriterium betrifft den Grad der Gleichartigkeit oder Überlappung der mentalen Modelle der einzelnen Teammitglieder. Das zweite zielt auf die Akkuratesse mentaler Modelle ab, z. B. in Form ihrer Passung zur Realität oder zu einer (falls gegeben) idealen Ausführung der Aufgabe. Empirische Befunde zeigen, dass beide Faktoren maßgeblich zu einer effektiven und leistungsfördernden Zusammenarbeit beitragen (Andrews et al., 2022). Teams sollten demnach über mentale Modelle verfügen, die sich über die Mitglieder hinweg stark überschneiden und korrekt sind, um auf Basis einer geteilten Erwartungshaltung produktiv zusammenarbeiten zu können. Auf Grundlage dessen kann für Mensch-KI Interaktionen erfasst werden: Beobachtung 7: Zwischen Teammitgliedern geteilte, realitätsnahe KI-bezogene Erwartungen können die Zusammenarbeit in Mensch-KI-Teams fördern. Quelle: Eigene Darstellung Abb. 2: Schematische Darstellung zur aktiven Herstellung einer Passung zwischen Erwartungen und Realität bezüglich der Fähigkeiten eines KI-Teammitglieds Ausgangszustand nur geringer Passung zwischen KI-bezogenen Erwartungen und den Fähigkeiten einer bestimmten KI* Einbezug der Erwartungen und aktives Erwartungsmanagement in verschiedenen Phasen der KI-Gestaltung und Adoption Einbindung und Anpassung KIbezogener Erwartungen in: (1) KI-Entwicklung und -Design (2) Implementierung (3) fortlaufender Zusammenarbeit Gesteigerte Passung KI-bezogener Erwartungen und Fähigkeiten der KI als Basis effektiver Zusammenarbeit in Mensch-KI-Teams *Anmerkung: Jede andere Ordnung der dargestellten Kreise zueinander im Ausgangszustand ist ebenso denkbar. Sollte das Team, in dem die KI implementiert wird, aus weiteren menschlichen Teammitgliedern bestehen, steigt die Komplexität des Ausgangszustands durch die Hinzunahme ihrer Erwartungen, die durch weitere Kreise in der Abbildung dargestellt werden würden, automatisch. Normative Erwartungen an KI-Teammitglied Antizipatorische Erwartungen an KI-Teammitglied Tatsächliche Fähigkeiten der KI (technologische Realität) Tatsächliche Fähigkeiten der KI (technologische Realität) Passung zwischen Erwartungen an KI-Teammitglied und den tatsächlichen Fähigkeiten der KI

15 02 / 23 PERSONALquarterly Implikationen und Handlungsempfehlungen Die genannten Beobachtungen zeigen, dass Diskrepanzen zwischen Erwartungen an KI-Teammitglieder und den tatsächlichen Fähigkeiten von KI erkannt und aktiv adressiert werden sollten. Für dieses Vorhaben bestehen bereits in der Entwicklung und dem Design eines KI-Teammitglieds Ansatzpunkte. Darüber hinaus sollten die Auswirkungen des Wechselspiels zwischen Erwartungen und Realität auch während der Implementierung von Mensch-KI-Teams und der fortlaufenden Zusammenarbeit berücksichtigt und angepasst werden. Wie mittels eingebrachter Maßnahmen eine möglichst hohe Deckung von KI-bezogenen Erwartungen mit den realen KIFähigkeiten erzeugt werden kann, ist in Abbildung 2 illustriert. Hinsichtlich der Art der zu ergreifenden Maßnahmen unterstreicht die Befundlage die zentrale Rolle eines menschzentrierten Ansatzes. Das bedeutet, dass es für die Ableitung effektiver Maßnahmen in diesem Kontext unumgänglich ist, die Mitarbeitenden, die mit dem KI-Teammitglied zusammenarbeiten werden, möglichst früh in Überlegungen zur Einführung des KI-Teammitglieds einzubeziehen (Parker/Grote, 2020). Mit diesem Ansatz geht das deutliche Abwenden von einem technologischen Determinismus einher, in dem KI ohne die Berücksichtigung der Auswirkungen auf das Gesamtarbeitssystem implementiert wird. Allerdings bedingen sich Mensch und Technologie, wie in soziotechnischen Systemtheorien beschrieben, immer gegenseitig. Deshalb darf der Fokus von Maßnahmen zur Gestaltung von Mensch-KI-Teams nicht ausschließlich auf der Anpassung der Fähigkeiten von KI-Teammitgliedern an menschliche Erwartungen liegen. In diesem Sinne schlagen wir für verschiedene Phasen der Ausgestaltung der MenschKI-Zusammenarbeit Handlungsempfehlungen für das Management beider Seiten der Erwartungs-Realitäts-Beziehung vor. Die eine Seite fokussiert dabei auf das Einbeziehen menschlicher Erwartungen in die Gestaltung der KI, während die andere auf die Anpassung unrealistischer Erwartungen abzielt. Entwicklung und Design: Das Einbeziehen der Erwartungen der Mitarbeitenden, die in Zukunft mit einem KI-Teammitglied arbeiten werden, bietet die Möglichkeit, frühzeitig einen Grundstein für eine erfolgreiche Mensch-KI-Zusammenarbeit zu legen. Wir gehen dabei davon aus, dass eine grundsätzliche Bedarfs- und Nutzenklärung der KI-basierten Unterstützung für das Arbeitssystem durch alle relevanten Stakeholder (Management, Mitarbeitende, KI-Entwicklungsverantwortliche) vorgenommen wurde. Daraufhin sollte ein partizipatorischer KI-Entwicklungsprozess angestoßen werden. Das bedeutet, dass ein Austausch zwischen den Verantwortlichen für die Entwicklung der KI und den in Zukunft mit ihr arbeitenden Teammitgliedern begonnen werden sollte. Mitarbeitende erhalten die Möglichkeit, ihre KI-bezogenen Erwartungen den KI-Entwicklungsverantwortlichen mitzuteilen. Andersherum sollte dieser Austausch ermöglichen, dass die KI-Entwicklungsverantwortlichen das Spektrum und vor allem die Grenzen der Fähigkeiten des KI-Teammitglieds aufzeigen. Konkrete Methoden des partizipativen Designs sind vielfältig und können je nach Unternehmensstruktur und angedachtem KI-Anwendungsfall unterschiedlich ausgestaltet werden. Zu klassischen Werkzeugen des partizipativen Designs gehören Fragebogenerhebungen und Interviews mit Mitarbeitenden, in denen Erwartungen erfragt werden können. Für einen direkteren und tiefgreifenderen Austausch zwischen KI-Entwicklungsverantwortlichen und zukünftigen KI-Interaktionspartnern sind vor allemDesignworkshops denkbar. Dieses Format bietet den Vorteil, dass die Erwartungen der Teammitglieder untereinander gegenüber dem KI-Teammitglied eine Angleichung erfahren, da alle Teilnehmenden gebündelt Informationen zu den Fähigkeiten der KI erhalten. Zusätzlich erlangen sie durch den Austausch mehr Bewusstsein über die KI-bezogenen Erwartungen der anderen Teammitglieder. Implementierung: Die zuvor beschriebenen Maßnahmen können kostspieligen und im schlimmsten Fall sicherheitskritischen Fehlabstimmungen in der Mensch-KI-Interaktion vorgreifen. Dennoch garantieren sie keine ideale Passung zwischen den Erwartungen an das KI-Teammitglied und seinen realen Fähigkeiten, sodass eine Einbindung dieser Aspekte in der Implementierungsphase ebenso wichtig ist. ImKontext des realen Arbeitsalltags können zusätzliche Erkenntnisse über die Art und Weise, wie Mitarbeitende ihr KI-Teammitglied integrieren und wie KI selbst die Arbeitsprozesse verändert, hervortreten. Einige Erwartungen werden erst durch die Interaktion mit dem KI-Teammitglied im Arbeitsalltag überhaupt erkennbar. Deshalb sollte (mithilfe von arbeits- und organisationspsychologischer Expertise) ein Plan für die Implementierung der KI ausgearbeitet werden. Dieser sollte klar definieren, wann und wie die KI-bezogenen Erwartungen der Mitarbeitenden erhoben und adressiert werden. Essenziell ist dabei die (im Idealfall quantitative) Messung der initialen antizipatorischen Erwartungen vor der Implementierung. Eine weitere Erhebung (inklusive einer Messung der wahrgenommenen Bestätigung oder Widerlegung der initialen Erwartungen) sollte einige Wochen oder Monate später (je nach Anwendungsfall) stattfinden. Diese Daten geben Aufschluss darüber, wie die Mitarbeitenden die Fähigkeiten des KI-Teammitglieds wahrnehmen und ob Diskrepanzen zwischen initialen Erwartungen und tatsächlichen Fähigkeiten bestehen. Aus den Ergebnissen kann abgeleitet werden, inwiefern das KI-Teammitglied und seine Einbettung in das Team weiter konfiguriert werden müssen und ob Mitarbeitende eingehender hinsichtlich der Fähigkeiten des KITeammitglieds aufgeklärt und geschult werden sollten. Fortlaufende Zusammenarbeit: Durch die beschriebenen Maßnahmen zur Entwicklung und Einführung des KI-Teammitglieds wird eine Grundpassung zwischen KI-bezogenen Erwartungen und den Fähigkeiten der KI hergestellt. Jedoch

RkJQdWJsaXNoZXIy Mjc4MQ==