PERSONALquarterly 02 / 23 12 SCHWERPUNKT_KI ALS TEAMMITGLIED KI-Teammitgliedern erwartet werden (Lyons et al., 2019). Zu den am häufigsten erwarteten Fähigkeiten zählt bspw. eigenständiges und proaktives Handeln der KI (Zhang et al., 2021). Außerdem wird zunehmend von der Erwartung berichtet, dass KI-Teammitglieder ein mit menschlichen Teammitgliedern geteiltes Verständnis von Arbeitszielen, -schritten und Kooperationsweisen formen können sollten (Andrews et al., 2022). Allerdings zeigt sich auch, dass Erwartungen an KI von Erwartungen an menschliche Teammitglieder in einigen Aspekten abweichen. So wird KI-Teammitgliedern gegenüber teils weniger bis keine Fehlertoleranz eingeräumt. Studien untersuchen dieses Phänomen bspw. im Rahmen eines kognitiven Schemas der perfekten Automatisierung, dem Glaubenssätze wie „Hochentwickelte Technologien treffen immer die richtigen Entscheidungen“ zugrunde liegen (Merritt et al., 2015). Während in diesem Punkt höhere Erwartungen an KI als an Menschen gestellt werden, können die Erwartungen an KI in anderen Bereichen niedriger ausfallen. An diesem Punkt wird erneut die Differenzierung zwischen normativen und antizipatorischen Erwartungen wichtig. Normativ wird von KI-, wie von menschlichen Teammitgliedern, eine hohe Kommunikationsfähigkeit gefordert. Antizipatorisch gilt diese Erwartung aber für KI-Teammitglieder bedeutend weniger als für menschliche. Zusammenfassend lässt sich festhalten: Beobachtung 3: Erwartungen an KI-Teammitglieder zeigen inhaltliche Schnittmengen mit Erwartungen, die menschlichen Teammitgliedern gegenüber bestehen, sie sind jedoch nicht deckungsgleich. Welche Auswirkungen haben Erwartungen gegenüber KITeammitgliedern auf Arbeitsprozesse und -leistung? Um die Auswirkungen von KI-bezogenen Erwartungen darlegen zu können, ist es notwendig, zuerst logisch festzustellen, welche Szenarien sich ergeben, wenn initiale Erwartungen innerhalb einer Interaktion mit einem KI-Teammitglied auf die Realität treffen. Ganz grundsätzlich fällt dabei entweder eine Bestätigung oder eine Widerlegung dieser initialen Erwartungen an. Darüber hinaus können sich Erwartungen jedoch auch in ihrer Valenz (positiv/hoch vs. negativ/gering) unterscheiden und jeweils unter- oder übertroffen werden. Bei initial hohen Erwartungen an KI-Teammitglieder, wie dem zuvor beschriebenen Anspruch auf Perfektionismus und Fehlerlosigkeit, ist es sehr wahrscheinlich, dass es zu einer Enttäuschung der Erwartungen in Form einer negativen Erwartungswiderlegung kommt. Das tatsächliche Verhalten des KI-Teammitglieds bleibt in diesem Fall hinter der Ursprungserwartung zurück. Schon im Jahrzehnt der 2000er-Jahre zeigten Studien zum Gebrauch simpler Informations- und Kommunikationstechnologie (wie E-Mail-Programme), dass diese Form der Erwartungswiderlegung die Einstellung von Mitarbeitenden gegenüber technologischen Systemen nachhaltig negativ prägt und somit ihre Menschen besitzen (z. B. McNeese et al., 2018). Aus qualitativen Studien wird allerdings ersichtlich, dass an ein ideales KI-Teammitglied oftmals der Anspruch gestellt wird, es sollte über ein möglichst menschenähnliches Sprachverständnis und Kommunikationsverhalten verfügen (z. B. Zhang et al., 2021). Daraus wird deutlich, dass normative Erwartungen nicht automatisch in antizipatorische übersetzt werden. Die Differenzierung dieser Erwartungstypen ist wichtig, um zu verstehen, was passiert, wenn Erwartungen auf die (technologische) Realität treffen. Es lässt sich festhalten: Beobachtung 1: Erwartungen an KI als Annahme (antizipatorische Erwartungen) unterscheiden sich von idealisierten Erwartungen an KI in Form von Ansprüchen (normativen Erwartungen). Neben den Unterschieden zwischen Erwartungstypen können Erwartungen an KI in sich widersprüchlich sein. Bspw. wird einerseits diskutiert, dass KI, um der Rolle eines vollwertigen Teammitglieds gerecht zu werden, die Fähigkeit besitzen muss, sich eigenständig und flexibel an Veränderungen anzupassen und eigene Arbeitspakete zu übernehmen (Lyons et al., 2019). Somit wäre KI den Mitarbeitenden nicht mehr kategorisch unterstellt, sondern würde über vergleichbare Handlungs- und Entscheidungsfreiheit verfügen. Andererseits wird aus ethischen und sicherheitsbezogenen Gesichtspunkten gefordert, dass Menschen zu jedem Zeitpunkt die Handlungen einer KI überwachen, kontrollieren und wenn nötig korrigieren können sollten (Rieth/Hagemann, 2022). Aus den beschriebenen Anforderungen kann ein Paradox aus Flexibilitäts- und Kontrollerwartungen an KI-Teammitglieder entstehen. Als ein weiteres Beispiel für einen solchenWiderspruch lässt sich die in einigen Studien dokumentierte Erwartung nennen, dass KI als Teammitglied Emotionen erkennen können sollte (Rieth/Hagemann, 2022). Mit dieser Fähigkeit könnte KI bspw. Stresslevel in Echtzeit ermitteln und so menschliche Teammitglieder in besonders anspruchsvollen Situationen besser entlasten. Im Rahmen von Affective Computing, einem Ansatz, bei dem mittels KI-basierter Verfahren angestrebt wird, Personendaten wie Gesichtsausdrücke oder Stimmlagen zu analysieren, um daraus auf den emotionalen Zustand eines Menschen zu schließen, scheint dies durchaus denkbar. Allerdings steht diesem Anspruch entgegen, dass menschliche Interaktionspartner vielfach nicht wollen, dass KI personenbezogene Daten dieser Art erfasst, verarbeitet oder gar speichert. Auch aus dieser Spannung wird deutlich: Beobachtung 2: Erwartungen an KI-Teammitglieder könnenWidersprüche enthalten. Des Weiteren stellt sich die Frage, inwiefern Erwartungen an KI-Teammitglieder mit Erwartungen, die menschlichen Teammitgliedern gegenüber gelten, übereinstimmen. Studien zeigen diesbezüglich, dass Fähigkeiten, die für Teamarbeit in klassischen menschlichen Teams essenziell sind, auch von
RkJQdWJsaXNoZXIy Mjc4MQ==