Personal quarterly 2/2023

13 02 / 23 PERSONALquarterly Adaption langfristig erschweren kann. Zusätzlich stellten die Forschenden fest, dass dieser negative Effekt selbst bei einer positiven Erwartungswiderlegung (z. B. niedrige initiale Erwartungen, die durch die Fähigkeiten einer Technologie übertroffen wurden) auftrat (z. B. Bhattacherjee/Premkumar, 2004). Andere Studien berichten hinsichtlich einer positiven Erwartungswiderlegung gegenteilige Ergebnisse. Bspw. konnte in einem Experiment gezeigt werden, dass Studienteilnehmende mit niedrigen antizipatorischen Erwartungen an die kommunikativen Fähigkeiten ihres KI-Interaktionspartners positiv überrascht reagierten, wenn die KI in der Interaktion menschenähnliche kommunikative Fähigkeiten zeigte. Die KI wurde daraufhin von den Teilnehmenden besser bewertet als vor der Interaktion (Grimes/Schuetzler/Giboney, 2021). In der derzeitigen Studienlage sind somit gegenläufige Ergebnisse gegeben. Es scheint, als könne eine Überbietung der initialen Erwartungen in der tatsächlichen Interaktion mit KI sowohl negative als auch positive Konsequenzen haben. Grundsätzlich lässt sich jedoch festhalten: Beobachtung 4: Wenn KI-bezogene Erwartungen auf die Realität treffen, ergeben sich verschiedene Szenarien der Erfüllung oder Widerlegung dieser Erwartungen, die Auswirkungen auf Einstellungen und Verhalten gegenüber KI-Teammitgliedern haben können. Wenn eine initiale Erwartung einer Person an ein KI-Teammitglied widerlegt wird, könnte vermutet werden, dass die Person diese Erwartung an die Realität anpasst. Bspw. könnte eine Person vor der ersten Interaktion mit ihrem KI-Teammitglied eine fehlerlose Ausführung der gegebenen Aufgaben von der KI erwarten. Für den Fall, dass das KI-Teammitglied jedoch teils Fehler macht, mag auf Basis der Erwartungswiderlegung davon ausgegangen werden, dass sich der Inhalt der initialen Erwartung dem tatsächlichen Leistungsniveau der KI anpasst. Die Person würde somit automatisch lernen zu antizipieren, wann die Handlungen der KI richtig und wann sie fehlerhaft sind. Die psychologische Forschung zeigt allerdings, dass Erwartungsanpassungen oftmals weder automatisch noch unmittelbar geschehen. Vielmehr gehen Menschen mit Informationen oder Erfahrungen, die ihre Erwartungen verletzen, sehr unterschiedlich um. Zu den Strategien im Umgang mit erwartungswiderlegenden Erfahrungen gehören z. B. das Ignorieren unerwarteter Handlungen, das Herunterspielen ihrer Wichtigkeit oder die erhöhte Ausrichtung der Aufmerksamkeit auf Vorkommnisse, die die initialen Erwartungen bestätigen (Pinquart et al., 2021). Im äußersten Fall richten Menschen in Situationen des Zusammenarbeitens ihre eigenen Handlungen so stark nach ihren Erwartungen aus, dass sie im Sinne einer selbsterfüllenden Prophezeiung das vorab erwartete Resultat herbeiführen. Zur Illustration dieses Effekts stelle man sich eine Person vor, die mit einem KI-Teammitglied innerhalb einer beliebigen Aufgabe zusammenarbeitet. Bereits vor der Interaktion hat die Person sehr geringe antizipatorische Erwartungen an die KI. Nun besitzt das KI-Teammitglied Fähigkeiten, die deutlich über diesen Erwartungen liegen. Die Person blendet diese auf Basis ihrer Ursprungserwartung jedoch aus und lässt das Potenzial der KI in der Aufgabe, an der sie zusammen mit der KI arbeitet, ungenutzt. Daraufhin ist das aus der Zusammenarbeit hervorgehende Arbeitsergebnis mangelhaft, was jedoch vor allem an der ausbleibenden Integration der Fähigkeiten der KI und nicht etwa an einer schlechten Leistung der KI per se liegt. Erste Studienergebnisse unterstreichen, dass initiale Erwartungen an KI-Teammitglieder ungeachtet der tatsächlichen Realität überdauern und Einfluss auf die Interaktion mit KI nehmen können (z. B. Demir/McNeese/Cooke, 2018). Im Rahmen eines Experiments wurden Teilnehmende in zwei Gruppen unterteilt, wobei den Personen in der einen Gruppe mitgeteilt wurde, sie würden zusammen mit einer KI eine Aufgabe lösen. Der zweiten Gruppe hingegen wurde gesagt, sie würden die Aufgabe mit einem Menschen bearbeiten. In Wahrheit interagierten alle Teilnehmenden mit einer eingeweihten Person, die über die Gruppen hinweg das gleiche Verhalten zeigte. Der einzige Unterschied zwischen den Gruppen war somit die Information über die Art (KI oder Mensch) ihres Teammitglieds. Die Ergebnisse der Studie zeigen, dass die Teams, in denen die Teilnehmenden dachten, sie würden mit einer KI interagieren, weniger Abstimmungen trafen und so auch im Ergebnis der Aufgabe eine schlechtere Leistung erbrachten (Demir/McNeese/Cooke, 2018). Daraus lässt sich ableiten, dass die Information, eine KI oder ein Mensch wäre Teil des Teams, antizipatorische Erwartungen bei den Teilnehmenden aktivierte. Diese Erwartungen bestimmten die Zusammenarbeit in einem solchen Ausmaß, dass die tatsächlichen Fähigkeiten des Interaktionspartners in den Hintergrund traten. In Summe wird deutlich: Beobachtung 5: KI-bezogene Erwartungen können anhaltende Effekte auf den Umgang und die Zusammenarbeit mit KI haben, denn auf die Verletzung einer Erwartung folgt nicht zwangsläufig eine Anpassung dieser Erwartung. Wie beeinflussen KI-bezogene Erwartungen mehrerer menschlicher Teammitglieder das Team als Ganzes? Bisher haben wir uns in unseren Ausführungen auf die Erwartungen eines menschlichen Teammitglieds gegenüber einem KI-Teammitglied bezogen. In Organisationen werden jedoch vielfach mehrere menschliche Teammitglieder mit demselben KI-Teammitglied zusammenarbeiten. Zwischen diesen Teammitgliedern können Unterschiede in KI-bezogenen Erwartungen vorliegen, weil Erwartungen von verschiedenen personenbezogenen Faktoren beeinflusst werden (z. B. Kaplan et al., 2021). Besonders gut untersucht sind solche Unterschiede in Bezug auf Vertrauen in KI. Grundsätzlich beruht Vertrauen auf der Annahme, dass ein Gegenüber etwas, das für die vertrauende Person wichtig ist, tun wird. Somit kann Vertrauen als eine Form der positiven Erwartungshaltung angesehen wer-

RkJQdWJsaXNoZXIy Mjc4MQ==