Personalmagazin plus 10/2021

Digitalisierungschancen 25 Korrelation und Kausalität. Sie versteht nicht, dass dahinter vielleicht diskriminierende Strukturen stecken und reproduziert das Ganze einfach. Dem Tech-Konzern Amazon ist das passiert, als er versucht hat, die erste Filterung im Bewerbungsprozess zu automatisieren. Die Software fing an, Bewerbungen von Frauen systematisch auszusortieren. Diskriminierung kann außerdem nicht nur in den Daten stecken. Auch die Auswahlkriterien und Zielvorgaben, die Art und Weise, wie wir definieren, was eine gute Mitarbeiterin oder einen guten Mitarbeiter ausmacht beinhalten Werteentscheidungen. Aber auch hier bietet KI eine Chance. Weil uns das System dazu zwingt, durch die Automa- tisierung möglichst genau zu definieren, wonach wir eigentlich suchen, können implizite Vorurteile sichtbar gemacht und hin- terfragt werden. Anbieter von KI-Recruiting-Software werben damit, dass der Prozess schneller, effizienter, objektiver und somit fairer gemacht werden kann. Klingt eigentlich nach dem richtigen Weg. Wenn sie richtig entwickelt und eingesetzt wird, kann Re- cruiting-Software nicht nur Prozesse beschleunigen, sondern die Verfahren tatsächlich auch gerechter machen. Es gibt bei- spielsweise Systeme, die schauen sich Stellenanzeigen an und analysieren, inwiefern diese Ausschreibungen etwa auch für Frauen ansprechend sind. Durch die Forschung wissen wir, dass bestimmte Begriffe und Adjektive vor allemMänner, andere wie- derum eher Frauen ansprechen. Die Software liefert den Persona- ler*innen Feedback und macht Vorschläge, wie man das besser formulieren kann. Ebenfalls interessant finde ich den Ansatz, das Bewerbungsgespräch von einer KI transkribieren und auch in Bezug auf die Fragen des Interviewers analysieren zu lassen. Die Systeme können besonders gute Fragen identifizieren und sichtbar machen, ob Interviewer*innen sich gegenüber männli- chen Bewerbern und weiblichen Bewerberinnen unterschiedlich verhalten. Hier kann KI dem Unternehmen helfen, den Prozess qualitativ zu verbessern und Fehler zu reduzieren. Doch leider wird dieses positive Potenzial nicht immer genutzt. Warum ist das so? Es lässt sich leider beobachten, dass beim Einkauf von Soft- ware nicht immer das Streben nach größtmöglicher Fairness, sondern häufig Gewinnmaximierung sowie Personal- und Kos- tensenkung im Fokus stehen. Dabei können neue Macht- und Ungleichgewichte zulasten der Mitarbeiterinnen und Mitarbeiter geschaffen werden. Der Bayrische Rundfunk hat die Videoanalyse-Software eines Münchner Start-ups getestet und festgestellt, dass bei derselben Bewerberin, die mal mit Brille, mal ohne und mal mit Kopftuch denselben Text spricht, unterschiedliche Bewertungen herauskommen. Was halten Sie davon? Ich bin beim Einsatz solcher Software grundsätzlich sehr skeptisch. Die Erkennung von Kompetenzen anhand von biome- trischen Analysen, seien es Videos oder Sprache, wird von vielen Carla Hustedt wirbt für einen soziotechnischen Blick auf den Einsatz von künstlicher Intelli- genz in Unternehmen.

RkJQdWJsaXNoZXIy Mjc4MQ==