Personalmagazin plus 10/2021
Digitalisierungschancen 27 Was wären die Alternativen? Es gibt beispielsweise Software, bei der Bewerber*innen Com- puterspiele spielen müssen und die KI analysiert dann, wie sie in Problemsituationen reagieren, welche Lösungsansätze sie finden, wie kreativ, entscheidungsfreudig und teamfähig sie dabei sind. Diese Analyse kann dann durch Personaler*innen als Zusatzinfo im Auswahlprozess genutzt werden. Das ist ein gutes Beispiel für ein positives Zusammenspiel zwischen Mensch und Maschine. Hier wird aus künstlicher Intelligenz eine erweiterte Intelligenz des Menschen. Informationen werden verständlich gemacht und ein Informationsgewinn ermöglicht. Auf dieser Grundlage kann der Mensch dann am Ende eine Entscheidung treffen. Laut einer Befragung der Organisationsberatung Korn Ferry stehen Unternehmen in Amerika und Asien demEinsatz von KI bei der Kandidatensuche weitaus aufgeschlossener gegen- über als in Europa, wo die Skepsis offenbar noch immer groß ist. Wie ist das zu erklären? Ich glaube, dass es in Deutschland eine grundsätzliche Angst vor der Digitalisierung gibt, die abgebaut werden muss. Zudem gibt es strukturelle Defizite, um die man sich kümmern muss: Breitbandausbau, Kompetenzaufbau und Dateninfrastruktur. Es gibt bestimmte Bereiche, in denen man auch einfach mal auspro- bieren und vorpreschen kann. Da sind andere Länder mutiger. Gleichzeitig ist es richtig, dass die EU gesagt hat, wir wollen nicht den extrem marktzentrierten Weg der USA oder den extrem auf Staatsmacht zentrierten Weg der Chinas gehen, sondern für uns ist ganz klar, dass Innovation und Schutz von Menschenrechten und Demokratie in Einklang gebracht werden müssen. Dass man gerade in sensiblen Bereichen wie Personal-Recruiting sich des- halb an das Thema rantastet und nicht auf Teufel komm raus alles sofort digitalisieren muss, finde ich richtig. Bei der „Bertelsmann Stiftung“ haben Sie das Projekt „Ethik der Algorithmen“ geleitet und neun Regeln aufgestellt, die „Algo-Rules“. Welche ist die wichtigste? Eine davon hervorzuheben, ist schwierig, weil alle Regeln zu- sammenwirken. Die Algo-Rules geben Empfehlungen entlang des gesamten Entwicklungs- und Einsatzprozesses von algorith- mischen Systemen. Da steht beispielsweise die Forderung nach Technikfolgenabschätzung vor Einsatz eines Systems oder nach Nachvollziehbarkeit und Beschwerdemechanismen, sobald das System im Einsatz ist. Letztlich geht es darum zu verstehen, dass KI-Software nicht nur technische, sondern soziotechnische Sys- teme sind. Somit tragen nicht nur die Programmierer*innen die Verantwortung, sondern auch die Personen, die über ihren Ein- satz entscheiden und die Software in Organisationskontexte integrieren. Auch Personaler*innen sind aufgefordert, sich über die Technologie schlau zu machen, damit sie sie richtig einsetzen können. Wenn wir zusammenarbeiten und nicht dem Techno- solutionism verfallen, können wir die Digitalisierung auch für das Gemeinwohl nutzen. „Es ist richtig, dass die EU nicht den marktzentrierten Weg der USA oder den staats zentrierten Weg Chinas gewählt hat.“ Dass sozusagen im Nachhinein eine externe Aufsicht möglich ist. Bestehende Behörden wie die Antidiskriminierungsstelle oder die Datenschutzbeauftragten der Länder können diese Rolle übernehmen. Hierfür brauchen sie einen technischen Kompetenzaufbau und den Zugriff auf das System. Die zivil- gesellschaftliche Organisation Algorithm Watch hat außerdem die Anlaufstelle „Unding“ eingerichtet, bei dem man als betrof- fene Person gegen algorithmische Entscheidungen Einspruch einlegen kann. Und ich glaube, dass natürlich auch technische Standards und Qualitätssiegel eine große Rolle spielen können. Das ist am Ende nicht nur aus rechtlichen Gründen auch im Interesse der Unternehmen, die die Software kaufen und einset- zen. Denn in dem Moment, in dem mein System diskriminiert, verliere ich auch potenziell gute Arbeitskräfte. Software-Anbieter versprechen, dass mit ihren Systemen auch der spätere Berufserfolg vorhersagbar wird. Das hört sich nach Glaskugel an. Wir müssen verstehen, dass KI keine Magie ist und die Systeme immer mit Wahrscheinlichkeiten arbeiten. Sie können sich an- schauen, ob bestimmte Eigenschaften in der Vergangenheit zu Erfolg geführt haben und dann basierend auf diesen Analysen Prognosen über die Zukunft treffen. Die Schwierigkeit ist hier aber, dass Erfolg in vielen Bereichen nicht einfach zu definieren ist. Vereinfach gesagt ist ein Autoverkäufer erfolgreich, wenn er viele Autos verkauft. Eine Ärztin ist erfolgreich, wenn sie einen Patienten so behandelt, dass er wieder gesund wird. In anderen Branchen aber ist Erfolg nicht so einfach messbar. In meinem Job etwa geht es darum, mit den Projekten, die wir entwickeln und fördern, möglichst viel positive gesellschaftliche Verände- rung zu erzeugen. Es gibt nicht die eine Definition davon, was Erfolg in meinem Berufsfeld ausmacht. Ich glaube aber, dass algorithmische Systeme uns in bestimmten Branchen helfen können, weg von der Erfahrungsmessung hin zur Kompetenz- messung zu kommen. Dafür braucht es aber keine Videoanalyse, die Mimik und Gestik bewertet. CHRISTIAN PARTH ist freier Journalist und Reporter. Er recherchiert und schreibt über politische und gesellschaft- liche Themen.
Made with FlippingBook
RkJQdWJsaXNoZXIy Mjc4MQ==