Künstliche Intelligenz 15 Wozu würden Sie raten: Wie können Unternehmen sicherstellen, dass KI-gestützte HR-Systeme fair und transparent sind? KI-Anwendungen müssen durch kontinuierliche Audits – gegebenenfalls durch zertifizierte Dritte – auf ihre Anfälligkeit zur Diskriminierung in unterschiedlichen Dimensionen getestet werden. Beim Thema Fairness ist es zunächst wichtig, sich im Unternehmen über die anzuwendenden Fairnessnormen im Klaren zu werden und festzulegen, welche Fairnessnorm bei einer KI-Anwendung für welche Art von Entscheidung zum Einsatz kommen soll. Zum Beispiel: Soll bei Neueinstellungen rein die Qualifikation zählen oder soll der Anteil von Männern und Frauen gewichtet werden? Über diese ergebnisorientierten Fairnessnormen hinaus spielt aber auch prozedurale Fairness, wie Transparenz, eine entscheidende Rolle. Transparenz darüber, welche Daten gesammelt werden, oder Transparenz darüber, dass jemandem gerade von einer KI geholfen wird, verstehen sich aus ethischer Sicht von selbst. Nehmen Sie zum Beispiel durch eine KI individuell gestaltete Stellenanzeigen. In sozialen Netzwerken ist es mittlerweile üblich, Stellenanzeigen zu versenden, die unter gezielter Nutzung von frei zugängigen Daten über Zielpersonen von einer KI gestaltet werden. Bei den Zielpersonen soll der Eindruck entstehen, dass das Unternehmen sich besonders mit ihnen beschäftigt hat und gerade sie gewinnen will. In der Konsequenz fühlen sich die Zielpersonen individuell angesprochen. In diesen Fällen scheint es mir ein ethisches Gebot der Transparenz, dass die Verwendung einer KI kenntlich gemacht wird. Was ist mit der berühmten „Black Box“ bei KI-Anwendungen? Wie kann da mehr Transparenz hergestellt werden? Unter dem Begriff KI verbergen sich viele Algorithmen mit unterschiedlichen Komplexitätsgraden. „White-Box“-Modelle umfassen nur wenige einfache Regeln, die zum Beispiel als Entscheidungsbaum oder einfaches lineares Modell mit wenigen Parametern dargestellt werden. Deshalb können die Prozesse hinter diesen Algorithmen normalerweise von Menschen verstanden werden. Im Gegensatz dazu verwenden sogenannte „Black-Box“-Modelle zum Teil Tausende von Entscheidungsbäumen oder unüberschaubar viele Parameter. Sie sind in ihren Entscheidungen und Vorhersagen mitunter deutlich präziser als „White-Box“-Modelle. Allerdings können ihre Ergebnisse viel schwieriger von Menschen nachvollzogen werden. Es ergibt sich also ein Präzisions-/ Transparenz-Tradeoff. Bei jeder Anwendung in HR sollte geprüft werden, ob der Einsatz von „Black-Box“-Modellen mit ihrer hohen Intransparenz wirklich deutlich bessere Entscheidungen bringt und somit gerechtfertigt ist. Teilweise ist der Unterschied zu „White-Box“-Modellen nicht groß, sodass mit deren Einsatz eine gute und transparentere Entscheidung gewährleistet ist. Und wenn doch „Black-Box“-Modelle zum Einsatz kommen? Dann ist es meist schwierig, die Entscheidungen nachvollziehbar zu machen. Sollte eine solche KI zum Beispiel bei einer Beförderungsentscheidung eingesetzt werden, so wird es einer Kollegin oder einem Kollegen, die oder der nicht befördert wurde, nicht reichen, zu hören, dass die KI so entschieden hat. Vielmehr möchte sie oder er wissen, welche Kriterien ausschlaggebend waren und warum sie nicht als erfüllt angesehen wurden. Neuere Forschungsansätze versuchen, auch für Entscheidungen von „Black-Box“- Modellen Erklärungen zu liefern, die Menschen nachvollziehen können. Diese Ansätze werden unter dem Begriff „Explainable Ihr vierter Punkt war Datenschutz und Sicherheit. Welche Fragen stehen da im Fokus? In diesem Kontext gibt es zahlreiche Fragen, die zum Teil auch von der jeweiligen Anwendung abhängen. Tendenziell arbeiten KI-Anwendungen umso präziser, je mehr Daten zur Verfügung stehen. Ist es daher ethisch erlaubt, möglichst viele Daten über Personen zu erheben und diese auch zusammenzuführen, um die Vorhersagekraft der KI zu erhöhen? Betrachten wir zum Beispiel ein Einstellungsverfahren. Hier ist es naheliegend, Daten aus verschiedenen Quellen, wie Lebensläufen, Interviews und sozialen Netzwerken, zu sammeln und zusammenzuführen. Ist sichergestellt, dass die Bewerberinnen oder Bewerber der Erhebung der einzelnen Daten zugestimmt haben? Haben sie auch der Zusammenführung der Daten zugestimmt, durch die ein ganz neuer Blick auf die jeweilige Person geworfen werden kann? Haben Sie noch ein Beispiel? Ein anderes Beispiel ist die Erhebung von Leistungskennzahlen und Arbeitsergebnissen. Auch hier muss sichergestellt sein, dass die Mitarbeitenden zustimmen – auch der Zusammenführung dieser Daten mit anderen persönlichen Daten. Hier stellt sich die Frage: Wo sind die Grenzen zur Überwachung? Schwierige Datenschutzprobleme ergeben sich auch immer, wenn personenbezogene Daten verwendet werden, um die KI zu trainieren und zu verbessern. Letzteres kann insbesondere dann problematisch sein, wenn die KI von einem externen Anbieter stammt, der sich den Zugriff auf Eingabedaten offenhält, um sein KI-Produkt zu optimieren. Wird dies vom Anbieter zur Bedingung gemacht, ist Vorsicht geboten. Sie sprachen auch das Thema Diskriminierung an. Was ist hierbei die größte Herausforderung? Mit Blick auf Diskriminierung muss man verstehen, dass KI-Systeme mit Daten trainiert werden, welche aus von Menschen getroffenen Entscheidungen resultieren. Diese Daten enthalten im Allgemeinen menschliche Verzerrungen und Vorurteile bezüglich bestimmter Merkmale. Diese werden von der KI übernommen. Falls in den Trainingsdaten zum Beispiel eher männlich klingende Vornamen bevorzugt werden oder wenige Datenpunkte mit weiblich klingenden Vornamen enthalten sind, benachteiligt die KI in Bewerbungsprozessen möglicherweise Lebensläufe mit weiblich klingenden Vornamen, wie es in einem bekannten Fall bei Amazon vor mehr als sechs Jahren bekannt wurde. Es ist also nicht garantiert, dass die KI vorurteilsfreier entscheidet als der Mensch. Auch das Ausblenden der Merkmale vor der KI hilft im Allgemeinen nicht weiter, da bestimmte Merkmale häufig über andere Informationen von der KI erschlossen werden können, etwa über Hobbys, die eher von Frauen ausgeübt werden. Was kann der HR-Bereich dagegen tun? Solche Verzerrungen können nur durch nachträgliche umfangreiche Tests, sogenannte Audits, aufgedeckt werden – insbesondere dann, wenn die Trainingsdaten von der Entwicklungsfirma der KI nicht offengelegt werden. Dass dann Korrekturen möglich sind, kann man gleichzeitig aber auch als Stärke der KI ansehen, denn anders als beim Menschen, sind Verzerrungen oder Diskriminierungen mithilfe von Tausenden von Abfragen im Prinzip aufdeckbar. Dies muss dann allerdings auch geleistet werden.
RkJQdWJsaXNoZXIy Mjc4MQ==