wirtschaft und weiterbildung 7-8/2019 - page 16

menschen
16
wirtschaft + weiterbildung
07/08_2019
In Ihrem neuen Buch „Wir und die intelligenten Maschinen“
beschreiben Sie, wie ein Anbieter von Darlehen anhand
bestimmter Daten herausfinden will, wie hoch die Rückzah-
lungswahrscheinlichkeit eines Kreditsuchenden ist. Dabei
spielt auch der Schrifttyp eine Rolle, mit dem er den Antrag
am Computer ausfüllt. Das ist doch völlig abstrus.
Dräger:
Auch hier haben wir wieder Chancen und Risiko. Es
gibt viele Menschen, die bekommen bisher überhaupt kein
Darlehen. Mithilfe von Algorithmen kann man die Rückzah-
lungsfähigkeit anders beurteilen, als das klassische Banken
heute tun. Und da mag der auf dem PC installierte Schrift-
typ eine Rolle spielen, weil er Rückschlüsse auf die Nutzung
bestimmter Computerprogramme erlaubt. Für manche Men-
schen sind algorithmische Kreditbewilligungen eine Chance.
Das Risiko, dass andere damit stigmatisiert werden, ist ebenso
präsent. Daher braucht es klare Regeln: Erst mal muss ich als
Bürger wissen, ob da ein Algorithmus am Werk ist und wel-
che Daten herangezogen werden. Wir brauchen ein Vermum-
mungsverbot für Algorithmen. Zudem sollten die Menschen
wissen, wie der Algorithmus wirkt. Wir brauchen also auch
eine Art Beipackzettel. Und drittens brauche ich Beschwerde-
möglichkeiten und Verfahren, wie man beispielsweise falsche
Daten korrigieren kann. Gerade im Bereich der Fintechs sollte
es daher so etwas wie ein Siegel für vernünftige, datenbasierte
Analysen geben.
Aber Algorithmen erkennen immer nur Korrelationen. Damit
weiß ich zwar, dass bestimmte Kriterien oft gleichzeitig
auftreten, aber nicht, ob sie auch kausal zusammenhängen.
Dräger:
Der Mensch ist gut im Verstehen von Kausalitäten, der
Algorithmus gut im Verstehen von Mustern und Korrelationen.
Und zusammen sind wir richtig gut. Und wenn ein erkanntes
Muster stabil ist und nicht diskriminiert, bedarf es auch nicht
immer einer erklärbaren Kausalität.
Gilt das auch für die Personalauswahl? In Ihrem Buch
beschreiben Sie Computerspiele wie Wasabi Waiter, wo die
Bewerber sich in einer virtuellen Sushi-Bar als Kellner bewäh-
ren müssen, oder Pymetrics, das Eigenschaften wie die Risi-
kobereitschaft messen will. Der Algorithmus filtert dann die
Eigenschaften heraus, die man braucht, um auf einer Stelle
erfolgreich zu sein. Experten halten das Vorgehen für fragwür-
dig. Denn dahinter steht keine überprüfte Theorie und es fehlt
der Anforderungsbezug. Wer als virtueller Kellner glänzt, muss
das noch lange nicht auch im Job tun.
Dräger:
Theorie hin oder her, der Erfolg dieser Verfahren lässt
sich ja am Ergebnis messen. Die überprüfen eben hinterher, ob
die Bewerber, die mit Algorithmen ausgewählt wurden, zum
Beispiel länger im Unternehmen bleiben, schneller befördert
werden oder mehr Fortbildungen besuchen als diejenigen, die
ohne Algorithmus ausgewählt wurden. Die Frage ist doch, was
zählt mehr: der in der Realität hinterher gemessene Erfolg ohne
vorige Theorie oder die Theorie, die sich nicht unbedingt em-
pirisch bestätigen lässt?
Statt wissenschaftlich fundierten eignungsdiagnostischen
Verfahren braucht man künftig also nur noch ein nettes
Computerspiel?
Dräger:
Was spricht gegen beides? Wir dürfen hier wieder nicht
in die Falle des Entweder-oder tappen. Es wird Situationen
geben, in denen die klassischen Verfahren bessere Ergebnisse
erzielen und andere, in den Verfahren mit
Mustererkennung bessere Ergebnisse erzielen.
Wenn ich als Personaler tausend Bewerbungen
auf eine Stelle bekomme, werde ich die nicht
alle gleichermaßen gründlich lesen können.
Dann könnte mir die Maschine bei der Vorsor-
tierung helfen. Und wenn alles nur darauf an-
kommt, wie gut ich mich in einem einstündigen Interview ver-
kaufen kann, dann setzen sich auch bestimmte Muster durch.
Hier können Algorithmen Kompetenzen entdecken, die uns
als Menschen manchmal verborgen bleiben. Auf der anderen
Seite können Algorithmen sich genauso wie Menschen auch
gnadenlos irren. Wir Menschen müssen da aufpassen und kor-
rigieren. In der Regel führt die Kombination von Mensch und
Maschine zur besten und qualitativ hochwertigsten Lösung.
Bedeutet das nicht auch, dass Ausbildungen und Abschlüsse
immer mehr an Bedeutung verlieren?
R
„Wir brauchen jetzt formale Regeln, mit denen
ethische Standards im Programmiercode
verankert werden können.“
Umfrage.
Fast die Hälfte der EU-Bevölkerung weiß
nicht, was ein Algorithmus ist. Zu diesem Ergebnis
kommt eine Studie der Bertelsmann Stiftung, für die
knapp 11.000 Teilnehmer aus allen 28 EU-Mitglied-
staaten befragt wurden.
Genau 48 Prozent der Menschen haben entweder
noch nie von Algorithmen gehört oder kennen zwar den
Begriff, wissen aber nicht, was ein Algorithmus tut. Die
Umfrage wurde im September 2018 von Dalia Research
im Auftrag der Bertelsmann Stiftung durchgeführt und
ist für die EU als Ganzes repräsentativ. Bei der Frage,
was sie mit Algorithmen assoziierten, nannten die
EU-Bürger an erster Stelle „zu viel Macht für Program-
mierer“ – also für die Menschen, die den Algorithmen
sagen, was und wie sie zu rechnen haben. Aber die
Befragten dachten beim Thema Algorithmus auch an
Zeitersparnis und effizientere Entscheidungen.
Aufklärung tut Not
1...,6,7,8,9,10,11,12,13,14,15 17,18,19,20,21,22,23,24,25,26,...68
Powered by FlippingBook