wirtschaft und weiterbildung 7-8/2019 - page 14

menschen
14
wirtschaft + weiterbildung
07/08_2019
HINTERGRUND.
Algorithmen beeinflussen bereits heute unser
Leben. Jörg Dräger fordert daher einen gesellschaftlichen
Diskurs über die damit verbundenen Chancen und Risiken.
Dräger, Mitglied im Vorstand der Bertelsmann Stiftung, warnt
vor einem Entweder-oder-Denken und glaubt, dass bei der
Personalauswahl algorithmische Verfahren manchmal sogar
besser sein können als theoriegestützte Verfahren.
Beim „KI Summit“ hielten Sie Ihren Vortrag „Wie wir KI in den
Dienst der Gesellschaft stellen“ erst am Schluss, als ein Groß-
teil der Teilnehmer schon gegangen war. Ein bezeichnendes
Signal für den Umgang mit dem Thema „Risiken“?
Jörg Dräger:
Es ist zumindest bezeichnend, dass wir in der
Wirtschaft derzeit einen sehr chancenorientierten, in der brei-
ten Gesellschaft aber einen eher risikoorientierten und ableh-
nenden Diskurs haben. Mit unserer gesellschaftlichen Perspek-
tive bei der Bertelsmann Stiftung versuchen wir, eine Brücke zu
schlagen und sowohl Chancen als auch Risiken zu beleuchten.
Auf dem Kongress hieß es, dass jeder von uns laut US-Studien
permanent von sechs Datenaufzeichnungen umgeben ist. Ist
es daher nicht längst zu spät, etwas dagegen zu tun?
Dräger:
Nein, es ist nicht zu spät. Denn es hängt an uns als Ge-
sellschaft, wo wir künstliche Intelligenz und Algorithmen nut-
zen und wo wir sie verbieten. Dazu müssen wir natürlich das
Zepter des Handelns in der Hand halten. Die Digitalisierung
ist ein Werkzeug der Gesellschaft und ihr untertan. Menschen
bestimmen die Ziele und entscheiden, was Maschinen erlaubt
und was ihnen verboten wird.
Aber ein Bewerber, der aufgrund von Algorithmen keinen Job
bekommt, kann doch nichts entscheiden.
Dräger:
Nein, ein Einzelner wäre dem System ausgeliefert,
aber Verbände, Interessenvertretungen und Politik nicht. Ein
Fotos: Jan Voth
„Vermummungs­
verbot für
Algorithmen!“
Problem bei der Personalauswahl ist zum Beispiel die Mono-
polstruktur: In vielen Unternehmen in den USA wird derselbe
Algorithmus eingesetzt und er entscheidet, ob ich zum Vor-
stellungsgespräch eingeladen werde. Dann besteht die Gefahr,
dass bestimmte Gruppen von Menschen ganz vom Arbeits-
markt ausgeschlossen werden, weil der monopolistische Algo-
rithmus sie regelmäßig aussortiert. Solche Monopolstrukturen
können Politik und Gesellschaft sehr wohl unterbinden. Ein
anderes Problem sind diskriminierende Auswahlverfahren.
Auch dafür haben wir bereits Gesetze und Regelungen. Üb-
rigens ist es ja auch so, dass Menschen diskriminieren. Aus
Studien zur Personalauswahl wissen wir beispielsweise, dass
nach nicht sachgerechten Kriterien entschieden wird. Ein Gol-
fer stellt dann gerne einen Golfer ein. Die Chance algorith-
mischer Entscheidungen besteht darin, dass falsche Kriterien
nun besser sichtbar werden. Bei großen Datenmengen können
Diskriminierungen erkannt und nachverfolgt werden.
Aber es wird doch nichts sichtbar. Der Algorithmus gilt als
Geschäftsgeheimnis!
Dräger:
Ich brauche ja nicht den Quellcode, aber ich kann die
Anbieter zwingen, dass ich die Wirkweise eines Algorithmus
beforschen kann. Nehmen Sie das Beispiel der Autoversiche-
rung. Da kann ich Millionen Musterdatensätze analysieren las-
sen und wenn ich im Ergebnis sehe, dass Wohlhabende bevor-
teilt werden, habe ich ganz andere Möglichkeiten, regulierend
Jörg Dräger (rechts).
Er war Hamburger Wis-
senschaftssenator, bevor er im Jahr 2008
in den Vorstand der Bertelsmann Stiftung
wechselte. Das Buch „Wir und die intelli-
genten Maschinen“ hat er gemeinsam mit
Ralph Müller-Eiselt (links) geschrieben.
1...,4,5,6,7,8,9,10,11,12,13 15,16,17,18,19,20,21,22,23,24,...68
Powered by FlippingBook