wirtschaft + weiterbildung
07/08_2019
17
Dräger:
Ja, aber das hat ja auch eine positive Seite: Es kommt
zunehmend darauf an, was jemand kann – und weniger, wo
er oder sie etwas gelernt hat. Was wir doch heute in unserer
Gesellschaft viel zu wenig wertschätzen, ist das informelle Ler-
nen. Wir bewerten das formale Lernen in Bildungsinstitutionen
deutlich zu hoch. Wer auf dem deutschen Arbeitsmarkt ein be-
stimmtes Zeugnis nicht vorweisen kann, hat unabhängig von
den tatsächlichen Kompetenzen weniger Chancen. Wenn ein
Computerspiel hier unentdeckte Kompetenzen offenbart, ist
das ein Mehrwert. So kann ich Rohdiamanten entdecken, die
sonst verborgen geblieben wären. Dafür würde ich Algorith-
men guten Gewissens einsetzen. Für die letzte Auswahlent-
scheidung sollte allerdings weiter ein Mensch verantwortlich
sein.
Die Datennutzung im Personalbereich geht längst weiter. IBM
behauptet zum Beispiel, dass es dank künstlicher Intelligenz
weiß, wenn ein Mitarbeiter demnächst kündigen will, auch
wenn er es selbst noch nicht weiß.
Dräger:
Da muss man durch den Datenschutz ganz klare Gren-
zen ziehen. Ein Arbeitgeber darf nicht jede E-Mail und jedes
Telefonat analysieren. Gewerkschaften und Arbeitnehmerver-
tretungen würden zu Recht auf die Barrikaden gehen. Wir als
Menschen müssen entscheiden, wo die Grenzen sind. Geht es
um die Totalüberwachung von Mitarbeitern, wird die große
Mehrheit sagen, das ist nicht okay. Geht es darum, eben die-
sen einen Rohdiamanten zu entdecken, werden die meisten
das wohl befürworten. Und dazwischen ist eine Grauzone, in
der wir einen kontinuierlichen gesellschaftlichen Diskurs brau-
chen. Wir sollten Digitalisierung nicht überbewerten und es so
darstellen, als ob wir keine Entscheidungshoheit mehr hätten.
Wir Menschen bestimmen die Regeln. Wenn ich als Gesell-
schaft an die individuellen Freiheitsrechte glaube, muss ich im
Diskurs dafür eintreten und andere davon überzeugen, dass
diese Freiheit wichtiger ist als das letzte Tröpfchen Effizienz.
China setzt bereits auf die Totalüberwachung. Sein Social-
Scoring-System forciert bestimmte Verhaltensweisen und nun
will man das System auch an andere Länder verkaufen. Droht
so etwas in abgespeckter Form auch in Europa?
Dräger:
In unserer Gesellschaft wird die individuelle Freiheit zu
Recht sehr hoch bewertet. Da haben solche Social-Scoring-Sys-
teme wenig Platz. Das Grundproblem ist nicht die Technolo-
gie, sondern das politische System. Wir müssen aber auch zur
Kenntnis nehmen, dass das Social Scoring in der chinesischen
Bevölkerung im Moment eine relativ hohe Zustimmungsrate
hat. Viele glauben, dass damit Missstände in der Gesellschaft
verbessert werden können. In Europa sehen wir das anders,
haben auch nicht solche Missstände. Eine Einschränkung von
Freiheit ist glücklicherweise für den ganz großen Teil unserer
Bevölkerung keine Option. Ich stelle mir eher zwei Fragen. Er-
stens: Welche gesellschaftlichen Probleme können und wollen
wir mit künstlicher Intelligenz beheben? Etwa Diskriminierung
bei der Personalauswahl. Und zweitens, wo wir eine KI auch
künstlich verdummen sollten. Nicht alles, was technisch mög-
lich ist, ist gesellschaftlich richtig. Nehmen Sie das Beispiel der
Krankenversicherungen. Die könnten jedem Versicherten auf-
grund seiner Gesundheitsdaten sehr individuelle Tarife berech-
nen. Aber wir als Gesellschaft haben uns für ein solidarisches
System entschieden, in dem die Gesunden die Kosten für die
weniger Gesunden mittragen. Da würde ich jeden Algorithmus
verbieten.
Was tut die Bertelsmann Stiftung in diesen Sachen?
Dräger:
Seit zwei Jahren arbeiten wir im Projekt „Ethik der
Algorithmen“ daran, wie künstliche Intelligenz unser Leben
verbessern kann. Da geht es darum, Menschen für die Chan-
cen und Risiken der KI zu sensibilisieren. Dazu gehört auch
das neue Buch. Zudem schaffen wir Formate, in denen ver-
schiedene Interessengruppen wie Unternehmer, Wissenschaft-
ler, Politiker und Programmierer diskutieren, um zu möglichst
konkreten Fragestellungen auch möglichst konkrete Antworten
zu finden. Die dritte Säule nennen wir Lösungs-Labor. Hier
fördern wir beispielsweise die gemeinnützige Organisation Al-
gorithm Watch, deren Ziel es ist, gesellschaftlich relevante al-
gorithmische Entscheidungen transparent zu machen und eine
zivilgesellschaftliche Kontrollfunktion zu übernehmen. Zudem
haben wir die Algo.Rules entwickelt. Das sind formale Regeln,
mit denen ethische Standards im Programmiercode verankert
werden können. Für uns ist die gesellschaftliche Wirkung von
Algorithmen ein höchst relevantes Thema. Das ist viel Arbeit
und braucht auch einen langen Atem. Aber vielleicht schaffen
wir es sogar irgendwann, dass das Thema auf dem KI Summit
des Handelsblattes nicht erst am zweiten Tag gegen Ende der
Konferenz platziert wird, sondern schon zu Beginn des ersten
Tages.
Interview: Bärbel Schwertfeger
Jörg Dräger.
Das Mitglied des vierköpfigen
Vorstands der Bertelsmann Stiftung gilt als
ausgewiesener Experte für den digitalen Wandel.