wirtschaft + weiterbildung
07/08_2019
15
einzugreifen. Das ist die Chance, die ich sehe. Überhaupt erst
einmal Fakten zu schaffen und damit gesellschaftliche Debat-
ten zu führen.
Die Vermutung liegt nahe: Solche Analysen machen doch die
Anbieter nicht ...
Dräger:
Dazu brauchen wir unabhängige Institutionen oder zi-
vilgesellschaftliche Watchdogs. Nur muss man ihnen die Mög-
lichkeit dazu einräumen. Lebensmittelhersteller würden sich
vielleicht auch keine Lebensmittelkontrollen wünschen. Trotz-
dem hat man beschlossen, dass Kontrolle eine sinnvolle Sache
ist. Und kein Hersteller möchte heute gern
den Windbeutel des Jahres bekommen. Und
wahrscheinlich will auch kein Anbieter den
Preis für den ungerechtesten Algorithmus in
der Personalauswahl gewinnen. Insgesamt
brauchen wir eine breitere gesellschaftliche
Diskussion. Bevor wir alles verteufeln, sollten wir schauen,
was wir Gutes mit der neuen Technik erreichen können. Das
geht nur, wenn wir im Verhältnis zu den Maschinen immer vor
Augen haben, wer Ross und wer Reiter ist. Der Mensch nutzt
und kontrolliert die Maschine, nicht andersrum.
Laut einer Umfrage der Bertelsmann Stiftung weiß fast die
Hälfte der Europäer nicht einmal, was Algorithmen sind. Da
fehlt es offenbar noch massiv an Aufklärung ...
Dräger:
Wissen wir in der Breite der Bevölkerung und in der
Politik genug über Algorithmen? Nein. Da braucht es Kom-
petenzaufbau. Schaffen wir heute genügend Transparenz,
wie ein Algorithmus agiert? Auch nein. Und kontrollieren wir
stringent genug? Ebenso nein. Es gibt erheblichen Handlungs-
bedarf. In vielen Fällen bedarf es dazu gar nicht einer neuen
Gesetzgebung oder neuer Ministerien, sondern wir müssen die
bewährten analogen Systeme ins digitale Zeitalter übersetzen.
Als Gesellschaft sollten wir sicherstellen, dass unsere festge-
legten Werte und Normen auch in Zukunft eingehalten wer-
den. Wir müssen daher immer wieder abwägen: Wo kann uns
die Technologie nützen und wo schaden? Und wie schaffen wir
es als Gesellschaft, den Nutzen zu fördern und den Schaden
einzugrenzen? Dabei kann man nicht alles über einen Kamm
scheren. Wenn ein Algorithmus über die Länge der Haftstrafe
entscheidet, sollte die Software von sachkundigen Behörden
vorab freigegeben sein. Wenn ein Algorithmus die Personalaus-
wahl optimiert, reicht es vielleicht auch, seinen Einsatz zu eva-
luieren und nachträglich zu überprüfen, ob es unerwünschte
Verzerrungen gibt.
„Wir müssen immer wieder abwägen: Wo kann uns
die Technologie nützen und wo schaden?“
Buchtipp.
Jörg Dräger und Ralph
Müller-Eiselt: „Wir und die intelligenten
Maschinen“, Deutsche Verlags-Anstalt
DVA (Random House), München 2019,
272 Seiten, 20,00 Euro
R