Wirtschaft und Weiterbildung 3/2019 - page 20

titelthema
20
wirtschaft + weiterbildung
03_2019
es auf der Basis von Anreiz- beziehungs-
weise Belohnungsfunktionen. Das Ziel,
das Alpha Zero vorgegeben wurde, lau-
tete: „Gewinne!“. Dazu wurden die Spiel-
regeln benannt und die Erklärung, was
gewinnen bedeutet. Und dann hat die
Maschine das getan, was Rechner eben so
tun: Sie hat gerechnet. Das ist höchstens
mathematische Intelligenz.
Intelligenz? Bloß welche
Intelligenz???
Wir Menschen haben uns bisher nicht auf
eine allgemein akzeptierte Definition des
Begriffs Intelligenz einigen können. Ist es
unsere Fähigkeit, Zusammenhänge zu er-
kennen und Probleme zu lösen oder doch
nur die Denkgeschwindigkeit? Muss die
soziale Intelligenz in Form von Respekt,
Rücksichtnahme oder auch Verantwor-
tungsbewusstsein nun mitberücksichtigt
werden oder nicht? Es gibt mindestens so
viele Definitionen wie Fachrichtungen,
die sich mit Intelligenz beschäftigen. Wie
soll es da ausgerechnet für künstliche
Intelligenz eine abgestimmte Bedeutung
geben? Macht aber auch nichts, denn
schließlich gibt es die künstliche Intelli-
genz ja eh nicht! Und wenn ich nur ein
einziges Wort nennen dürfte, um diese
These zu untermauern, dann wäre es:
Selbstreferenziell.
Unser Gehirn ist ein selbstreferenzielles
System. Es arbeitet autonom, kann aber
von außen beeinflusst werden. Die Aus-
wirkungen sind jedoch vollständig durch
das selbstreferenzielle System bestimmt,
es ist nicht von außen steuerbar. Wir
Menschen sind und bleiben komplexe
Wesen, Maschinen dagegen sind ledig-
lich kompliziert und von selbstreferenzi-
ell weit entfernt. Der US-amerikanische
Informatiker Larry Tesler schlug vor,
dass wir Intelligenz definieren als „was
auch immer Maschinen noch nicht getan
haben“.
Gleichzeitig entzündet sich die Dis-
kussion um einen Intelligenztest für
Maschinen gerade neu. Angeführt von
eben jenen Menschen, die uns glauben
machen wollen, dass die Ära des Men-
schen nun bald zu Ende sei, holen sie
den sogenannten „Turing-Test“ aus der
Mottenkiste. Alan Turing formulierte in
den 1950er-Jahren eine Idee, wie man,
rein theoretisch, herausfinden könne,
ob die Intelligenz eines Systems mit der
eines Menschen vergleichbar sei. In di-
versen Experimenten wurde der Turing-
Test in späteren Jahren durchgeführt.
Ohne visuellen oder auditiven Kontakt,
also nur per Tastatur und Bildschirm,
sprach ein Proband mit einem Rechner
und auch mit einem normal intelligenten
Menschen. Kann der Proband im Laufe
des Gesprächs nicht zwischen Rechner
und natürlicher Person unterscheiden,
gilt der Test als bestanden. Somit sollte
bewiesen sein, dass der Rechner dem
Menschen ebenbürtig ist. Fun Fact: Alan
Turing selbst hielt Intelligenz und Denk-
vermögen für nicht formulierbar und be-
schränkte sich bei seinen Überlegungen
lediglich auf die Glaubhaftigkeit der von
der Maschine gegebenen Antworten.
Dieses Detail wird in den meisten Zi-
taten gern weggelassen und stattdessen
ein Chatbot namens Eugene Goostmann
ins Feld geführt. Jener schaffte es 2014
in einer fünfminütigen Kommunikation,
33 Prozent einer 30-köpfigen Jury davon
zu überzeugen, er sei ein Mensch. Dafür
kann man sich natürlich begeistern, aber
was wurde denn bewiesen? Eine allge-
meine Intelligenz sicher nicht. Die Fähig-
keit, unliebsame Fragen durch Gegenfra-
gen und Ausweichmanöver auszuhebeln?
Vielleicht. Eventuell sagt dieser Test am
Ende mehr über die Intelligenz der teil-
nehmenden Menschen aus als über die
der Maschine.
So zu tun, als entwickelten sich die
Maschinen in Richtung menschlicher
Intelligenz, ist unpassend und stiftet
Verwirrung. Rechner entwickeln sich in
Richtung Geschwindigkeit und Speziali-
sierung auf ein Problem. Die großen Fort-
schritte finden im überwachten maschi-
nellen Lernen statt - dort, wo „Künstliche
Neuronale Netze“ mit vielen Daten auf
eine Problemlösung hin trainiert werden.
Das hat nichts mit menschlicher Intelli-
genz zu tun. Eine Entwicklung der Ma-
schinen in Richtung unserer Fähigkeit wie
„den Kontext wechseln“, „Erfahrungswis-
sen nutzen“, „Hypothesen bilden“ oder
Ähnliches findet nicht statt. Gesunder
Menschenverstand bleibt uns Menschen
vorbehalten. Er ist weder abbildbar, noch
kann er imitiert werden.
Wohin wir Menschen die Maschinen
optimieren und weiterentwickeln wer-
den, ist jedoch offen. Die Zukunft kann
schließlich niemand voraussagen, aber
gleichzeitig ist es ja an uns, sie zu gestal-
ten. Die Maschinen werden weiterhin nur
jene Aufgaben lösen, die wir beschreiben
können.
Können Algorithmen nun
coachen oder nicht?
Die Diskussion, ob und wie Coachs und
Trainer in naher Zukunft von Avataren
jeglicher Couleur abgelöst werden kön-
nen, ist in vollem Gange. Gerne werden
dazu Apps angeführt, die bestimmten
Personengruppen für eine Art Coaching-
Gespräch zur Verfügung stehen. Eines
vorab: Schauen wir uns Anwendungen
wie Apps und Chatbots an, können wir
nur spekulieren, ob es sich wirklich um
maschinelles Lernen handelt und irgend-
was mit künstlicher Intelligenz zu tun
hat. Kein Unternehmen, das kommerziell
arbeitet, macht die eingesetzte Techno-
logie transparent und Software mit dem
Aufkleber „Künstliche Intelligenz inside“
verkauft sich leichter als „Ich habe hier
nur ein Programm“. Doch das Label trügt
häufig und so wird alles Mögliche als
künstliche Intelligenz über den Laden-
tisch geschoben.
Im Arbeitsumfeld des Coachings gibt es
mittlerweile einige Anwendungen, die
R
R
Stephanie
Borgert
ist diplomierte
Informatikerin und
promoviert gerade
zu der Frage, wie ethische Aspekte
beim Einsatz von künstlicher Intelli-
genz in HR-Prozessen berücksichtigt
werden können. Sie spricht, schreibt
(bislang fünf Fachbücher), trainiert
und berät zu den Themen Komple-
xität, zeitgemäße Organisation und
künstliche Intelligenz.
Stephanie Borgert
Lange Kuhle 43, 48163 Münster
Tel. +492501 924396
AUTORIN
1...,10,11,12,13,14,15,16,17,18,19 21,22,23,24,25,26,27,28,29,30,...70
Powered by FlippingBook