Wirtschaft und Weiterbildung 3/2019 - page 22

titelthema
22
wirtschaft + weiterbildung
03_2019
vermeintlich unglaubliche Ergebnisse bei
der Betreuung traumatisierter und/oder
depressiver Menschen erzielen. Und an-
geblich werden diese Chatbots von den
Anwendern ob ihrer Empathie und Ge-
sprächsführung in den Himmel gelobt.
Meinen ersten Selbstversuch mit einer
Coaching-Anwendung habe ich mit „Wo-
ebot“ gemacht. Dieser Chatbot ist seit
2017 auf dem Markt, ist in Englisch ver-
fügbar und kann immer noch kostenlos
genutzt werden. Nachdem die App in-
stalliert ist, muss man sehr viele Punkte
wie „Daten werden anonymisiert zu Trai-
ningszwecken genutzt“ quittieren. Schon
Punkt 4 ist der Hinweis darauf, dass
dieser „Woebot“ natürlich keinen The-
rapeuten ersetzen kann. Klar. Dann darf
ich aus einer Liste mein aktuelles Gefühl
auswählen. Jetzt „quatscht“ der Bot mich
voll. Wir müssen uns täglich sprechen, er
kann mir ganz viele Tools bieten, er hat
viele Stories für mich und er basiert auf
einer tollen Stanford-Studie. Mindestens
fünfmal weist „Woebot“ mich darauf hin,
auf jeden Fall täglich mit ihm zu chatten,
damit er mich besser kennenlernen kann.
Er nervt mich jetzt schon. Dann aber,
nach einer gefühlten Ewigkeit, beginnt
die erste Sitzung. Ich darf freien Text ein-
tippen und sage ihm: „Mache mir Sorgen
um meine berufliche Zukunft“. Er ver-
sucht zu paraphrasieren und irgendwel-
che Begriffe für meinen Gemütszustand
zu erraten. Dann fragt er mich, wie wir
weitermachen. Mein Fazit nach kurzer
Zeit: Gesprächsführung auf Kindergarten-
niveau ist keine ernst zu nehmende Hilfe.
Ein gern genanntes Beispiel ist Bill, ein
Avatar auf „Simcoach.org“. Mit Bill kön-
nen Angehörige des US-amerikanischen
Militärs per Chat ihre Sorgen besprechen
und Unterstützung erhalten. Testen lässt
sich das Ganze leider nicht, es ist aber
auch noch nicht über den Status Prototyp
eines Projekts der Universität von Südka-
lifornien hinaus.
Das Unternehmen X2AI schafft es, viel
Aufmerksamkeit für seine Anwendungen
„Tess“ und „Karim“ zu bekommen.
„Karim“ ist ihr Chatbot, der seit Län-
gerem syrischen Flüchtlingen zur Verfü-
gung steht oder stand (das lässt sich nicht
klar herausfinden). „Tess“ ist die Anwen-
dung für den freien Markt, die genauso
wie „Woebot“ für Menschen mit Sorgen
und Nöten gedacht ist. Mir ist es nicht
gelungen, einen Zugang zu bekommen.
Angeblich aber existiert ein wissenschaft-
liches Fundament und vielen Menschen
ginge es besser, seit sie regelmäßig mit
diesen Maschinen chatten. Unterm Strich
bleibt zu sagen: Coaching-Bots sind viel
heiße Luft um wenig Substanz. Das kann
auch nicht anders sein, denn es sind Ma-
schinen. Die meisten arbeiten mit einer
Mischung aus Expertensystem (also fest
programmierten Regeln) und „Künst-
lichen Neuronalen Netzen“ (überwachtes
Lernen). Auch X2AI räumt ein, dass die
Emotionen manuell codiert sind. Was be-
deutet, dass Regeln hinterlegt sind nach
dem Motto: „Wenn ein Benutzer ‚doof‘
als Zustand eintippt, frage nach dem Ge-
fühl ‚ängstlich‘“.
Um es noch einmal deutlich zu machen:
Rechner können Text und Bilder sehen,
aber nicht erkennen. Sie können hören,
aber nicht verstehen. Und, sie alle kön-
nen keine Metaebene. Habe ich versucht,
aber egal ob einer der vielen Eliza-Ab-
leger oder Woebot, die metallenen Ge-
sprächspartner werden komisch, wenn
es auf die Metaebene gehen soll. Nennen
Sie mich altmodisch, aber ich persönlich
finde die Metaebene immer noch wich-
tig in Coaching-Gesprächen. Und das viel
zitierte „Reden wie ein Mensch“ wird es
in absehbarer Zeit nicht geben, denn das
ist nun mal kein wohldefiniertes Problem
und kann von einer Maschine nicht gelöst
werden.
Sollen Coachs halbgare Apps
verkaufen?
Technologisch in den Kinderschuhen
und inhaltlich mehr als fragwürdig, wird
wohl kaum eine „künstliche Coaching-
Intelligenz“ in naher Zukunft den Markt
disruptivieren. Auch dieser Hype wird
überschätzt. Langfristig gilt: Wir Men-
schen müssen nicht alles machen, was
technisch möglich ist. Es gibt heute „coa-
chende“ Avatare und es wird künftig
weitere geben. Die werden aus dem Sta-
tus „rappeldumm“ zwar noch sehr, sehr
lange nicht herauskommen, aber Angst
lässt sich damit schon jetzt machen –
wenn wir es zulassen. Computer bringen
die gleiche Leistung wie ein Coach, dafür
billiger? Nein. Neue Geschäftsmodelle
für Coachs entstehen durch Apps? Nein
(außer Sie wollen Halbgares verkaufen)!
Maschinen werden bald schlauer, empa-
thischer, besser sein als Menschen? Nein.
Wenn zukünftig einer dieser Angstma-
cher mit maschinenregierten Zukunfts-
bildern vor Ihnen rumfuchtelt, dann fra-
gen Sie ihn oder sie doch mal, wann er
maschinelles Lernen in der Praxis erlebt
hat. An dieser Stelle eine Bitte: Verwen-
den Sie den Begriff künstliche Intelligenz
nicht mehr. Sprechen Sie von „maschi-
nellem Lernen“, das trifft es nämlich auf
den Punkt. Künstliche Intelligenz existiert
nicht.
Stefanie Borgert
R
Avatar Bill.
Man kann ihm Fragen nur schriftlich stellen. Über das Stadium eines
Prototypen ist Bill, dem Empathie beigebracht wurde, noch nicht hinausgekommen.
1...,12,13,14,15,16,17,18,19,20,21 23,24,25,26,27,28,29,30,31,32,...70
Powered by FlippingBook