Wirtschaft und Weiterbildung 3/2019 - page 19

wirtschaft + weiterbildung
03_2019
19
das Gegenargument und stammt aus der
Kategorie „fundiertes Halbwissen“. Es
ist natürlich Quatsch, dass „Künstliche
Neuronale Netze“ unser Gehirn nachbil-
den. Künstliche Neuronale Netze sind die
Darstellung mathematischer Modelle, mit
deren Hilfe beispielsweise Objekte auf
einem Bild erkannt werden können. Es ist
immer noch Software, die auf Hardware
läuft, welche Nullen und Einsen verarbei-
ten kann.
Gleichzeitig ist heute damit viel mehr
möglich als noch vor einigen Jahren,
denn Rechenleistung, Speicherkapazität
und Datenmenge haben sich vervielfacht
und so den Einzug des maschinellen Ler-
nens auch außerhalb der universitären
Labore möglich gemacht. Lassen wir eine
Maschine auf diese Art „lernen“, was ein
Muffin ist, dann sieht das folgenderma-
ßen aus:
• Definiere genau, welche Art Muffin das
„Künstliche Neuronale Netz“ erkennen
soll (hier: Vanille-Muffin mit Schoko-
splittern).
• „Trainiere“ das „Künstliche Neuronale
Netz“ mit vielen Fotos, auf denen ein
Vanille-Muffin mit Schokosplittern ab-
gebildet ist und liefere jedes Mal die
Information mit, dass es ein solcher
Muffin ist.
• Evaluiere das „Lernergebnis“ mit frei
verfügbaren Bildern. Das „Künstliche
Neuronale Netz“ hält so ziemlich alles,
was es auf Fotos zu sehen gibt, für
einen Vanille-Muffin mit Schokosplit-
tern.
• Jetzt folgt manuelle Arbeit: Mittels
Back-Propagation (Verfahren, um die
Fehler „Künstlicher Neuronaler Netze“
zu minimieren) werden die Berech-
nungen, die zum falschen Ergebnis
führten, rückwärts (!) verändert, damit
ein falsch erkanntes Bild beim nächs­
ten Durchlauf besser erkannt wird.
• Sie können auch eine zweite Klasse
von Fotos anlegen: Der Nicht-Muffin.
Dann trainiert man das „Künstliche
Neuronale Netz“ eben auf genau die
ganzen Nicht-Muffin-Bilder.
• Oder Sie legen eine dritte Klasse an:
„Chihuahua-Bilder“. Der Chihuahua,
eine mexikanische Hunderasse, ist die
kleinste Hunderasse der Welt. Ein sol-
cher Hundekopf aus der Nähe fotogra-
fiert sieht mit zwei Knopfaugen und
seiner runden Schnauze aus wie ein
Muffin mit drei Schokosplittern (siehe
Foto auf Seite 19).
• Egal wie viele verschiedene Klassen
Sie noch anlegen, es bleibt bei diesem
Prozess: Trainingsdaten einlernen, Eva-
luieren, Back-Propagation, erneutes
Einlernen, Evaluieren, und so weiter.
Diese Künstlichen Neuronalen Netze ler-
nen nicht selber und auch nicht selbst-
ständig, weshalb diese Art des maschi-
nellen Lernens „Supervised learning“
genannt wird. Aber sind die Roboter
gut eingelernt, dann haben wir es mit
Fachidioten zu tun, deren Fehlerrate bei
weniger als vier Prozent liegen kann.
Der Mensch beispielsweise hat beim Un-
terscheiden von Muffin und Chihuahua
immer noch eine fünfprozentige Fehler-
quote.
Der Aufwand, mit dem diese Maschinen
trainiert und permanent überwacht wer-
den müssen, ist jedoch enorm. Und sol-
len sie beispielsweise zur Terrorbekämp-
fung als Gesichtserkennung eingesetzt
werden, bleibt zu diskutieren, ob eine
Fehlerrate von drei Prozent hinnehmbar
ist. Alpha Go übrigens, jener berühmte
Algorithmus, der 2016 den weltbesten Go-
Spieler besiegte, wurde so trainiert und
benötigte Rechenleistung und Hardware,
die jenseits von Gut und Böse lag. Ohne
zu sehr in die Details zu gehen, sei noch
erwähnt, dass Alpha Go während seines
Spiels permanent eine sogenannte Monte-
Carlo-Simulation ausführte und dabei
quasi gegen sich selbst spielte, um den
besten nächsten Schritt zu finden. Die
Leistung dieser Go-Maschine ist zwar be-
merkenswert, aber was machen wir nun
Sinnvolles damit? Wo sind die wirklich
mehrwertstiftenden Anwendungsfälle
von „Künstliche Neuronale Netze“? Abge-
sehen von „Google translate“ und einigen
Anwendungen in der Bilderkennung sehe
ich leider nur wenige. Bei vielen Firmen
folgt doch recht schnell die Ernüchterung
ob des immensen Betreuungsaufwands.
„Alpha Zero kann es jetzt aber wirklich
alleine“, mögen die Leser nun einwen-
den. Was genau? Lernen, und zwar Go!
Das stimmt nicht so ganz. Genau genom-
men sind die technologischen Kompo-
nenten die gleichen wie beim Vorgänger
Alpha Go, nur in abgespeckter Version.
Es wird ein „Künstliches Neuronales
Netz“ eingesetzt (statt zwei), das aber
genau die zwei Funktionen abdeckt. Si-
muliert wird immer noch zusätzlich und
trainiert wird das Netzwerk auch, näm-
lich dadurch, dass Alpha Zero gegen sich
selbst spielt und so Trainingsdaten pro-
duziert. Diese Variante des maschinellen
Lernens, das sogenannte „Reinforcement
Learning“, ist auf das Errechnen einer op-
timalen Strategie angelegt. Dabei arbeitet
R
Foto: Vera Gerstendorf-Welle
Stephanie Borgert.
In
ihren Vorträgen zeigt
sie, wie schwer
Roboter Muffins von
Hundegesichtern
unterscheiden können.
1...,9,10,11,12,13,14,15,16,17,18 20,21,22,23,24,25,26,27,28,29,...70
Powered by FlippingBook