wirtschaft und weiterbildung 9/2019
wirtschaft + weiterbildung 09_2019 49 Prognosen sind das Schwierigste, vor allem, wenn sie die Zukunft betreffen. Wenn ich so etwas mache, muss ich eine Studie durchführen, um herauszufinden, ob meine Vorhersageregel tatsächlich richtige Prognosen garantiert. Kündigt der wirklich? Und ist das nicht vielleicht ein ganz normales Geschehen und ich hätte auch genauso gut einen Würfel werfen können. Dafür brauche ich Gütekriterien, was jedoch fast nie gemacht wird. Das ist ja auch die Hauptkritik bei der Testbe- wertung der Sprachanalyse „Precire“, die vor kurzem vom Testkuratorium quasi für unbrauchbar erklärt wurde. Das Ganze ist schlecht dokumentiert, die Kriterien sind nicht offengelegt und man weiß eigentlich gar nicht, was da passiert. Und der Rest ist Behauptung. Um Persönlichkeit zu bestimmen, muss ich erst einmal wissen, wie ich sie definiere. Und dann muss ich prüfen, ob meine Ziele mit dem Verfah- ren überhaupt erreicht werden. Wenn ich zum Beispiel diejenigen ausschalten will, die zum Diebstahl neigen, stimmt dann meine Prognose? Stehlen diese Menschen wirklich mehr? Dafür gibt es eine ausge- feilte Methodik, um das zu überprüfen. Aber viele Start-ups machen sich nicht einmal die Mühe und meist sind die auch gar nicht dafür ausgebildet, methodisch sauber den Nachweis zu erbringen, dass ihr Verfahren funktioniert. Aber das sollte eigentlich ihre Pflicht sein wie bei jedem Arzneimittelhersteller. Der muss auch den Beweis erbringen, dass sein Mittel einen Nutzen bringt und höchstens einen begrenzten Schaden. Wie würde so ein sauberer Nachweis aussehen? Antes: Ich muss erstens das Ziel definie- ren: Was will ich eigentlich? Das fehlt zum großen Teil oder es ist so schwam- mig formuliert, dass man danach eigent- lich immer recht hat. Wenn ich das Ziel habe, brauche ich Kriterien, um zu be- urteilen, wie gut das Ziel erreicht wurde. Dafür wurde in den letzten Jahrzehnten eine Fülle von Methoden entwickelt und angewendet. Das ist während des gegen- wärtigen Hypes alles über Bord gekippt worden. Mit der Versprechung, mit genug Daten bräuchte ich diese Anstrengungen nicht mehr – das wird aber auch nicht so deutlich gesagt, sonst würde klar, dass es absurd ist –, ich bräuchte nur möglichst viele Daten und das erledige sich quasi von allein. Das ist blanker Unfug. Gerade in der Medizin setzt man bei der Diagnose stark auf Big Data, weil Computer angeblich besser und schneller sind. Antes: Auch hier fehlt mir der Qualitäts- begriff. Es gibt keine Beweise, dass Big Data besser ist. Ein besonders schockie- rendes Beispiel ist IBM mit seinem Su- percomputer Watson. IBM behauptete im Jahr 2011, dass Watson dank künstlicher Intelligenz die Krebstherapie revolutionie- ren werde. Das renommierte Krebszent- rum MD Anderson der University Texas investierte über 60 Millionen Dollar für den Einsatz von Watson und brach das Experiment nach 2017 nach drei Jahren ab, weil sie gemerkt haben, dass die Be- handlungsempfehlungen der Maschine einfach schlecht sind. Als eine der letzten Institutionen in Deutschland ist Watson auch bei den Rhönkliniken rausgeflogen. Der CEO sagte gegenüber dem „Spiegel“: „Ich dachte mir: Wenn wir da weiterma- chen, investieren wir in eine Las-Vegas- Show.“ IBMs Vorgehen war vor allem marketinggetrieben. In der Wissenschaft gibt es derzeit ein großes Problem mit der Reproduzierbarkeit von wissenschaftli- chen Studien. Hilft da Big Data? Antes: Auch das ist wieder so ein Ta- schenspielertrick. Big Data kann Ana- lysen nicht reproduzieren, weil sich die reale Welt und damit die Daten ständig ändern und vor allem das Volumen ra- sant zunimmt. Damit wird das Problem der Reproduzierbarkeit quasi ausgeschal- tet. Man braucht sie nicht mehr. Aber so renne ich in alle bekannten Fallen wie zum Beispiel die unechten Korrelationen, die sich gerade bei anderen Daten nicht reproduzieren lassen. Die zeigen mir dann, dass heute etwas zusammenhängt, morgen aber nicht mehr. Leider schwei- gen die Methodiker dazu, statt einmal klarzustellen, dass Big Data dieses Prob- lem nicht lösen wird. Wie konnte es überhaupt dazu kommen, dass man jetzt plötzlich alle wissenschaftlichen Grundregeln über Bord schmeißt? Antes: Da gibt es für mich drei Trieb- kräfte: erstens grenzenlose Naivität. Das beträfe dann die Leute, die die Zukunft als Datenparadies beschreiben, aber selbst noch nie Daten in die Hand genom- men oder ein Computerprogramm ge- schrieben haben; zweitens eine unglaub- liche Inkompetenz, mit der man sich die Ignoranz gegenüber der Fehlinterpreta- tion von Korrelationen erklären muss, obwohl diese Zusammenhänge schon für Anfänger gelehrt werden; und drit- tens massivste Interessenkonflikte. Das trifft auch gerade in der Wissenschaft zu. Obwohl viele wissen oder wissen müss- ten, dass vieles ohne jedes theoretische Fundament ist und so nicht funktionieren kann, schweigen sie, weil sie sich nicht selbst von ihren Drittmittelströmen ab- koppeln wollen. Wie ist Ihre Prognose? Wird sich der Hype wieder legen und bald wieder mehr Wert auf Rationalität gelegt werden? Antes: Die Antwort ist sehr zynisch. Wir brauchen eine Katastrophe und eigentlich haben wir die schon. Die Abstürze der beiden Boeing 737 Max sind das beste Beispiel. Da wurde dem Menschen die Entscheidungsfindung abgenommen. In der Medizin gab es den größten Schub für Qualitätsstandards nach dem Conter- gan-Skandal. Manchmal geht das ganz schnell. In Arizona hat der Gouverneur einen Tag nach einem tödlichen Unfall mit einem selbstfahrenden Auto diesen Fahrzeugen die Nutzung der Straßen ver- boten. Bei den Firmen ist die Frage, wie schnell sie begreifen, dass sie mit den KI- Verfahren vielleicht doch das schlechtere Personal auswählen – so wie es mit Wat- son in Houston passiert ist. Interview: Bärbel Schwertfeger „Es gibt keine Beweise, dass Big Data (zum Beispiel bei medizinischen Diagnosen) besser ist.“
Made with FlippingBook
RkJQdWJsaXNoZXIy Mjc4MQ==