Künstliche Intelligenz 11 mir geraten, die „Shortest Processing Time Rule“ anzuwenden. Allerdings war ChatGPT nicht in der Lage, die vier Aktivitäten entsprechend zu sortieren. Was also ein Kindergartenkind geschafft hätte, da ist es auf die Schnauze gefallen. ChatGPT hat keine Vorstellung. Da ist ja nichts drin, das überhaupt sagt, was Verweilzeiten, Distanzen oder Kapazitäten sind. Das ist ein neuronales Netz, das nur auf Vorhersagen beruht, welches Wort als nächstes kommen könnte. Ist es also kein lernendes System, das aus den eigenen Fehlern lernen kann? ChatGPT hat keinen eingebauten Algorithmus. Deshalb weiß man nie, ob das System nicht einen totalen Bock schießt. Diese Fehleranfälligkeit macht ChatGPT nicht gerade zu einem verkonnte das System identifizieren, wo der Engpass liegt. Ich war wirklich begeistert, wie ChatGPT das richtig durchrechnet und sauber formuliert. Ich habe die KI zudem gefragt, was die zeitsparendste Reiseroute für verschiedene Orte wäre, an denen ich einen Vortrag halten muss. Auch bei der Routenplanung lieferte die KI saubere Ergebnisse. Aber es gibt auch Fragen, da ist das System total überfordert und produziert Blödsinn … Ja, genau! Erstes Beispiel: Es gibt im Operations Management die „Shortest Processing Time Rule“. Dabei geht es darum, bei mehreren Aktivitäten, die alle gleich wichtig sind, die kürzeste als erstes zu erledigen. Ich habe ChatGPT vier Aktivitäten und die Dauer jeder Aktivität genannt und das System hat Christian Terwiesch forscht und lehrt an der Wharton School der University of Pennsylvania. Er hat ChatGPT klassische Prüfungsfragen aus seinem Fach Operations Management gestellt und einige Überraschungen erlebt.
RkJQdWJsaXNoZXIy Mjc4MQ==