Seitdem ich in Pirmasens die Professur habe, arbeite ich daran das Kochrezeptdenken aufzubrechen. Das hat mich schon immer angenervt, wenn sehr Schlaue irgendwelche Methoden über die Realität stülpen. Das gilt ganz besonders für die strategischen Berater!
Statistikvorlesungen sind gefährlich,
natürlich nur konventionelle. Warum?
Beginnen möchte ich mit einem Zitat von Walter Krämer, der an der Uni Dortmund Statistik lehrt [1]:
Beginnen möchte ich mit einem Zitat von Walter Krämer, der an der Uni Dortmund Statistik lehrt [1]:
- Gibt es überhaupt ein Fach Statistik?
- Sind die dort gelehrten Inhalte für die späteren Berufstätigkeiten relevant?
- Sind die dort gelehrten Inhalte für die Anwendungswissenschaften relevant?
Um es gleich vorwegzunehmen: Meine Antwort heißt in allen Fallen ,,Nein“. Kein absolutes Nein, um hier keine Panik auszulösen, aber ein qualifiziertes Nein. Dabei ist die erste Frage gleich die wichtigste, denn hier liegt die Wurzel des ganzen Übels. Nämlich: Wenn wir hier heute von Statistik reden, wovon reden wir da überhaupt? Was meinen wir mit ,,Statistik“. Und meine These ist: Wir reden hier über recht verschiedene Dinge, und eine einheitliche Wissenschaft namens Statistik gibt es nicht.
soweit Krämer. Er führt dann aus, dass Stochastik und Datenanalyse selbstverständlich einander überlappen z.B. in der Meßfehlerproblematik, aber im allgemeinen sind die meisten Meßfehler eben nicht stochastisch. Also stellt sich die Frage, wie vorgehen die zahlreichen Standardannahmen der mathematischen Statistik versagen?
Krämer: "Halten wir also fest: Die datenanalytische Seite des Modell- und Methodenkontinuums namens ,,Statistik“ ist für die spätere Berufspraxis wie für die meisten Anwendungswissenschaften gleichermaßen wichtig, bleibt aber in vielen Ausbildungsgängen etwas unterbelichtet."
Das sehe ich genau so: Tolle Statistikvorlesungen, alle möglichen Verteilungsfunktionen, tolle Beweise und was weiß Gott noch, dann eine Klausur; was auch immer gelernt wird, in Praxis hat´s kaum einen Nutzen. Und wenn, dann wird vieles, wie z.B. Signifikanztest, nicht richtig verstanden. Die Corona-Pandemie hat ja gezeigt, studierte Ärzte mit Physikum können mit Statistik nicht umgehen. Wenn ich auch die die Trennlinie anders als Krämer ziehen würde;
Rätsel der Auftragsdurchlaufzeiten zum Kunden berechnet aus Buchungsdaten zweier Geschäftsjahre (Export direkt aus SAP ohne Vorverarbeitung!) |
Kommen wir zu Sache:
Wie oft habe ich in diversen Projekten Auskünfte bekommen wie: Die Durchlaufzeit sind im Schnitt 7 Tage, aber das variiert. Aha, wie variiert das? Nun, die Kunden warten 100 Tage auf ihr Material. Wie denn das? Wissen die, was sie tun?
Induktive Statisik
Bleiben wir bei diesem Beispiel. Das wird da getrieben? Finden wir also mal raus, was die da machen.
Das Unternehmen ist ISO-9000ff [2] zertifiziert und produziert Vormaterial auf Lager (make-to-stock). Wenn Kundenaufträge eingehen wird das Produkt hergestellt (make-to-order). Das dauert 7 Tage mit Verwaltung, Versand usw. meinetwegen 3 Wochen aber keinesfalls 3 Monate.
Ausgangspunkt waren alle Buchungen im Fertigwarenlager. Die Wareneingänge (Bewegungsart 101) und die Warenausgänge (Bewegungsart 601) sehen für Menschen vollkommen zufällig aus. Aber das sind sie mitnichten.
Die zeitliche Korrelation der Wareneingänge nach Bewegungsarten zeigt, daß die Produktion zyklisch geplant wird. In der Praxis heißt alle 6 Wochen werden in der Produktion die gleichen Produktgruppen aufgelegt. Dann wird eine feste Menge Vormaterial verarbeitet und kommen ins Fertigwarenlager, das war´s.
Kundenwünsche haben kaum Einfluß - kein make-to-order. Damit ist die Hypothese des Managements, widerlegt; Audit hin oder her. Die Produktion macht einfach was sie denkt.
Induktive Statistik [4]: "Die induktive Statistik wird [...] auch als Hypothesen-testende, schließende oder Inferenz-Statistik bezeichnet. Die Gültigkeit zuvor formulierter Hypothesen wird unter Vorgabe einer Fehlerwahrscheinlichkeit überprüft und entweder bestätigt oder widerlegt. [...]"
Der Kniff ist dabei, dass die Daten erst erforscht werden müssen, um die die richtige Prüfmethode zu entdecken. Dazu wird die explorative Statistik eingesetzt.
Explorative Statistik
Perret definiert [4]: "Die explorative Statistik wird auch als Hypothesen generierende oder analytische Statistik bezeichnet. Ihr Ziel besteht darin zur Untersuchung des Datenmaterials neue Erkenntnisse zu generieren und Vermutungen/Hypothesen über die Natur der zugrunde liegenden Daten herzuleiten. Gerade in den letzten Jahren hat sich vermehrt der Begriff des Data Minings für die Methoden der explorativen Statistik durchgesetzt [...]."
Ah, wenn ich gewußt hätte, dass ich seit 30 Jahren Data Mining betreibe. Zurück zum Fall.
Grundsätzlich wäre zyklische Produktionsplanung nicht problematisch, wenn einfach das Richtige im Fertigwarenlager liegt. Das freut dann auch den Kunden, weil ab Lager ja so schön schnell geht. Warum dann hier nicht?
Also schauen wird uns mal die Gene der Wareneingänge im Vergleich zu den Warenausgängen an. Und in der Tat, die Kunden bekommen alle möglichen Mengen. Aber es gibt offensichtlich beliebte Mengen: 1t, 500kg, 200kg, 100kg, 60kg, 50kg, 40kg, 30kg, 20kg, 10kg, 5kg, 3kg, 2kg, 1kg - da ist es naheliegend Modulgrößen einzuführen und die dann zu verkaufen.
Aber das wollte der Vertrieb nicht (s.o. Königkunde). Gut, dann ist das eben so. Aber dann ist auch klar warum ein riesiges Pappenlager betrieben wird. Muss eben alles individuell gepackt werden. Wenn die Kunden Konsumenten wären, dann könnte ich das nachvollziehen. Aber wir befinden uns im industriellen Umfeld.
Darstellung aller Warenein- und -ausgänge aus Einzelbuchungen im SAP zeigt fraktalähnliche Strukturen von klein bis groß. |
Beim genaueren hinsehen ist klar, die Produktion liefert andere Mengen als die Kunden bekommen. Könnte da die Ursache liegen? Wie ist den die Statistik hinter der Produktion und den Lieferungen an die Kunden?
Deskriptive Statistik
ist die Statik, die in unzähligen Vorlesungen, Büchern etc. gelehrt wird. Die Bedeutung schätze ich wie bei Mathe ein - bringt für die Praxis wenig, kann man gut lehren und einfach in Klausuren prüfen, als Fachmann erwartet man, dass jeder Statistik-Vorlesungen gehört hat.
"Ihrem Namen folgend handelt es sich bei der deskriptiven Statistik um beschreibende Statistik. Eigenschaften des zugrunde liegenden Datensatzes sollen herausgearbeitet werden. Dies gelingt primär durch Untersuchung der Lage- und Streuungsmaße bzw. der zugrunde liegenden Verteilung." [4]
Obwohl die Produktion an das Fertigwarenlager im Schnitt das liefert, was auch an die Kunden rausgeht, haben wir aus den Daten folgendes rekonstruiert:
- Die Produktion erreicht eine fast symmetrische Verteilung mit leichter Überproduktion. Aus technischen Gründen streut die Produktion.
- Das Lager gleicht die Streuung aus und liefert deutlich exakter. Auch hier gibt es eine Streuung, die mit den Kunden ± 10% vereinbart sind. Allerdings ist die Verschiebung zu größeren Werten wesentlich ausgeprägter; verständlich denn mehr liefern bedeutet mehr Umsatz.
- Die Differenz zwischen Wareneingängen aus der Produktion und Warenausgängen zum Kunden bleibt im Fertigwarenlager liegen!
Wir haben dann das Lager restrukturiert, alle Puffer in der Produktion ins neue Warehousemanagement aufgenommen und für die Produkte Serialisierung implementiert. Dadurch wurde die Transparenz erhöht, was die Produktion besser kontrollierbar machte und die Verfügbarkeit in Richtung Kunden massiv verbesserte.
Resümee: Was lernen wir daraus?
"You also want to be able to visualize the data, communicate the data, and utilize it effectively. But I do think those skills—of being able to access, understand, and communicate the insights you get from data analysis—are going to be extremely important." [4]
Es ist fast immer anders, als sich das so einige im Unternehmen denken. Die kondensierten Zahlen aus dem ERP sagen (fast) nichts über die realen Prozesse. Es kommt auf alle Details an, um die Spuren mit explorativer, induktiver und deskriptiver Statistik zu lesen. Wie man an die Daten kommt, das ist die Frage, geht immer was, ist aber oft frustrierend; ein sehr trauriges Kapitel.
Schließen möchte ich mit Krämer "Durch die Betonung klassischer Schätz- und Testverfahren, die zudem auch oft noch falsch verstanden werden, und durch die Kanalisierung von Lehr- und Forschungsaufwand in deren Effizienzverbesserung hat sich die konventionelle [...] gelehrte Statistik von den Bedürfnissen der Anwender zusehends entfernt. Parallel dazu findet eine Vernachlässigung vieler für viele Anwendungswissenschaften wichtiger Verfahren der Datenerhebung und -aufbereitung statt [...]."
Also kommt in meinen Kurs logistische Datenanalyse, lernt richtig Excel, Training ist alles.
Weitere Hinweise
Alle Grafiken sind anonymisierte Originale aus dem Projekt, die wir beim Kunden präsentiert haben. Gerne habe ich den Wunsch "Herr Wölker, machen Sie doch nicht immer Grafiken mit so vielen Punkten." ignoriert. Stimmt das ist nicht management- und kindergeeignet; ich bin Physiker und die Welt ist eben kompliziert. Außerdem, was gibt es Schön´res als der Wahrheit auf die Spur zu kommen?
Perret: Aufgaben/Theorie |
Perret: Excel |
Zum Thema Datenbasis für Logistikprojekte sei mir der Hinweis auf meine Dissertation in 2000 und die Arbeiten am Konzepet AnaLoS, das während meiner Zeit am FLW in Dortmund in den 90ern des letzten Jahrhunderts entstand, gestattet.
Ausgangspunkt meines Analyse und Beratungskonzeptes sind immer operative Buchungsdaten auf Feldebene ohne Vorverarbeitung. Daraus kann die Logistik eines Unternehmens immer rekonstruiert werden, ohne dass irgendwer mit welcher Motivation auch immer daran rummanipuliert hat. In der Regel versteht der Logistiker am besten, wie die Zusammenhänge im Unternehmen sind. Ab dem 3. Teil kannst Du das im Excel-Kurs lernen.
Quellen
- Krämer W (2008), "Verhindert die Statistikausbildung den Fortschrittder Wirtschafts- und Sozialwissenschaften?", Wirt Sozialstat Archiv., June, 2008. (2), pp. 41-50. [BibTeX] [DOI]
- Seite „Qualitätsmanagementnorm“. In: Wikipedia – Die freie Enzyklopädie. Bearbeitungsstand: 11. Januar 2022, 09:14 UTC. URL: https://de.wikipedia.org/w/index.php?title=Qualit%C3%A4tsmanagementnorm&oldid=219050963 (Abgerufen: 9. März 2022, 17:52 UTC)
- Seite „Autokorrelation“. In: Wikipedia – Die freie Enzyklopädie. Bearbeitungsstand: 3. November 2021, 11:44 UTC. URL: https://de.wikipedia.org/w/index.php?title=Autokorrelation&oldid=216930801 (Abgerufen: 8. März 2022, 16:01 UTC)
- Manyika J and Varian H (2009), "Hal Varian on how the Web challenges managers", Transskript. State of New York, USA, January, 2009. [BibTeX] [URL]
- Perret JK (2019), "Arbeitsbuch zur Statistik für Wirtschafts- und Sozialwissenschaftler - Theorie, Aufgaben und Lösungen" Wiesbaden Springer Gabler. [BibTeX] [DOI]
- Fotos von pxhere Links-Bestellen, Mitte-Produktion, Rechts-Genervt, Forscher und Gene
Update vom 10.03.2022
Quellen ergänzt, weitere Resümee und Hinweise geschrieben, kleine Korrekturen,
Kommentare
Kommentar veröffentlichen