Triple A steht in diesem Fall für Analytics, Acceptance, Architecture.
Bevor wir diese Formel im Kontext von Inventory Optimization anwenden, soll der Bezug zur Entscheidungsunterstützung im Allgemeinen und den drei A-Komponenten im Besonderen hergeleitet werden.

Bei Advanced und Predictive Analytics richten Software-Hersteller und Data Evangelist häufig den Blick nur in eine Richtung: nach vorne in die Zukunft. Wir beginnen stattdessen mit einem Blick in den Rückspiegel. In den 90er Jahren gab es in der Industrie zwei große Gruppen von erfolgreichen Unternehmen, die sich vereinfacht in „Intuitive Individualisten“ bzw. „Systematische Strategen“ gliedern ließen. Exemplarisch für die erste Gruppe stand eine steuernde und beherrschende Unternehmerpersönlichkeit vor Ort. Die zweite Gruppe operierte eher auf einer technologisierten Managementbasis, die man heute sicherlich als data-driven bezeichnet würde.

Nun drängt sich die Frage auf, wer retrospektiv erfolgreicher war und welche Kenngröße als Beleg heranzuziehen sei. Statt uns in Gütekriterien für geeignete Kennzahlen zu verlieren, halten wir es hier einfach: Erfolgreich ist, wer mehr gute als schlechte Entscheidungen trifft. Einer Untersuchung zufolge wird die Qualität bei Unternehmensentscheidung vor allem durch einen guten Entscheidungsprozess begünstigt. In der Folge lässt sich die Profitabilität des Unternehmens um über 30% erhöhen.

Abbildung 1: DIKW-Pyramide in Entscheidungen

Da die „systematischen Strategen“ bereits früh(er) mit der Schaffung der Datenbasis und eines wirksamen Entscheidungsprozesses begonnen hatten, profitieren sie folglich mehr als andere. Sie verfügen über geeignete Datenhaushalte. Analytics unterstützt beim Aufdecken der Wirkungszusammenhänge und hilft fundierte Entscheidungen zu treffen. Genau diesen datengestützten Entscheidungsprozessen möchten wir in diesem Beitrag nachgehen. Menschen sind nämlich nicht gerade prädestiniert, komplexe Entscheidungen zu treffen, wie es die Theorie von Ihnen verlangt.

Ein Manager müsste demnach alle Handlungsalternativen, die zum Ziel führen, sowie sämtliche in der Zukunft möglicherweise eintretenden Entwicklungen kennen. Dabei müsste er eine exakt definierte, vollständige und konsistente Vorstellung davon haben, nach welchen Kriterien (sog. Präferenzen) er sämtliche zukünftige Situationen bewerten soll, die aufgrund seiner Entscheidungen eintreten können. Hinzu kommt, dass Manager die Entscheidungen nicht nach ihren persönlichen Präferenzen treffen, sondern nach denen ihrer Auftraggeber, also letztlich der Eigentümer des Unternehmens.

Es ist offensichtlich, dass die theoretischen Anforderungen mit der Realität des Entscheidens wenig gemeinsam haben. Niemand kann über den erforderlichen, allumfassenden Informationsstand verfügen. Zudem müsste man mit komplexen Berechnungen ständig den tatsächlichen Entwicklungen hinterher kalkulieren.

Jetzt könnte der Gedanke nahe liegen, dass Maschinen durch den Einsatz analytischer Methoden diese vermeintliche Schwäche menschlichen Entscheidens verbessern, indem Artificial Intelligence (AI) eingesetzt und so kognitive Beschränkungen sowie Verzerrungen überwunden werden. Dieses Vertrauen in die Entscheidungskompetenz von Maschinen ist nicht angebracht. Die Qualität eines entwickelten Algorithmus hängt maßgeblich von einer genauen und umfassenden Vorstellung der Wirkungszusammenhänge möglichst aller Einflussfaktoren ab. Aus diesem Grund sind im Analytics-Kontext Fachbereiche, Prozessexperten und Unternehmensberater ebenso entscheidend wie Data Scientists. In möglichst interdisziplinärer Zusammensetzung bringen sie zu Beginn vielseitige Sichtweisen, individuellen Erfahrungen oder auch Präferenzen der zur Verfügung stehenden Handlungsalternativen ein. Hier kommt das Potenzial menschlicher Intuition und das Erkennen kausaler Veränderungen voll zum Tragen. Optimal ist also ein Zusammenspiel von Menschen und Algorithmen, die sich durch ihre jeweiligen Stärken ergänzen.

Aus den Erfahrungen mit dem Design und der Implementierung von Geschäftslogiken bzw. Planungsfunktionen im Data Warehouse-Kontext wissen wir, wie diese zu etablieren sind, um eine hohe Akzeptanz in Fachbereichen und bei IT bzw. BICC zu erzielen. Dieselben Gütekriterien bieten auch bei Algorithmen im Data Science-Umfeld gute Orientierung. Sind die Prozeduren durch eine Governance qualitätsgesichert und eingebettet in eine robuste und zugleich flexible (bi-modale) Architektur, so ist ein solides Rahmenwerk für Use Cases und Data Science Initiativen und Analytics Projekte geschaffen. Die Abbildung illustriert den Zusammenhang und zugleich die sinnvolle Koexistenz von etablierter (meist on-premise) Enterprise Architecture und neuer (oft cloud-gestützter) Data Science Architecture:

Abbildung 2: Kern und Peripherie

Verproben wir nun die zuvor genannten Aspekte am Anwendungsfall: Analytics für Inventory Optimization

Das Thema Bestandsoptimierung ist aktueller denn je. Die typischen konfliktären Ziele „Kapitalbindung reduzieren“ und „Leerverkäufe durch Sortimentslücken vermeiden“ auszugleichen war in der Vergangenheit schon anspruchsvoll – nun kommt über die Lieferprozesse entlang der Supply Chain zusätzliche Komplexität hinzu. Zwar wurden als erste Reaktion in der Corona-Pandemie Zuliefer-Netzwerke tendenziell nationaler ausgerichtet, dennoch sind Bedarfsspitzen und Lieferengpässe von Vorprodukten einerseits oder Nachfrageeinbrüche andererseits ein existenzgefährdendes Problem. Hier bedarf es eines datengestützten Risikomanagements.

Analytics liefert einen entscheidenden Beitrag, um die verschiedenen Lieferpunkte nicht nur sichtbar zu machen, sondern idealerweise in Echtzeit zu prognostizieren und entsprechend alle Netzwerkteilnehmer zu informieren bzw. ihnen Veränderungen zu avisieren. Analytics bedeutet heutzutage neben der naheliegenden Integration interner, meist strukturierter Daten auch zunehmend unstrukturierte Daten zur Steuerung der logistischen Warenflüsse in die Algorithmen einfließen zu lassen. Machine Learning (ML) hilft bei der Auswertung und Reaktion auf Hindernisse bei Produktion und Zulieferung. Digitalisierungsinitiativen entlang der Wertschöpfungskette vom Rohmaterial bis zum Endkunden ermöglichen nun effektive Analytics Use Cases.

Unternehmen beginnen mit Digitalisierungs- und Analytics-Initiativen typischerweise nicht auf der grünen Wiese, sondern bewegen sich im Spannungsfeld von neuen fachlichen Anforderungen, Investitionsschutz, Offenheit und Sicherheit. Dies lässt sich am besten mit einem hybriden Ansatz bewerkstelligen, der einerseits der bestehenden Architektur Rechnung trägt und anderseits die notwendige Flexibilität und Geschwindigkeit offeriert. Die Cloud spielt dabei eine wichtige Rolle. Hier lassen sich die Liefersysteme der beteiligten Netzwerkpartner am leichtesten vernetzen sowie Informationen zentral und schnell teilen. Die Anforderungen an Supply Chain Resilience bedingen eine entsprechende technische Umgebung.

In dieser Form ist Entscheidungsunterstützung leistungsfähig, transparent und wirksam. Nicht nur die Netzwerkpartner arbeiten zusammen, sondern auch Mensch und Maschine. Ein Ansatz zur Implementierung derartiger Analytics Lösungen geht auf das Konzept des digitalen Zwillings zurück. Hierbei wird die Lieferkette mit den Daten des physischen Warenflusses digital nachempfunden. Auf dieser Basis können Analytics-Anwendungen vorausschauend mögliche Lieferengpässe bzw. Pufferbestände prognostizieren und auch zur übergreifenden Bestandsoptimierung beitragen. Im Kern bietet die Vernetzung mit externen Partnern, Lieferanten und Kunden die beste (Daten)Basis für eine schnelle Reaktion auf sich verändernde Trends und plötzliche Krisensituationen.

Wir empfehlen, mit überschaubaren analytischen Use Cases nach unserem Vorgehensmodell zu beginnen. Erfolgsversprechend sind solche Initiativen, die direkt betriebswirtschaftlichen Nutzen bringen und in der Vergangenheit an Rechenleistung, Komplexität im statistischen Bereich oder schlicht und ergreifend an den Daten gescheitert sind. In „Data Design Sprints for Analytics“ demonstrieren wir gerne diese Möglichkeiten an konkreten Use Cases.

DataDrivenLeaders

Die Community für Data Driven Leaders

Die Community für Data Driven Leaders vernetzt Branchenexperten und hält Sie mit exklusiven Einblicken auf dem Laufenden.

Werden Sie Teil der Data Driven Leaders

Empfohlene Artikel

Innovation

KI verbessert die saisonale Prognose

Potenziale der saisonalen Prognose mit KI stärken Der erste Einsatz der Lösung reduzierte den Sicherheitsbestand für 10 saisonale Produkte …

weiterlesen
MDG

Die Integration von Stammdatenprozessen in Geschäftsprozesse: Bewährte Methoden

Unternehmensrichtlinien und eine dynamische Benutzeroberfläche sorgen dafür, dass die Daten auf Anhieb korrekt eingegeben werden und für die …

weiterlesen
Supply Chain Management

Von S&OP zu IBP: Wie Sie Erfolg haben

In diesem Blogartikel stellen wir fünf zentrale Herausforderungen bei der Umstellung von S&OP zu IBP und fünf Strategien …

weiterlesen

Denken Sie Ihre Value Chain neu mit uns

Kontaktieren Sie uns