Die voranschreitende Digitalisierung, steigender Wettbewerbsdruck und Disruptionen verschiedener Art wirken als Beschleuniger der digitalen Transformation. Unternehmen sehen sich einem steigenden Druck konfrontiert, Veränderungen immer mehr und immer schneller umzusetzen. Was früher sinnvoll war, stellt zunehmend einen limitierenden Faktor dar: zentralisierte Datenarchitekturen, die auf Unternehmen mit eher traditionellen Geschäftsmodellen ausgerichtet sind, können mit den dynamischen und fachlich spezifischen Anforderungen der dezentralen Business Domänen nicht mehr Schritt halten.

Woher kommt diese Entwicklung? Der Vergleich von traditionellen und digitalen Geschäftsmodellen gibt dazu Aufschluss.

Datenarchitektur in traditionellen and digitalen Business-Modellen

Digitale Geschäftsmodelle basieren auf der Fähigkeit, aus Rohdaten werthaltige Datenprodukte zu erzeugen.

  • Die zu Grunde liegenden Betriebsmodelle (Organisation, Wertschöpfung/Prozesse, IT) sind speziell auf diese Fähigkeiten hin ausgerichtet.
  • IT und Datenarchitekturen der zugrunde liegenden Applikationssysteme, die nach Architekturmustern wie Domain Driven Design (DDD) oder Microservices entwickelt wurden, sind ein inhärenter Bestandteil für das Managen von Daten in Domänen.
  • Verantwortung ist dezentralisiert und orientiert sich am Domain Ownership von Daten.

Daten und Analysefähigkeiten sind hier der primäre Bestandteil der Value Chain.

Traditionelle Geschäftsmodelle beispielsweise produzierender Unternehmen sind dagegen auf physische Produkte oder Dienstleistungen ausgerichtet.

  • Die Betriebsmodelle orientieren sich an Prozesseffizienz und Kostenoptimierung. Die Wertschöpfungsprozesse werden durch darauf optimierte Stamm- und Transaktionsdaten digital abgebildet.
  • Die dazu entwickelten Applikationen wie ERP-Systeme und zugehörigen Datenmodelle sind domänenübergreifend (Vertrieb, Produktion, Finance etc.) hochintegrativ und auf Abwicklung von operativen Transaktionen getrimmt – das sogenannte Online Transaction Processing (OLTP).
  • Standardsoftware unterstützt Prozess- und Kosteneffizienz, geht aber nicht auf die differenzierenden Aspekte des Unternehmens ein, die einen Wettbewerbsvorteil darstellen und durch ergänzende Lösungen adressiert werden müssen.
  • Die Analyse dieser operativen Transaktionsdaten und die Generierung von Erkenntnissen erfordert umfangreiche Datenabfragen und Manipulation sowie Anreicherung der Daten. Dies ist in den OLTP nur eingeschränkt möglich, wodurch die Analytische Ebene (OLAP) entstand.

Daten und IT sind dabei ein Mittel zum Zweck und damit sekundärer Bestandteil der Value Chain. Sie wurden in der IT als Unterstützungsprozess zentral organisiert und damit als Kostenfaktor betrachtet.

Data als Teil der Value Chain: Herausforderungen der Transformation

Die zunehmende Notwendigkeit zur digitalen Transformation von Prozessen und die daraus resultierenden Datenmengen stellen für diese Unternehmen einerseits eine Chance dar, ihre Geschäftsmodelle zu transformieren und Daten als primären Bestandteil ihrer Value Chain zu begreifen. Daten können sodann zu Datenprodukten weiterverarbeitet werden, die nicht nur im Unternehmen selbst, sondern auch im Ökosystem Wert erzeugen können, wenn sie geteilt werden. Andererseits stellt diese Transformation Unternehmen mit traditionellen Geschäftsmodellen vor Herausforderungen, die sie überwinden müssen. Wir gehen auf einige Herausforderungen ein.

Herausforderung: Fehlende Data Governance

Fehlende Data Governance und zugehörige Standards sorgen dafür, dass Veränderungen in funktionalen Bereichen umgesetzt werden, ohne dass es übergeordnete Vereinheitlichungen bzw. Synchronisationen gibt.

Gründe: Organisch gewachsene Strukturen sind auf funktionale Spezialisierung zurückzuführen. Als Beispiel ist der Aufbau von Unternehmen in Abteilungen zu nennen. Diese nutzen jeweils eigene Tools und Standards für ihren Bereich. Dies sorgt dafür, dass funktionale Silos entstehen, der Austausch mit anderen schwerer umzusetzen ist und es keine übergeordnete Einheit zum Vereinheitlichen des Umgangs mit Daten gibt. All dies führt zu einer mangelnden Transparenz.

Lösung:  Eine zentral definierte Datenarchitektur Governance mit Metadaten-Management unterstützt und erleichtert den funktionsübergreifenden Austausch und das Verständnis von Daten. Das steigert die domänenübergreifende Interoperabilität.

Herausforderung: Flaschenhals durch zentralisiertes Datenmanagement

Zentralisiertes Datenmanagement auf Basis von Data Warehouses (und Data Lakes) sorgen für einen Flaschenhals bei der Bedienung von Business Use Cases.

Gründe: Der ursprüngliche Bedarf unternehmensweiter Datenanalysen machte es erforderlich, die Daten aus den operativen Systemen der Business-Domänen in einer Analyse-Ebene (OLAP) zu konsolidieren. Die Verwaltung der OLAP-Ebene erfolgt zentral durch Datenspezialisten, was bedeutet, dass Business User ohne die nötigen Fähigkeiten nicht auf Daten zugreifen oder eigene spezifische Analyse-Datenmodelle erstellen können. Sie sind auf ein Ticketing-System angewiesen, in denen die Datenexperten die Anliegen der Business User nach und nach abarbeiten. Aufgrund der wenigen verfügbaren Experten für das Management der Daten im Data Warehouse kommt es schlussendlich zu einem Flaschenhals in der Bedienung des Business. Diese strikte Trennung zwischen Datenlieferung und Datennutzung sorgt zudem dafür, dass bei den Datenexperten kein Verständnis für die Nutzung der Daten im Business vorhanden ist. Somit erfüllen auch oftmals gelieferte Daten nicht den Zweck, für den sie bestimmt sind.

Lösung: Das dezentrale Management von Datenprodukten direkt in den Business-Domänen unter Berücksichtigung zentraler Vorgaben ermöglicht es, den zentralen Flaschenhals zu eliminieren und bringt die Datenexperten näher an das Business heran. Sie gewinnen das nötige Verständnis für die Einsatzzwecke der Datenprodukte, die sie liefern.

Herausforderung: Trennung zwischen operativer und analytischer Ebene

Die Trennung der operativen und analytischen Ebene, sowohl technologisch als auch organisatorisch, führt dazu, dass die operativen Business-Experten ihr Knowhow nicht effektiv in die Erstellung von Analytics-Anwendungen und Daten-Produkten einbringen können. So bleibt viel Potenzial ungenutzt.

Gründe: Transaktionale Systeme (OLTP) sind nur bedingt performant und nicht flexibel genug, um umfangreiche und komplexe Datenanalysen und -aufbereitungen durchzuführen.

Diese Funktionen wurden in die analytische Ebene (OLAP) als zentrale Data Warehouses bzw. Data Lakes ausgelagert und zentral verwaltet. Somit ist sie vom direkten Einflussbereich der Business Domäne getrennt.

Lösung: Um Operative und analytische Ebene miteinander zu verweben, sollten Datenmanagementfähigkeiten in die Domains gegeben werden, die sich durch eine cross-funktionale Zusammenstellung der Mitarbeiter auszeichnen. Domänen haben die Aufgabe, Datenprodukte zu erstellen und diese interoperabel zu gestalten. Dadurch wird die Grundlage für ein Datengewebe gebildet, das sich aus operativen/transaktionalen Daten und analytischen Datenprodukten speist. Das Ziel ist ein bidirektionaler Fluss von Datenprodukten zwischen beiden Ebenen. Diese Datenarchitektur zeigt sich beispielsweise in Form von Data-Fabric- oder Data-Mesh-Konzepten.

Herausforderung: Verhinderte Datendemokratisierung

Zentralisierte monolithische Datenarchitekturen verhindern eine Datendemokratisierung, die Grundlage dafür ist, dass Business User mit Daten arbeiten können.

Gründe: Zentralisierte monolithische Datenarchitekturen sorgen für Flaschenhälse, da sie Daten nur durch wenige vorgegebene Punkte fließen lassen. Dies verhindert den freien Fluss von Daten dorthin, wo sie wertbringend eingesetzt werden können. Zudem ist dadurch die Datenkommunikation zwischen verschiedenen Knotenpunkten in einer Datenarchitektur limitiert.

Lösung: Förderale Datenarchitekturen ermöglichen den dezentralen Fluss von Daten und dadurch Datendemokratisierung. Der Zugriff auf Daten ist dann nicht nur über die skalierte Technologie möglich, sondern über die Domains, die die Anbindung von Daten bspw. über API anbieten.

Herausforderung: Einschränkung bei Daten-Transformationen

Data Warehouses lassen nur vorbestimmte Daten-Transformationen zu – insbesondere ETL.

Gründe: Für die skalierten monolithischen Data Warehouses war es noch sinnvoll, dass Daten-Transformationen auch innerhalb dieser Lösung stattfinden und für weitergehende Zwecke nur noch geladen werden müssen. Anschließend geschieht der Zugriff über Business-Software auf die Daten, um diese beispielsweise zu visualisieren.

Lösung: Business User kennen den Use Case für die Daten am besten und sollten in die Lage versetzt werden, selbst entscheiden zu können, ob und welche Transformationen auf den Daten durchgeführt werden sollten. Zudem erleichtern neue Low-Code- und No-Code Softwarelösungen es Business Usern, Transformationen von Daten durchzuführen – und das sogar auf ansprechenden User Interfaces.

Herausforderung: Lead-Time von Data-to-Insight zu lang

Lange Bearbeitungszeiten für neue Business Use Cases machen es umständlich, zeitnah Erkenntnisse aus Daten zu generieren.

Gründe: Aufgrund mangelnder Datendemokratisierung und vorhandener monolithischer Strukturen können Datentransformationen nur durch die Datenexperten durchgeführt werden. Bei hoher Nachfrage nach Daten für Business Use Cases kommt es zu einem Auflaufen an Anfragen, da Datenexperten Mangelware sind. Der hohe zeitliche Aufwand für Daten ergibt sich aus der benötigten Zeit für das Auffinden, Bereinigen und Bereitstellen der Daten.

Lösung: Self-service Datenlösungen ermöglichen direkten Zugriff auf Daten für analytische Zwecke. Business User sind nicht mehr darauf angewiesen, benötigte Data bei Datenexperten anzufragen. Sie können somit schneller Wertschöpfung aus Daten für Analysen realisieren.

Datenarchitektur-Management: Grundlage schaffen für neue Datenprodukte

Diese ausgewählten Herausforderungen zeigen, warum ein effektives Datenarchitektur-Management neben der voranschreitenden Digitalisierung von Business Prozessen kein Selbstläufer ist. Es muss proaktiv und ganzheitlich angegangen werden. Unternehmen sollten sich einen verlässlichen Partner für ihre Transformation auswählen, der sie auf ihrer digitalen Journey begleitet.

Unternehmen sollten eine einheitliche Data Governance gestalten, Datenmanagement auf Basis von Business Domains dezentralisieren, die operative und analytische Ebene miteinander verweben, Daten demokratisieren, Business User mit geeigneten Fähigkeiten und Tools für den Umgang mit Daten ausstatten und Self-Service Lösungen implementieren. Um Erkenntnisse aus Informationen gewinnen zu können, müssen Daten nicht nur als Nebenprodukte von Prozessen und Aktivitäten gesehen werden, sondern als Rohstoff zur Schaffung neuer Datenprodukte.

Moderne Datenarchitekturen bringen Struktur in die digitale Transformation von Unternehmen. Wie genau sich Datenarchitekturen auszeichnen, betrachten wir in einem folgenden Blog-Post.

Wir danken Stefan Morgenweck für seinen wertvollen Beitrag zu diesem Artikel.

DataDrivenLeaders

Die Community für Data Driven Leaders

Die Community für Data Driven Leaders vernetzt Branchenexperten und hält Sie mit exklusiven Einblicken auf dem Laufenden.

Werden Sie Teil der Data Driven Leaders

Empfohlene Artikel

Data & Analytics

Teamtopologien: Ein Game-Changer für Ihre Data Governance Organisation

In diesem Artikel werden Sie herausfinden, wie Teamtopologien Ihre Datenorganisation revolutionieren können.

weiterlesen
CRM

SAP Field Service Management als Enabler eines E2E-Services

Im Service Außendienst treten viele Herausforderungen gleichzeitig auf. Dabei muss das Zusammenspiel zwischen dem Serviceinnendienst und den Außendienstmitarbeitern stets …

weiterlesen
Data & Analytics

Mythos DSGVO – wie man den strengen Datenschutz konkret umsetzt

Heute findet sich das Thema „Daten“ auf jeder Managementagenda. Das Datenvolumen ist exponentiell gestiegen und Daten sind einer der wichtigsten Rohstoffe …

weiterlesen

Denken Sie Ihre Value Chain neu mit uns

Kontaktieren Sie uns