Archiv für die Kategorie Data Warehouse

Data Mesh als soziotechnischer Ansatz zur Erstellung einer dezentralen Datenarchitektur

Erstellt am: Mittwoch, 20. März 2024 von chaydl

An die Datenauswertung im Unternehmen werden heute immer größere Anforderungen gestellt. Das zentral angesiedelte BI Competence Center, das bislang die Entwicklung und das Datenmanagement rund um ein Data Warehouse erledigt hat, kommt damit aber immer mehr an seine Grenzen. Das Prinzip des Data Mesh bietet hier einen passenden Lösungsansatz.

Data Mesh macht Analytics agiler

Data Mesh stellt die Daten als Wertschöpfungsfaktor in den Mittelpunkt der Architekturkonzeption. Daten sollen als „Datenprodukte“ prozess- und systemübergreifend im Unternehmen zur Verfügung gestellt werden.

Die Grundidee besteht darin, Daten als Asset für die Organisation zu begreifen und Business Usern hochwertige Datenprodukte für ihre Zwecke zugänglich zu machen, damit sie diese optimal nutzen können. Diesen Ansatz verfolgt auch die Self-Service BI bereits seit Jahren.

Neu ist bei Data Mesh allerdings die konsequente Delegation der Verantwortung und Kompetenzen in die dezentrale Organisation:

  • Entwicklungsteams erhalten die Verantwortung für die Entwicklung und den Betrieb von Datenprodukten ihrer fachlichen Domäne.
  • Die Verlagerung in fachlich geschnittenen Domänenteams löst das Engpass-Problem eines einzelnen zentralen Analytic-Teams.
  • Zugleich vervielfacht sie die Entwicklungsressourcen, erhöht damit das mögliche Umsetzungstempo neuer Use Cases und gewährleistet darüber hinaus die geforderte fachliche Expertise in der jeweiligen Domäne.

Die Dateninfrastruktur für die Domänenteams wird in Form einer Datenplattform nach dem Self-Service-Gedanken bereitgestellt. Im Gegensatz zur klassischen Data-Warehouse-Architektur mit zentralisierten Datenströmen handelt es sich hier um eine domänenorientierte dezentrale Architektur für analytische Daten.

Die Definition von Data Mesh zielt eher auf die Governance und Organisation des datengetriebenen Unternehmens ab als auf technologische Aspekte. Es gibt aber eine Kernarchitektur, die sich zur Umsetzung von Data Mesh besonders eignet, das Data Lakehouse.

Data Lakehouse unterstützt Data Mesh

Das Data Lakehouse unterstützt die dezentrale Arbeit mit Datenprodukten. Durch die Trennung von Storage und Computing bietet es eine hohe Flexibilität zur Einrichtung verschiedener Domänen mit jeweils eigenen Datenprodukten auf einem gemeinsamen Datenlayer. Ein heterogener Technologie-Stack greift dabei über Open Table Format auf Daten aus verschiedenen Quellen zu und bereitet sie für Use Cases wie BI, ML, Data Science oder Data Engineering in diversen Domänen auf.

Unter Berücksichtigung einer stringenten Access Control lassen sich die Datenquellen auf diese Weise verschiedenen Teams für ihre Auswertungen zugänglich machen. Datensilos werden vermieden und domänenübergreifende Datenabfragen unterstützt. Das verteilte Computing ermöglicht es zudem, unvorhergesehene Lastspitzen aus anderen Domänen abzufangen.

Reifegrad der dezentralen Governance als Erfolgsfaktor

Gemäß Definition basiert Data Mesh auf den vier Grundprinzipien Domain Ownership, Data Products, Self-Service und Federated Governance. Die verteilte Governance ist dabei der wesentliche Erfolgsfaktor für die Etablierung von Data Mesh. Im Rahmen der Governance legen die beteiligten Teams gemeinsame Standards und Regeln fest, um ihre Zusammenarbeit, die Harmonisierung der Daten und Sicherheitsanforderungen zu gewährleisten.

Aufgaben wie das Qualitätsmanagement und die Klassifikation von Daten, Security, Schnittstellen-Verwaltung oder die Definition und Verwaltung von Datenprodukten sind über die gesamte Organisation verteilt. Die Verantwortlichkeiten müssen hier klar geregelt sein.

QUNIS hat dafür ein dezidiertes Rollenmodell entwickelt, das sich seit Jahren in Data & Analytics-Projekten bewährt.

  • Das Rollenmodell legt unter anderem das Ownership für Domänen, Datenprodukte oder Datenobjekte wie „Kunden“, „Artikel“ oder „Partner“ fest.
  • Datenexperten wie Data Owner, Data Steward und das Data Governance Board arbeiten dabei mit Funktionen eines BI- oder erweiterten Analytics-Rollenmodells zusammen.
  • Dazu gehören zum Beispiel die Rollen End User, Power User, Solution Architect, Data Engineer mit DataOps, Data Architect sowie Data Scientist mit MLOps.

Über das Rollenmodell kann der Data-Mesh-Gedanke bis hin zu den DevOps etabliert werden. Die Verankerung und Durchsetzung der Rollen und einer starken Governance sind die Voraussetzung dafür, dass die verschiedenen Teams orchestriert zusammenarbeiten, qualitativ hochwertige Datenprodukte geliefert werden und der weitgehende Self-Service im Rahmen zuverlässiger Standards funktioniert.

Die Umsetzung von Data Mesh steht und fällt mit dem Reifegrad dieser Datenorganisation. Diese Organisation ist funktionsübergreifend und deckt sich damit nicht unbedingt mit der üblichen Einteilung in Geschäfts- oder Fachbereichen. Daher ist die Mitwirkung des Management Boards bei der Kontrolle und Etablierung der datengesteuerten Organisation und Architektur unbedingt notwendig.

Data Mesh setzt sich durch

Unternehmen verstehen, dass Daten immer mehr zur Wertschöpfung beitragen. Die kluge Nutzung und Auswertung der Daten bringen den entscheidenden Wettbewerbsvorteil. Für größere Konzerne und auch für viele mittelständische Unternehmen ist erweiterte Analytics daher inzwischen selbstverständlich. Data Mesh bietet die Möglichkeit, sich in diesem Bereich agiler aufzustellen.

QUNIS sieht daher derzeit eine große Dynamik und viel Kraft am Markt, das verteilte Organisations- und Architekturkonzept im Unternehmen umzusetzen. In den Projekten zeigt sich, dass das Data Lakehouse hierbei eine große Hilfe ist, weil die Technologie das flexible Splitten von Datenräumen erlaubt und die Verteilung von Verantwortung für Datenprodukte unterstützt.

Mein Tipp: Wenn Sie mehr über Data Mesh wissen wollen, folgen Sie uns auf LinkedIn und Xing oder abonnieren Sie einfach unseren Newsletter. Oder kontaktieren Sie uns und schreiben Sie mir direkt über KONTAKT ich freue mich über den Austausch mit Ihnen! 

Digitale Innovation braucht eine Datenstrategie

Erstellt am: Montag, 11. März 2024 von Anja Gorbach

Unternehmen investieren massiv in Digitalisierungsprojekte und die datengetriebene Wertschöpfung. Neue ERP-Systeme, Prozessvereinheitlichung oder die Ertüchtigung der internen IT-Infrastruktur stehen hier auf der Agenda. Dazu kommen immer mehr innovative Use Cases wie AI- und ML-Anwendungen, Bilderkennungsverfahren oder IoT-Plattformen. Als Cloud-Lösungen sind mächtige Speicher- und Analysesysteme selbst für mittelständische Unternehmen erschwinglich und kommen dort auch rege zum Einsatz.

Ohne ein fortgeschrittenes Datenmanagement werden die digitalen Innovationen jedoch nicht funktionieren, denn nach wie vor gilt die alte Weisheit: Die neuen Technologien können die Erwartungen nur erfüllen, wenn die Datenbasis stimmt. Und hier liegt in der Unternehmenspraxis oft das Problem.

Unkoordinierte Dateninitiativen kosten Geld und gefährden die Wertschöpfung

Im Zusammenhang mit der Systemadministration sind meist auch Datenmanagement-Initiativen etabliert. Diese laufen aber oft unkoordiniert im Unternehmen nebeneinander – und jede einzelne Disziplin für sich ist eine Mammutaufgabe.

Stamm- und Metadatenmanagement, Schnittstellen-Verwaltung, Datenqualität, Initiativen rund um BI und ML sind verschiedenste Ansätze, in denen sich einzelne Teams um ihr jeweiliges Datenthema kümmern.

  • So setzt man beispielsweise das Stammdatenmanagement oft nur Tool-basiert auf.
  • Oder es kommt vor, dass in der IT eine MDM-Implementierung läuft und parallel eine unternehmensweite Data-Governance-Initiative gestartet wird.
  • Oder eine ERP-Migration von SAP R/3 auf S/4 läuft unabgestimmt mit der Data & Analytics-Welt.

Entscheidungen im Rahmen von nicht abgestimmten Einzelinitiativen verursachen jedoch unnötige Kosten und gefährden die unternehmensweite Wertschöpfung von Daten. Da hilft nur eins: die unternehmensspezifischen Ziele des Datenmanagements zu definieren und die Umsetzung dementsprechend zu planen.

Es gilt, eine umfassende Datenstrategie zu entwickeln

Die Ziele des Datenmanagements sollten sich an der Unternehmensstrategie ausrichten. In diesem Rahmen können Dateninitiativen dann sinnvoll priorisiert und eingeordnet werden, so dass Transparenz geschaffen wird und alle Maßnahmen auf ein gemeinsames Ziel hinauslaufen. QUNIS hat ein Framework für die Datenstrategie entwickelt, die mit den folgenden drei Säulen bei der Entwicklung einer ausbalancierten Strategie hilft:

  • Scope
  • Architektur & Technologie
  • Organisation & Data Governance

Scope

Hier werden die datenorientierten Ziele des Unternehmens abgesteckt. Ansatzpunkte sind dabei datengestützte Prozessabläufe, Informationsbedarfe sowie digitale Produkte und Services des Unternehmens. Die Ziele, die derzeit in den Projekten am häufigsten genannt werden, sind effiziente Prozessketten, verlässliche Auswertungen durch hohe Datenqualität, Automatisierung im Datenmanagement oder die Entwicklung wettbewerbsfähiger Produkte und Services auf Basis hochwertiger Daten.

Empfehlung: Lassen Sie den ermittelten Scope vom Management bestätigen. Die Umsetzung der Strategie wird Kapazitäten erfordern und organisatorische Veränderungen bis in die operative Prozessebene mit sich bringen. Das Committent der Unternehmensleitung ist daher unabdingbar für die erfolgreiche Umsetzung.

Architektur & Technologie

Hier werden die Themenblöcke Stamm- und Metadatenmanagement, Backbone & Middle Layer sowie der Bereich Data & Analytics diskutiert. Besonders beim Stamm- und Metadatenmanagement gibt es immer wieder gewaltige Überraschungen beim Start der strukturierten Analyse. Die Fragen, wie man an bestimmte Daten herankommt, wer die Datenhoheit hat oder wo die Lücken in der Datenpflege liegen, können viele Unternehmen nicht klar beantworten. Von unternehmensweiter Transparenz sind die meisten Organisationen hier weit entfernt.

Im Bereich Backbone & Middle Layer geht es um Infrastruktur- und Technologie-Entscheidungen zur Verknüpfung von Systemen zu durchgehenden Datenplattformen. Ein wichtiger Themenblock in einer Datenstrategie ist natürlich der Bereich Data & Analytics mit seiner originären Aufgabe, Daten zu Analysezwecken in einer zentralen Plattform zu sammeln, aufzubereiten und zu verteilen.

Data & Analytics-Plattformen verarbeiten heute nicht mehr nur strukturierte Daten in klassischen BI-Analysen, sondern auch IoT-, GPS- oder Webdaten. Der Output können Reports zur internen Steuerung oder als Service für Partner, Lieferanten oder Kunden sein, aber auch Daten zur Speisung von ML-Cases und weiteren Systemen.

Organisation & Governance

Um eine standardisierte und skalierbare Data & Analytics-Plattform aufzubauen, ist die Etablierung einer strukturierten Data Governance zum geregelten Umgang mit den verschiedensten Datenformaten unverzichtbar. Data Governance versteht sich hier als integraler Bestandteil einer ganzheitlichen Datenstrategie, der den organisatorischen Handlungsrahmen für Einzeldisziplinen des Datenmanagements stellt. Wesentlicher Baustein ist das klassische Rollenmodell mit den Funktionen Data Owner und Data Steward auf operativer Ebene sowie den Leitungsfunktionen Data Board auf Teilkonzern-Ebene und dem Head of Global Data Governance auf Konzernebene.

In diesem Themenbereich liegt wahrscheinlich die höchste Sprengkraft, wenn das Datenmanagement in der Organisation verankert wird. Der Hauptgrund ist, dass die datenorientierte Organisation nicht der klassischen Linienorganisation der Fachbereiche entspricht. Der Einsatz von Business-Daten endet nicht an der Abteilungsgrenze von Sales, Finance oder HR. Die Daten werden vielmehr bereichsübergreifend in End-to-End-digitalisierten Prozessen genutzt und sollten daher auch von crossfunktional angesiedelten Datenexperten in einer Enterprise-Organisation verwaltet werden.

In einer mittleren bis großen Organisation lassen sich dabei heute nicht mehr alle Datenprozesse von einem einzigen zentralen Bereich stemmen. Datenexperten müssen stattdessen im gesamten Unternehmen verteilt sein und eng mit den Fachbereichen zusammenarbeiten. Deren Fachexpertise ist unbedingt nötig, um Daten hinsichtlich ihrer Wertschöpfung im Business und aus legaler Sicht korrekt zu beurteilen und sie optimal im Geschäftsprozess einzusetzen. Tatsächlich kann man bei vielen Unternehmen derzeit beobachten, dass vorhandene zentralisierte BI- oder Governance-Organisationen aufgebrochen werden, um sie breiter im Unternehmen anzulegen.

Orchestrierte Umsetzung auf Basis der Datenstrategie

Die operative Verankerung dieser Querschnittsfunktionen erfordert Durchsetzungskraft und Schulungen im gesamten Unternehmen, um ein unternehmensweites Bewusstsein für Daten als Wertschöpfungsfaktur aufzubauen und die nötige Akzeptanz für die datengetriebene Organisation im Tagesgeschäft zu erreichen. Hier geht es um nichts weniger als um einen echten Kulturwandel mit Blick auf die Daten, der am besten durch ein gezieltes Change Management begleitet wird.

Die datengetriebene Organisation ist nicht von heute auf morgen zu erreichen und Widerstände im Unternehmen sind absehbar. Die Datenstrategie ist jedoch ein sicheres Gerüst, zudem gibt sie die Roadmap für die schrittweise Umsetzung vor.

Im Rahmen der Datenstrategie können Unternehmen kleine Projekte angehen, in überschaubaren Schritten immer wieder Win-Effekte erzeugen und Mehrwerte liefern. Einzelinitiativen laufen auf dieser Basis orchestriert und ohne Redundanzen im Rahmen des entworfenen Big Picture.

Mein Tipp: Wenn Sie mehr über Datengetriebene Wertschöpfung und Datenstrategie wissen wollen, folgen Sie uns auf LinkedIn und Xing oder abonnieren Sie einfach unseren Newsletter. Oder kontaktieren Sie uns und schreiben Sie mir direkt über KONTAKT ich freue mich über den Austausch mit Ihnen! 

Danone: Sell-Out-Applikation in Lakehouse-Architektur

Erstellt am: Montag, 5. Februar 2024 von Anja Gorbach

Danone gehört zu den führenden Lebensmittelherstellern weltweit. Eine globale Plattform für Data & Analytics hilft bei der operativen und strategischen Steuerung des Konzerns. Für den Bereich Danone D-A-CH hat QUNIS eine Sell-Out-Applikation realisiert, die sich nahtlos in die zentrale Datenplattform einfügt.

Wir waren uns sicher, dass QUNIS den Use Case in selbstständiger Arbeit erfolgreich abliefert.

Tobias Riedner,
Head of IT  Data & Analytics, Danone Deutschland GmbH

Data Journey bis 2025

Danone verfolgt eine konsequente Digitalisierungsstrategie. Im Jahr 2020 hat das Unternehmen eine auf fünf Jahre angelegte Initiative zu den Themen Cloud, Data Products und Data Driven Decisions gestartet und in diesem Rahmen eine zentrale Datenplattform für Data Sourcing und Provisioning aufgebaut. Seit dem Rolling Out der „One Source“-Plattform im Jahr 2022 werden kontinuierlich neue Use Cases aufgesetzt.

Die benötigten Datenprodukte für die Anwendungen werden vom Bereich IT Data & Analytics zur Verfügung gestellt und gewartet. Für die Umsetzung einer Sell-Out-Applikation hat das IT-Team QUNIS als Implementierungspartner hinzugezogen. Die internen Core DevOp Teams, die unternehmensweit Datenprodukte bereitstellen, hatten zu diesem Zeitpunkt nicht die nötigen Kapazitäten für diesen strategisch wichtigen Use Case. Als zentrales Steuerungsinstrument für den Bereich Danone D-A-CH wurde der Sell Out Use Case jedoch dringend benötigt.

Use Case an QUNIS delegiert

QUNIS war bei Danone bereits seit Jahren als projekterfahrener Experte für Data & Analytics bekannt. Für Tobias Riedner, Head of IT Data & Analytics der Danone Deutschland GmbH, war daher klar, dass er sich auf QUNIS als kompetenten Implementierungspartner verlassen kann: „Wir waren uns sicher, dass QUNIS den Use Case in selbstständiger Arbeit erfolgreich abliefert.“

Im Projekt galt es, den spezifischen Use Case im Rahmen der vorgegebenen globalen Referenzarchitektur umzusetzen. Die One-Source-Datenplattform von Danone ist ein Data Lakehouse auf der Basis von Microsoft Azure, mit vielfältigen Vorsystemen, mit Databricks und Snowflake Datenspeichern und Power BI als Frontend für die Berichtsempfänger.

Für Tobias Riedner war wichtig, dass QUNIS in dieser Technologieumgebung eine große Expertise und umfangreiche Projekterfahrung mitbringt. Aber auch die Tatsache, dass QUNIS zuvor bereits eine ähnliche Anwendung mit anderer Technologie umgesetzt hatte, sprach für eine schnelle und sichere Implementierung.

Wichtige Steuerungskennzahlen

Der Sell Out Use Case ist eine klassische BI-Anwendung, allerdings fachlich und hinsichtlich des Datenmanagements sehr komplex. Danone vertreibt seine Produkte fast ausschließlich als B2B-Händler an den Einzelhandel. Der Verkaufspreis an Händler wie Aldi oder ReWe wird als „Sell In“ geführt. Zu welchem „Sell-Out“-Preis der jeweilige Einzelhändler die Produkte an die Konsumenten abgibt, ist für Danone eine wesentliche Information für die Preissteuerung. Aus der Marge zwischen Sell In und Sell Out, oder der Sell-Out-Nachfrage für das Produkt, ergeben sich Hinweise zur Preissensitivität der Endkunden, die wiederum Auswirkungen auf die eigene Preisgestaltung und darüber hinaus auch auf die Produktions- und Lagersteuerung oder auf Marketingaktionen haben.

Datenmanagement automatisiert

Danone erhält für diese Analyse Flat-Files von den Einzelhändlern, die vor der Neuimplementierung manuell gesammelt und aufbereitet wurden. Die Prüfung und Zusammenführung der Daten war zuvor entsprechend aufwändig und fehleranfällig. Wegen des hohen Aufwands war zudem nur eine monatliche Aktualisierung möglich.

Die Data Engineers von QUNIS haben das Datenmanagement neu aufgesetzt. Die teilautomatisiert gesammelten Dateien der Händler werden nun intern vollautomatisch verarbeitet, in das Data Lakehouse integriert und zur Auswertung bereitgestellt. Eine wesentliche Herausforderung im Projekt war dabei die Harmonisierung von Hunderten angelieferter Excel- und Textfiles, u. a. auch mit unterschiedlichen Berichtszeiträumen der Händler.

© Burda Food Agency / Katrin Winner

Leistungsstarke Datenmodelle

Bei der Datenmodellierung war die fachliche Expertise von QUNIS gefragt. Die performanten Datenmodelle ermöglichen schnelle und flexible Auswertungen für unterschiedliche Fachbereiche. Das Datenprodukt wird für die Abteilung Price Revenue Growth Management (PRCM) bereitgestellt, die diese wiederum für Reporting und Analyse in verschiedenen Fachbereichen aufbereitet. Im Rahmen des PRCM-Prozesses können nun Bereiche wie Sales, Key Account Management oder Produktion ihre Fragen zur Preissensibilität der Endkunden mit flexibler Sicht auf die Verkäufe, Preise, Händler oder Regionen beantworten, Produktionsmengen steuern oder Lieferungen zu Händlern oder in bestimmte Regionen präzise terminieren. Tobias Riedner fasst zusammen: 

 Die Sell-Out-Applikation ist für unsere Unternehmenssteuerung unverzichtbar. Dank QUNIS sind die aktuellen Kennzahlen heute auf Knopfdruck verfügbar.


Kompetenter Implementierungspartner

QUNIS wurde bei Danone vor allem als Experte für Data Engineering eingesetzt. Wichtig ist dabei jedoch auch der Blick für das Big Picture der globalen Datenplattform. Die Architektur der Sell-Out-Lösung fügt sich nahtlos in die Gesamtarchitektur ein, kann im Rahmen der standardisierten Technologieumgebung beliebig ausgebaut werden und lässt sich zugleich an die ständig weiterentwickelte Datenplattform anpassen.

Die Zusammenarbeit mit QUNIS war großartig. Bei Bedarf werde ich jederzeit wieder darauf zurückgreifen.

Mehr zu Danone: Danone ist einer der führenden Hersteller von Lebensmitteln und medizinischer Ernährung in der D-A-CH-Region, der in vier Geschäftsbereichen tätig ist: Milchfrische, pflanzenbasierte Produkte, natürliches Mineralwasser und Erfrischungsgetränke sowie frühkindliche und medizinische Nahrung. Mit rund 2.300 Mitarbeitern an sieben Standorten sowie zwei international relevanten Werken produziert Danone D-A-CH über 1.000 unterschiedliche Produkte. Das Portfolio umfasst führende internationale und lokale Marken wie Actimel, Activia, Alpro, Aptamil, Volvic, evian, Fruchtzwerge, Nutrini, Fortimel und Neocate. Weltweit ist Danone mit mehr als 96.000 Mitarbeitenden in über 55 Ländern Marktführer in den Bereichen Dairy & Plant Based Products, Spezialized Nutrition und Waters. Die Danone Produkte sind in mehr als 120 Ländern erhältlich. Weitere Informationen: www.danone.de

Kostenfreies Whitepaper QUNIS Quick Guide to Open Lakehouse

Mehr zur QUNIS Implementierung

Schreiner Group: Implementierung eines Data Warehouse in der Cloud

Erstellt am: Dienstag, 12. Dezember 2023 von Anja Gorbach

Die Schreiner Group ist ein international tätiges Familienunternehmen, das innovative Hightech-Labels und Funktionsteile vor allem für die Pharma- und Automobilindustrie entwickelt und produziert. Mit zukunftsweisenden Produkten wie smarten RFID-Lösungen, Druckausgleichselementen für Elektronik-Gehäuse oder Schutzfolien erzielt die Schreiner Group einen Jahresumsatz von über 200 Millionen Euro. Die Controlling-Abteilung hat zusammen mit QUNIS ein Cloud-basiertes Data Warehouse implementiert. Die BI-Lösung bildet den Kern einer zentralen Datenplattform, die schrittweise im gesamten Unternehmen ausgerollt wird.

Unser Data Warehouse ist hoch professionell, standardisiert, nachvollziehbar und skalierbar. Die moderne Data & Analytics-Architektur erschließt SAP-Daten für unsere Fachbereiche.


Matthias Lindemann,

BI Solution Architect, Schreiner Group GmbH

Data & Analytics-Implementierung parallel zur SAP-Einführung

Im ersten Schritt sollte ein modernes Data Warehouse (DWH) implementiert werden, das eine einheitliche Datenbasis für Reporting und Analyse schafft. Die Systemarchitektur sollte dabei als ausbaufähige Datenplattform angelegt werden, die in späteren Projektphasen beispielsweise durch einen Data Lake ergänzt werden kann.

Der projektverantwortliche BI Solution Architect Matthias Lindemann hebt die hochprofessionelle und fokussierte Beratung durch QUNIS hervor: „Die Strategie-Workshops waren sehr effektiv. QUNIS hat uns gezielt zur passenden Data & Analytics-Lösung geführt.“

Nach der erfolgreichen Zusammenarbeit bei der Strategieentwicklung hat sich die Schreiner Group bei der Realisierung des Data Warehouse ebenfalls für QUNIS als Implementierungspartner entschieden. Das DHW-Projekt fand dabei unter besonderen Rahmenbedingungen statt: Die Schreiner Group löst ihr bestehendes ERP-System auf Basis einer AS/400-Datenbank schrittweise durch SAP ab. Dadurch ergibt sich derzeit ein Parallelbetrieb zweier ERP-Systeme mit ganz unterschiedlichen Datenstrukturen.

Ein wesentliches Ziel des neuen Data Warehouse ist, den Controllern und Fachanwendern einen einfachen Zugriff auf konsolidierte Daten aus beiden ERP-Systemen zu ermöglichen. Gerade im SAP-Umfeld werden sämtliche Ladestrecken neu konzipiert und schrittweise realisiert.

Pilotprojekt in der Cloud

Die Einführung von Azure war für die Schreiner Group aufgrund der speziellen Herausforderungen einer Cloud-Umgebung Neuland und erwies sich als aufwändiger als zunächst angenommen. QUNIS und die auf Cloud-Projekte spezialisierte Schwesterfirma TEQWERK, die zeitweise ebenfalls involviert war, waren hier insbesondere hinsichtlich der internen Positionierung des Projekts sehr hilfreich.

Matthias Lindemann erklärt, dass die professionelle Implementierung und Moderation u. a. die interne IT überzeugt, Vertrauen geschaffen und damit die Umsetzung der vom BI Board favorisierten Cloud-Lösung ermöglicht haben. Die Azure-Umgebung wird derzeit von der IT-Abteilung der Schreiner Group betreut. Eine Auslagerung an TEQWERK steht als mögliche Alternative im Raum.

Flexible Auswertung von SAP-Daten

Zum Aufbau des Data Warehouse kam das QUNIS Data Warehouse Framework (QDF) zum Einsatz. Das Vorgehensmodell mit Best Practices, Templates und vordefinierten Prozessen sorgt für eine schnelle und sichere Implementierung und Bewirtschaftung des Data Warehouse.

  • Der Schwerpunkt im Projekt lag auf der Erschließung der SAP-Daten für den Fachbereich. Auf Empfehlung von QUNIS wurden die SAP-internen Business Logiken nicht übernommen, sondern eigene Ladestrecken mit Direktzugriff auf die einzelnen SAP-Tabellen definiert. Damit erhält der Fachbereich höchste Flexibilität beim Aufbau und der Auswertung seiner Datenmodelle.
  • Bei der Integration der ersten Use Cases arbeitete das interdisziplinäre Projektteam bereits mit den neu geschaffenen Rollen aus Fachbereichen, Prozessexperten, IT und Führungskräften eng zusammen. Inzwischen sind die Power User aus den Fachbereichen mit den SAP-Strukturen so vertraut, dass sie eigenständig die benötigten SAP-Tabellen ermitteln und hinsichtlich ihrer Reporting- und Analyse-Relevanz beurteilen.
  • Die effiziente Zusammenarbeit zwischen Power Usern und den Data Managern aus der IT wird zudem durch das Data Dictionary unterstützt, das QUNIS in seinem QDF-Modell als Template bereitstellt. Die Power User nutzen das Tool als Drehbuch für die IT, um ihre Anforderungen professionell zu spezifizieren.

Auftragseingang als erster Use Case

Als erster Use Case wurde das Auftragseingangsreporting im Data Warehouse abgebildet. Im Prototyping-Verfahren wurden die ETL-Strecken und Datenmodelle definiert, der Auftragseingangsreport in Power BI abgebildet und die Lösung schrittweise weiter ausgefeilt.

Die Beteiligten der Schreiner Group haben sich im Projekt das entsprechende Know-how angeeignet und können nun das Umsatzreporting als zweiten Use Case komplett selbstständig aufsetzen. Matthias Lindemann benennt den Coaching-Ansatz von QUNIS als wesentlichen Vorteil: „Die Fachabteilung hat das Datenmodell verstanden und kann alle benötigten Auswertungen selbst zusammenstellen.“

Das neue Umsatz- und Auftragseingangsreporting vereint Informationen aus beiden ERP-Welten und wird das bestehende Sales Reporting aus dem bisherigen Reportingtool und Excel ablösen. Bisher arbeiten lediglich ausgewählte Power User und Controller mit Power BI. Ein Rollout von Power BI auf die End User und weitere Power User ist schrittweise je nach Umsetzung der nächsten Use Cases geplant.

Interne Weiterentwicklung

Mit dem Data Warehouse hat das Controlling schon während der SAP-Implementierung eine integrierte Berichtsplattform bereitgestellt. Ein wesentlicher Gewinn ist die im Lauf der Implementierung etablierte effektive Zusammenarbeit der Power User mit den Data Managern aus der IT auf Basis professioneller Requirements.

Die Power User haben die Datenbewirtschaftung und -bereitstellung heute selbst in der Hand und können die SAP-Daten flexibel auswerten. Auch die IT-Abteilung lobt das hoch automatisierte Data Warehouse, das einen sicheren Betrieb mit einfacher Wartung, strukturierter Weiterentwicklung und gleichbleibend hoher Performance gewährleistet: „Das Data Warehouse ist hoch professionell, standardisiert, nachvollziehbar und skalierbar.“ 

Die Data & Analytics-Plattform wird zunehmend verschiedene BI-Produkte und Insellösungen der Fachbereiche ersetzen, was die IT-Administration vereinfacht und Kosten für Software-Updates und diverse Lizenzen spart.

Organisatorisch hat das neu geschaffene BI Competence Team (BICT) unter der Leitung des Controllings hierfür bereits alle BI- und Analytics-Initiativen der Schreiner Group zusammengefasst. Darüber hinaus gestaltet das BICT die Weiterentwicklung der unternehmensweiten Data Governance und ist in Architekturfragen hinsichtlich der Analytics und des Reportings wichtiger Ansprechpartner.

Das Controlling treibt derzeit die Umsetzung und den Rollout von Reporting und Analyse in Power BI weiter voran. QUNIS wird für diese Ausbaustufen lediglich punktuell benötigt und steht für Fragen bereit. Desweiteren stehen die Themen Aufbau und Integration einer neuen Planungslösung, Big Data, Integration von KI-Anwendungen und die damit verbundene Weiterentwicklung der Azure-Architektur auf der Roadmap.

Mehr zur Schreiner Group: Die Schreiner Group GmbH & Co. KG ist ein international tätiges deutsches Familienunternehmen und gilt als bevorzugter Partner in den Märkten Healthcare und Mobility. Der „Hidden Champion“ aus Oberschleißheim im Landkreis München hat weltweit vier Standorte (u.a. in Shanghai und New York) und liefert in rund 60 Länder. Das Kerngeschäft sind Funktionslabels in Top-Qualität, die um ergänzende Systemlösungen und Dienstleistungen angereichert werden. Die innovativen Hightech-Labels und Funktionsteile der Schreiner Group erschließen smarte Lösungsdimensionen und helfen, das Leben ein Stück gesünder, mobiler und sicherer zu machen.  www.schreiner-group.com

Mehr zu QUNIS ImplementierungQUNIS Implementierung

Massive Parallelität und das Lakehouse

Erstellt am: Mittwoch, 27. September 2023 von Anja Gorbach

Hinter einer massiv parallelen Architektur steckt das Prinzip, dass Daten nicht mehr nur auf einer Maschine liegen, sondern auf beliebig vielen.

Die Idee dahinter: Wollen mehrere Klienten auf die selben Daten zugreifen, werden die Daten entsprechend repliziert. Eine aktuelle massiv parallele Architektur ist das Lakehouse. Es verteilt die Daten nicht nur auf mehreren Maschinen, sondern erlaubt auch den direkten Zugriff auf die Daten. Voraussetzung dafür ist, dass die Klienten ihre eigene Rechenleistung beitragen. 

Jeder bringt seine Rechenleistung mit

In einem massiv parallelen System gibt es statt einer Datenbank, über die die gesamte Arbeit komplett mit teurer Rechenleistung abgewickelt wird, nur noch einen Data Lake als reinen und äußerst kostengünstigen Speicherplatz. In dieser neuen Architektur kann jeder Klient selbst in einem zentralen Register nach seinen Daten suchen und bringt die jeweils für die Abfrage notwendige Rechenleitung einfach mit. Daher verkraftet es das System sogar, wenn mehrere hundert Data Scientisten gleichzeitig darauf zugreifen.

In einem solchen Lakehouse können zudem problemlos polystrukturierte Daten gespeichert werden. Es stellt darüber hinaus mithilfe von Analytischen Tabellenformaten wie beispielsweise Apache Iceberg durchgängig sicher, dass diese stets konsistent sind. Auch wenn mehrere Klienten gleichzeitig auf dieselben Daten zugreifen, sie lesen oder ändern, besteht somit keine Gefahr eines korrupten Datenbestands. Zum Vergleich: Dies konnte der Bibliothekar nur garantieren, indem er darauf achtete, dass erst der eine liest und danach erst der andere eine Änderung vornimmt.

Für den Fall, dass ein Anwender nicht in der Lage ist, eigene Rechenleistung mitzubringen, oder Unterstützung für die Datenabfrage braucht, gibt es Dienste wie der des QUNIS-Partners Dremio. Sie stellen über eine Data Lake Engine bereits fertige Cluster zur Verfügung. Darüber kann beispielsweise ein Controller in seiner gewohnten Umgebung und auf einer anwenderfreundlichen Oberfläche so arbeiten, als würde er direkt auf die Datenbank zugreifen. Da diese Struktur ebenfalls massiv parallel aufgebaut ist, sind auch hier mehrere Zugriffe gleichzeitig möglich, ohne dass es zu Konflikten kommen kann.

Aus homogen wird heterogen

Die massive Parallelität geht unbestritten mit einer gewissen Komplexität einher. Vorher war die Welt homogen und dadurch relativ einfach: Es gab eine Lösung, eine Technologie, eine Datenbank und darüber ließen sich alle Probleme lösen. In massiv parallelen Strukturen hingegen muss sich jeder selbst um den Data Lake kümmern und zudem jedes Mal eigene Rechenleistung beisteuern.

Das kann man natürlich grundsätzlich als Nachteil ansehen. Heterogenität und Offenheit für unterschiedliche Technologien bieten aber auch Vorteile, wenn etwa mehrere Anwender im Zugriff auf dieselbe Datenbank problemlos völlig verschiedene Programmiersprachen nutzen können. In modernen datengetriebenen Unternehmen, in denen möglichst jeder Mitarbeiter mit Daten arbeiten soll, die in großer Zahl vorliegen, kommt man an einer solch hochskalierbaren Architektur ohnehin kaum mehr vorbei.

Die Cloud macht‘s erschwinglich 

Massiv parallele Datenarchitekturen und Datenbanken gibt es übrigens schon seit den 1990er Jahren. Allerdings handelte es sich damals noch um rein proprietäre und dadurch sehr teure Technologien. Als Gamechanger zeigte sich die Mitte der 2010er Jahre die Entwicklung nichtproprietärer Technologien mit offeneren Architekturen. Jedoch waren diese für die meisten Unternehmen damals noch nicht so wichtig, weil häufig nur eine kleine Abteilung überhaupt mit Daten gearbeitet hat und auch die Datenmenge noch nicht annähernd so hoch war wie heute.

In den letzten Jahren hat sich dies enorm gewandelt: Mittlerweile will nahezu jeder Unternehmensbereich permanent Zugriff auf alle Daten sowie eigene Datenprodukte erstellen, selbstständig veröffentlichen und mit anderen teilen. Durch den stetig steigenden Bedarf waren die alten Architekturen daher ab einem gewissen Punkt nicht mehr tragfähig. Mit der Ablösung der teuren proprietären Systeme durch moderne Cloud-Architekturen, ist die Einstiegshürde naturgemäß deutlich niedriger.

So kann man zum Beispiel über ein Cloud-basiertes Pay-as-you-go-Modell sehr komfortabel und dazu kostengünstig mächtige Technologien nutzen und muss nicht erst Millionen-Euro-Beträge in technologisch aufgerüstete Serverschränke investieren. Stattdessen greifen die Anwender einfach on-demand auf die Daten zu, wenn sie sie brauchen, fahren dann entsprechend die Rechenleistung hoch und zahlen auch nur genau dafür.

Mag die massive Parallelität als Konzept relativ statisch sein, ist doch der Markt überaus dynamisch. Das Konzept wird in allen Bereichen kontinuierlich weiterentwickelt – so entstehen immer wieder neue Angebote und damit spannende Möglichkeiten, die es bislang nicht gab und die die Unternehmen in Zeiten von Big Data gewinnbringend nutzen können.

Data Lakehouse mit dem Modern Data Stack

Auch SENEC als einer der führenden Solarstromspeicheranbieter in Deutschland setzt auf einen Modern Data Stack und hat zusammen mit QUNIS ein Data Lakehouse aufgesetzt.

  • Die IT-Architektur ist ein Data Lakehouse auf Basis von Azure Databricks, das Elemente eines Data Warehouse mit einem Data Lake in der zentralen Plattform kombiniert. Die mit einer Staging und Cleansing Area, dem Core und einem Data Mart angelegte Lakehouse-Architektur ist in der Lage, Funktionen von Streaming Analytics, BI und maschinellem Lernen auf einer einzigen Plattform bereitzustellen.
  • Als Datenquellen sind u.a. eine Time Series Datenbank, eine Log-Datenbank, diverse relationale Datenbanken, SharePoint und klassische Business Systeme wie ERP, CRM usw. eingebunden. Zur Integration und Orchestrierung der Daten sind die Open-Source-Lösungen Airbyte und Airflow auf Kubernetes im Einsatz, zur Transformation von Daten im Lakehouse die Open-Source-Software dbt. Mit der kontinuierlichen Umsetzung neuer Use Cases werden schrittweise weitere Datenquellen angebunden. Die Anwender greifen über Microsoft Power BI auf die aufbereiteten Daten zu.
  • Power BI ist als strategisches Frontend für alle User im Einsatz. Das vielseitige Frontend unterstützt und visualisiert verschiedenste Use Cases in den Bereichen Unternehmens- und Marktinformationen sowie Produkt- und Qualitätskontrolle. Derzeit arbeiten von rund 550 Mitarbeitenden in Leipzig ca. 150 Konsumenten und Power User mit der BI-Lösung. Die Anzahl von aktuell 10 Designern soll kontinuierlich erhöht werden.

Mein Tipp: Wenn Sie mehr über Data Lakehouse und Parallele Architekturen wissen wollen, folgen Sie uns auf LinkedIn und Xing oder abonnieren Sie einfach unseren Newsletter. Oder kontaktieren Sie uns und schreiben Sie mir direkt über KONTAKT ich freue mich über den Austausch mit Ihnen! 

SENEC: Implementierung einer Data & Analytics-Plattform im Bereich Erneuerbare Energien

Erstellt am: Dienstag, 18. Juli 2023 von Anja Gorbach

SENEC gehört zu den führenden Solarstromspeicheranbietern in Deutschland. Zusammen mit QUNIS hat das Unternehmen mit vielfältigen Technologien ein Data Lakehouse aufgesetzt, das dem schnellen Firmenwachstum gerecht wird und BI- und IoT-Analysen in einer zentralen Datenplattform unterstützt.

Wegen des starken Wachstums haben wir uns entschlossen, einen Modern Data Stack auf Basis von Microsoft Azure einzuführen, um mit den steigenden Reporting- und Analyseanforderungen Schritt zu halten.

Armin Geisler,
Team Lead Data and Analytics, SENEC GmbH

Eine Plattform für alle Datenprodukte

SENEC entwickelt und produziert intelligente Speicherlösungen für die Nutzung von Sonnenenergie. Mit SENEC.360 bietet das Unternehmen Privathaushalten passgenaue Lösungen für die Eigenversorgung mit Solarstrom, von der PV-Anlage über den smarten Stromspeicher bis hin zur E-Ladestation. Das dynamische Unternehmen trifft mit seinem Angebot den Nerv der Zeit und verzeichnet ein exponentielles Wachstum.

Das vorhandene BI-System konnte der schnellen Unternehmensentwicklung nicht mehr folgen und auch der steigende Bedarf an Big-Data-Applikationen war mit individuell programmierten Lösungen nicht mehr zu bewältigen. Die Auswertung von Streaming-Daten aus IoT-Produkten, Feldtestanalysen auf Basis von Batteriedaten oder ML-Anwendungen wie Predictive Maintenance gehören zur wachsenden Zahl an Use Cases bei SENEC, die eine neue IT-Umgebung für Data & Analytics erforderten.

Ziel der neuen Datenplattform war, dass sie sowohl die klassischen Geschäftsanalysen im Finanz- und Fachbereichscontrolling als auch die Big-Data-Analysen unterstützt – mit der Möglichkeit der kombinierten Auswertung aller Datenformate in Dashboards für Geschäftsanalysen und die Unternehmenssteuerung. Die Plattform sollte als Modern Data Stack mit verschiedenen Tools und Technologien aufgesetzt werden und als Single Point of Truth für sämtliche Datenprodukte fungieren.

Mindset-Pitch für eine gute Zusammenarbeit

Im Rahmen einer Ausschreibung und auf Empfehlung aus dem Netzwerk des Teams kam QUNIS als Realisierungspartner ins Spiel. Katja Both, Head of Business Intelligence & Processes bei SENEC, integrierte mit einem Mindset-Check den ausschlaggebenden Bewertungsansatz der Pitches. Hintergrund ist die Überzeugung, dass die gute Zusammenarbeit mit dem Dienstleister – insbesondere auf operativer Ebene – entscheidend für den Projekterfolg ist.

Katja Both erläutert: „Uns war wichtig herauszufinden, ob unsere Engineers und Analysten gut mit denen des Dienstleisters zusammenarbeiten können. Am Ende haben unsere Mitarbeiter:innen entschieden, wer unser Projektpartner wird. Damit hatten wir von Beginn an ein ausgeprägtes Committment aller Beteiligten, entscheidend für die benötigte Geschwindigkeit in diesem schnellwachsenden Hypergrowth Umfeld.“

QUNIS bringt die richtige Mischung aus strategischem Vorgehen und Pragmatismus mit und passt auch mit seinem Mindset gut zu unserem Team.

Katja Both,
Head of Business Intelligence & Processes, SENEC GmbH

Agile Entwicklung am Testsystem

Einmal beschlossen, ging die Konzeption und Implementierung der komplexen Plattform zügig voran. Die Strategie für die neue IT-Architektur, die Systemkonzeption und Themen wie Data Governance und Security haben QUNIS und SENEC ab Mitte 2022 innerhalb von zwei Monaten definiert. Im Herbst 2022 startete die Implementierung der IT-Architektur. Im März 2023 war die Datenplattform betriebsbereit.

Schon während der Strategieentwicklung hat QUNIS eine temporäre Testinfrastruktur als vereinfachte Version des Zielsystems installiert, was zur schnellen Realisierung beitrug: Das Team konnte die Plattform auf diese Weise im agilen Prototyping auf und ausbauen und parallel bereits erste Anforderungen der Fachbereiche und der Geschäftsleitung umsetzen.

Data Lakehouse als Modern Data Stack

Als Modern Data Stack besteht die Cloud-basierte Plattform aus einer Vielzahl von Technologien und Tools für die Erfassung, Speicherung, Verarbeitung und Analyse von Daten.

  • Die IT-Architektur ist ein Data Lakehouse auf Basis von Azure Databricks, das Elemente eines Data Warehouse mit einem Data Lake in der zentralen Plattform kombiniert. Die mit einer Staging und Cleansing Area, dem Core und einem Data Mart angelegte Lakehouse-Architektur ist in der Lage, Funktionen von Streaming Analytics, BI und maschinellem Lernen auf einer einzigen Plattform bereitzustellen.
  • Als Datenquellen sind u. a. eine Time Series Datenbank, eine Log-Datenbank, diverse relationale Datenbanken, SharePoint und klassische Business Systeme wie ERP, CRM usw. eingebunden. Zur Integration und Orchestrierung der Daten sind die Open-Source-Lösungen Airbyte und Airflow auf Kubernetes im Einsatz, zur Transformation von Daten im Lakehouse die Open-Source-Software dbt. Mit der kontinuierlichen Umsetzung neuer Use Cases werden schrittweise weitere Datenquellen angebunden. Die Anwender greifen über Microsoft Power BI auf die aufbereiteten Daten zu.
  • Power BI ist als strategisches Frontend für alle User im Einsatz. Das vielseitige Frontend unterstützt und visualisiert verschiedenste Use Cases in den Bereichen Unternehmens- und Marktinformationen sowie Produkt- und Qualitätskontrolle. Derzeit arbeiten von rund 550 Mitarbeitenden in Leipzig ca. 150 Konsumenten und Power User mit der BI-Lösung. Die Anzahl von aktuell 10 Designern soll kontinuierlich erhöht werden.

Starkes Data & Analytics-Team

Das hohe Realisierungstempo verdankt SENEC auch der konsequenten Personalstrategie, mit der Katja Both Schub in das Thema Data & Analytics bringt. Erst im Jahr 2021 wurde die erste BI-Lösung im Unternehmen etabliert. Im Rahmen der aktuellen Implementierung ist das BI-Team innerhalb weniger Monate zum Bereich Data & Analytics mit BI-Experten, Data Analysts, Data Engineers und Data Scientists angewachsen.

Das Team unterstützt und befähigt die Fachbereiche durch Self-Services, Trainings und Standards. Katja Both erläutert: „Durch die Herausbildung von dezentralen Daten-Experten erreichen wir eine hohe Autonomie in den Fachbereichen und werden damit dem starken Unternehmenswachstum gerecht.“

Bei der Implementierung sorgten der Einsatz von Best Practices und Frameworks, die umfangreiche Projekterfahrung von QUNIS und der permanente Know-how-Transfer zu SENEC für effiziente Projektschritte und schnelle Erfolge. Während das Thema Data & Analytics seinen Projektcharakter zunehmend verliert und in eine Linienfunktion übergeht, wird SENEC die Weiterentwicklung der Plattform künftig intern mit eigenen Experten vorantreiben.

Hoch skalierbare Datenplattform

Das Ziel der Implementierung ist erreicht: Der Modern Data Stack erfüllt alle Anforderungen an fortgeschrittene Datenanalysen im Bereich BI, KI und ML.

Von strukturierten Finanzdaten bis zu Streaming-Daten stehen unterschiedlichste Datenarten in einem zentralen Speicher für flexible Auswertungen bereit. Die hohe Systemperformance sorgt dabei für schnelle Analysen bei umfangreichem Datenvolumen. Die Projektverantwortlichen heben zudem die Validität der Daten hervor. Die Herkunft und Verarbeitung von Kennzahlen ist nachvollziehbar und glaubwürdig, was das Vertrauen in die Plattform stärkt und hohe Nutzungsraten im gesamten Unternehmen fördert. Der Projektleiter Armin Geisler hält fest: „Wir gewinnen tiefere Insights für Geschäftsanalysen sowie Entscheidungen und einige Use Cases sind mit der leistungsstarken Plattform überhaupt erst möglich geworden.“

Lisa-Marie Krause, als Senior Data Engineer im Projekt verantwortlich für die technische Entwicklung, beschreibt den Status der IT-Umgebung zum Zeitpunkt der Inbetriebnahme:

Mit der Datenplattform steht das Gerüst.
Wir haben Richtfest gefeiert und können jetzt
in hoher Geschwindigkeit neue Use Cases
für die Datenanalyse umsetzen.

Lisa-Marie Krause
Senior Data Engineer, SENEC GmbH

Die hohe Taktzahl bei der Skalierung ist notwendig, denn aus dem gesamten Unternehmen kommen vielfältige Anfragen nach Use Cases im Umfeld von BI, KI und ML. Ein wesentliches Ziel der zentralen Plattform ist, künftig mehr Datenkompetenz in der Breite im Unternehmen zu verankern. Auch Armin Geisler nennt die Generierung neuer Use Cases mit schnellem Time-to-Market als wesentlichen Mehrwert: „Wir haben im Bereich Data & Analytics deutlich an technischer und fachlicher Skalierbarkeit gewonnen.“

Auf Basis der Single Source of Truth sollen die Fachbereiche künftig ihre Reports selbst aufbauen können – auch damit wird der fachliche Ausbau beschleunigt und im gesamten Unternehmen vorangetrieben.

Mehr zu SENEC: Seit 2009 entwickelt die SENEC GmbH in Leipzig intelligente Stromspeichersysteme und speicherbasierte Energielösungen. Mit SENEC.360 bietet das Unternehmen ein abgestimmtes Ökosystem zur nachhaltigen Rundum-Eigenversorgung, unter anderem bestehend aus Stromspeicher (SENEC. Home), Solarmodulen (SENEC.Solar), virtuellem Stromkonto (SENEC.Cloud) sowie E-Auto Ladestation (SENEC.Wallbox). Die Marke SENEC zählt inzwischen europaweit zu den führenden Anbietern für innovative Energie- und Speicherlösungen rund um Einfamilienhäuser – mit mehr als 120.000 verkauften Systemen und einem Beratungsnetzwerk von über 1.200 Fachpartnern. Seit 2018 ist die SENEC GmbH eine 100 %-ige Tochtergesellschaft der EnBW Energie Baden-Württemberg AG und beschäftigt über 570 Mitarbeiter*innen an den Standorten Leipzig und Köln sowie in Italien und Australien. Weitere Informationen: www.senec.com

Mehr zur QUNIS Implementierung

MEDIA Central Group: Moderne Prozesse und neue Geschäftsmodelle

Erstellt am: Dienstag, 20. Juni 2023 von Anja Gorbach

Die MEDIA Central Group ist der ganzheitliche Lösungsanbieter für 360°-Angebotskommunikation. Auf Basis branchenweit einzigartiger Daten, eigener Expertise in der Datenanalyse sowie eines spezialisierten Netzwerks bietet die Firmengruppe maßgeschneiderte Lösungen für die cross-mediale Angebotskommunikation. Zusammen mit QUNIS etabliert die MEDIA Central Group eine gruppenweite Datenplattform, die immer mehr datengetriebene Entscheidungen, optimierte Prozesse und innovative Geschäftsmodell ermöglicht.

Statt im extrem dynamischen Technologieumfeld selbst lange Lernkurven
oder mögliche Sackgassen in Kauf zu nehmen, nutzen wir die langjährige
Projekterfahrung und den tiefen Einblick in die Produktstrategien der
Softwarehersteller, die QUNIS uns bietet.

 

Rafael de Brito
Head of Corporate IT
MEDIA Central Group

QUNIS begleitet die digitale Transformation

Als Spezialist für haptische Angebotskommunikation steuert MEDIA Central über 15 Milliarden Prospekte jährlich, dazu kommen Anzeigen, Print-Mailings, Out-of-Home- und Radio/TV-Werbung sowie immer mehr digitale Kanäle. Das Kunden-Portfolio umfasst mehr als 100 international tätige Unternehmen aller Branchen, darunter den Großteil des deutschen Einzelhandels. Die gezielte Auswahl der passenden Kanäle, der Werbeformen, Reichweiten und Zeitpunkte basiert zunehmend auf automatisierten Analysen und datengetriebenen Entscheidungen. Mit der Offerista Group, dem europaweit führenden Experten für digitale Angebotskommunikation, dem Data-Science-Spezialisten Yagora und der europaweit führenden Drive-to-Store Technologieplattform ShopFully sind dabei in den letzten Jahren drei ausgewiesene Digitalisierungsexperten zur Unternehmensgruppe gestoßen.

Die konsequent vorangetriebene digitale Transformation ist der wesentliche Erfolgsfaktor der wachsenden Unternehmensgruppe. Rafael de Brito, Head of Corporate IT der MEDIA Central Group, sieht darin zugleich auch eine zentrale Herausforderung:

Den Wandel zum datengetriebenen Unternehmen gezielt, effizient und mit nachhaltigem Erfolg zu steuern, erfordert in der dynamischen Branche des Unternehmens und bei rapider technologischer Entwicklung einen soliden strategischen Plan – und darüber hinaus die kompetente Beurteilung neuer Situationen, die sich zwangsläufig im disruptiven Markt- und Technologie-Umfeld immer wieder ergeben.

Organisationale Ambidextrie als Leitfaden der Transformation

Das Schlüsselwort der erfolgreichen digitalen Transformation lautet für Rafael de Brito „Organisationale Ambidextrie“: die Fähigkeit von Organisationen, gleichzeitig effizient und flexibel zu sein. Im betriebswirtschaftlichen Umfeld ist damit die Balance zwischen effizienter Nutzung des Bestehenden (Exploitation) und der Erkundung von Neuem (Exploration) gemeint.

Vorhandene Systeme und Prozesse zu vernachlässigen und sich kopflos in neue Technologien und Methoden zu stürzen, kann natürlich nicht der richtige Weg sein. Im komplexen und dynamischen Entwicklungsumfeld immer den Überblick zu behalten, richtungsweisende Entscheidungen zu treffen und diese dann kompakt umzusetzen, ist jedoch für die internen IT- und Digitalisierungsexperten neben ihrem Tagesgeschäft schier unmöglich.

Gerade weil die MEDIA Central Group hoch spezialisierte Digitalisierungsexperten und Data Scientists im Haus hat, können diese die Situation gut beurteilen und wissen, an welcher Stelle man sich komplementäres Know-how von außen dazu holen sollte, weil in diesem Falle „buy“ statt „make“ effektiver und ökonomischer ist. Die MEDIA Central Group setzt daher auf die Zusammenarbeit mit QUNIS. Der Spezialist für Data & Analytics begleitet die digitale Transformation des Unternehmens seit dem Jahr 2018 als Beratungs- und Implementierungspartner.

Rafael de Brito erklärt: „Statt im extrem dynamischen Technologieumfeld selbst lange Lernkurven oder mögliche Sackgassen in Kauf zu nehmen, nutzen wir die langjährige Projekterfahrung und den tiefen Einblick in die Produktstrategien der Softwarehersteller, die QUNIS uns bietet. Das bedeutet für uns strategisch gut untermauerte Projekte, effektive Implementierung und Best Practices für sichere Projekterfolge.“ Sein anschaulicher Schluss lautet: „So wie wir die Firmenfahrzeuge unserer Außendienstmitarbeiter weder selber bauen noch reparieren, so handhaben wir es auch mit dem Data Warehouse. Unsere Kernkompetenz liegt darin, die Technik zu nutzen, nicht das Rad neu zu erfinden.“

Komplettbegleitung in allen Fragen von Data & Analytics

QUNIS kam vor allem als Partner für die Infrastruktur und Prozesse eines gruppenweiten Data Warehouse ins Spiel, das nach allen Richtungen offen und skalierbar für beliebige Datenquellen und Use Cases angelegt wurde. Heute schätzt Rafael de Brito die umfassende Begleitung auf allen Ebenen von Data & Analytics: von der Strategie, dem DWH-Ausbau, BI- und Reporting mit Auswahl, Design und Schulung des Frontends, Anbindung von Datenquellen samt Schnittstellenprogrammierung bis hin zum smarten Aufbau von Datenmodellen aus wirtschaftlicher Sicht. Besonders effizient er die Zusammenarbeit durch die strukturierte und direkte Kommunikation:

“Wir nutzen QUNIS als verlängerte Werkbank. Für das Projektmanagement und die Abwicklung von Anforderungen müssen wir kaum Zeit und Ressourcen aufbringen, da verlassen wir uns auf unsere vorausschauende QUNIS-Beraterin.“ Auch den Wissenstransfer bei der Erstellung von Reports und der Nutzung des DWH nennt Rafael de Brito als Vorteil der Zusammenarbeit. So kann sich das interne Team schnell eigenes Know-how aneignen und im Unternehmen weitergeben.

Im Bereich des eingesetzten Frontends Power BI beispielsweise hat MEDIA Central heute eigene Experten für den Berichtsaufbau, profitiert aber weiterhin von der Beratung der QUNIS-Spezialisten und nimmt nach Bedarf sehr individuelle Schulungen für ausgewählte Nutzergruppen in Anspruch. Derzeit klärt das Projektteam zudem gemeinsam die Frage, ob die Datenmodellierung in Data Marts oder Data Sets die bessere Alternative für künftige Auswertungen in Power BI ist.

Immer mehr Daten erschließen

Eine wichtige Aufgabe von QUNS ist die kontinuierliche Einbindung interner und externer Datenquellen in die zentrale Plattform. Das betrifft zum einen verschiedene Themen- und Fachbereiche, die in den Datenpool eingegliedert werden. Aber auch bei der Integration neuer Gesellschaften in die wachsende Firmengruppe verfolgt die MEDIA Central Group das Ziel, dass die vorhandenen Systemlandschaften bestehen bleiben und die benötigten Daten in die zentrale Plattform überspielen. Also kein Umbau der wachsenden heterogenen Systemlandschaft, sondern ein neu entstehender zentraler Datenlayer, der Informationen aus diversen Quellen integriert und harmonisiert zur Auswertung – auch wiederum für die neuen Gesellschaften – bereitstellt. Den Kern-Anwendungsbereich bilden dabei die gruppenübergreifenden Finanzauswertungen.

So ist eine schnelle Eingliederung in die Firmengruppe möglich, ohne den laufenden Systembetrieb neu hinzukommender Gesellschaften zu stören. QUNIS übernimmt die Schnittstellenintegration, die Definition der Aufbereitung der Daten und die Edition der Lade- und Qualitätsprüfungsprozesse beim Datenload. Für das Finanzreporting und erweiterte Analysen in alle operativen Bereiche wurden bisher u.a. diverse ERP-Systeme der Tochtergesellschaften, das FiBu-System, ein DMS, das Geoinformationssystem, QS/QM-Daten sowie zugekaufte Marktdaten angeschlossen.

Gemeinsam die Komplexität und Dynamik erfolgreich meistern

In enger Zusammenarbeit sorgt das Projektteam für den kontinuierlichen Ausbau der Datenplattform und die organisatorische Verankerung der damit zusammenhängenden Prozesse. Für neue Datenquellen und Use Cases ist die skalierbare Daten- und Systemarchitektur dabei jederzeit offen. Rafael de Brito bringt den entscheidenden Mehrwert der Data & Analytics-Plattform auf den Punkt:

„Wir wollen einen Datenschatz aufbauen und neue Insights generieren, von denen sowohl unsere internen Prozesse und Geschäftsmodelle als auch unsere Kunden und Lieferanten profitieren.“

Für die Kunden bedeutet mehr Wissen ein sehr gezieltes Marketing mit genauen Erfolgskontrollen. Das gilt auch für die analogen Werbeformen wie die klassischen Papier-Prospekte. Umfangreiche Datenanalysen sorgen dafür, dass die logistische Steuerung der Prospekte punktgenau mithilfe von Geo-soziologischen und -ökonomische Analysen oder finanziellen Erfolgskontrollen erfolgt. Die Ergebnisse samt Umsatzanalysen können die Kunden u.a. in einem Qualitätsportal nachvollziehen.

Erfolgsgesteuerte selektive Werbung statt mit der Gießkanne, budget- und ressourcenschonend sowie transparent bis hin zu den Kunden und Lieferanten – die smarte Prospektsteuerung ist nur ein Beispiel für optimierte Angebote durch „data driven decisions“. Die MEDIA Central Group wird ihre datengetriebenen Geschäftsmodelle gezielt und kreativ weiter ausbauen. Dass QUNIS dafür der richtige Beratungs- und Implementierungspartner ist, steht für Rafael de Brito fest: QUNIS trägt wesentlich dazu bei, dass wir die Komplexität und Dynamik der digitalen Transformation der MEDIA Central Group erfolgreich meistern.“

Mehr zu MEDIA Central Group: Starke Marken für starke Kommunikationslösungen: Die MEDIA Central Group ist der ganzheitliche Lösungsanbieter für 360°-Angebotskommunikation. Auf Basis branchenweit einzigartiger Geo-Daten und der eigenen Expertise in der Datenanalyse erkennt die MEDIA Central Group übergeordnete Zusammenhänge und bietet Kunden maßgeschneiderte Empfehlungen für erfolgreiche Handelskommunikation. Die MEDIA Central Group versteht sich als Reichweitenmanager und bringt die Werbebotschaft ihrer Kunden zur richtigen Zeit zur richtigen Zielgruppe.

Die Gruppe vereint unter ihrem Dach den marktführenden Spezialisten für haptische Angebotskommunikation MEDIA Central, die europaweit führende Drive-to-Store Technologieplattform ShopFully, die europaweit führenden Experten für digitale Angebotskommunikation Offerista Group, die Data-Science-Experten für den Moment der Kaufentscheidung Yagora sowie die Auslandsgesellschaften MC Tschechien und MC Polen. Als Marktführer in der unadressierten Haushaltswerbung steuert MEDIA Central jährlich über 15 Milliarden Prospekte. Die Offerista Group ist Europas größtes Netzwerk für digitales Handelsmarketing und bündelt im eigenen Native Network über 1.400 Plattformen und Reichweitenpartner. Als Experten für den Moment der Kaufentscheidung analysiert und optimiert die Yagora Maßnahmen im Bereich Shopper Marketing und ermöglicht so die Steigerung der POS-Performance. Die Gruppe ist mit über 900 Mitarbeitenden an 21 Standorten vertreten und betreut heute Kunden in über 30 Ländern aus allen Branchen. Mehr Informationen: . https://corporate.media-central.de/

Mehr zu QUNIS StrategieberatungQUNIS Strategie

Microsoft Fabric – Data Driven in einer Technologie 

Erstellt am: Donnerstag, 1. Juni 2023 von Monika Düsterhöft

Microsofts konsequente Reise hin zur Datendemokratisierung 

Letzte Woche hat Microsoft auf der “Build-Konferenz” einige Neuerungen vorgestellt. Unsere Data & Analytics Ohren sind dabei natürlich insbesondere bei dem Thema “Microsoft Fabric” hellhörig geworden. Seitdem ist ein bisschen Zeit vergangen, die wir genutzt haben, das Neue von Microsoft einmal intern in unseren Innovation Labs und mit unseren Kunden zusammen genauer unter die Lupe zu nehmen. 

Alles unter einem Dach

Mit Microsoft Fabric wiederholt Microsoft sein Power BI-Erfolgsrezept und bündelt eine ganze Palette an Werkzeugen, auch aus dem Datenmanagement Bereich, unter einem neuen Dach. Das Dach heißt Microsoft Fabric.

Die Werkzeuge umfassen alles, was das Data (& Science)-Herz begehrt:  Data Integration, Data Engineering, Data Warehousing, Data Science, Real Time Analytics und Power BI selbst. Dabei sind die meisten Funktionen, die sich hinter diesen Diensten verbergen, nicht komplett neu in Azure, so ist in der Fabric Data Integration ein großes Stück Azure Data Factory zu finden, und auch das Data Engineering Feature hat die Besten Stücke rund um die serverless Spark Pools in Azure Synapse erhalten. 

Was auffällt ist die Einfachheit, mit der es Microsoft gelungen ist, all die Dienste im neuen Haus unterzubringen.

Das gelingt insbesondere durch zwei konsequent verfolgte Prinzipien:

  • SaaS überall! Der Fokus bei Microsoft Fabric ist auf Software-as-a-Service (SaaS) ausgelegt. Das heißt: Kein händisches verwalten von Servern! 
  • Ein gemeinsamer Standard: Onelake & Delta Lake. Alle Daten in Microsoft Fabric (ja, auch die im „Warehousing“ Bereich), werden in Onelake als Delta Tabellen gespeichert. Das ermöglicht den nahtlosen Wechsel von Werkzeugen in Microsoft Fabric basierend auf dem immer gleichen Daten & Zugriffen, die durch Onelake sichergestellt werden. Wir hoffen in Zukunft auch noch auf die Unterstützung von Iceberg. 

Neben der ganzen Nutzerfreundlichkeit und Einfachheit mit der Microsoft die Dienste im Fabric bündelt, gibt es zudem ein paar handfeste technologische Neuerungen:  

Mit „Direct Lake“ ist es nun möglich Dateien auf dem Lake aus Power BI abzufragen, OHNE dass wir zusätzlichen Compute wie z.B. Synapse Serverless benötigen oder etwa die Datasets regelmäßig aktualisieren müssen, um ein maximal performantes Nutzererlebnis durch importierte In-memory-Daten zu ermöglichen. Etwas ähnliches hat Tableau & Databricks über Delta Share zwar schon vor zwei Jahren angekündigt (Link), allerdings ist die Funktion bis heute nicht öffentlich verfügbar. Danke Microsoft für dieses Schmankerl! 

Auch Onelake fällt in eine Box, für die wir in unserem Beraterlager noch gar kein Label haben: Während Onelake viele aus dem Azure Data Lake Store Gen 2 (ADLS Gen 2) bekannte Funktionen mitbringt, hat auch hier Microsoft nochmal einen draufgesetzt: Es ist nun möglich mit dem altbekannten „abfss“-Treiber über OneLake nicht nur auf Daten in der Azure Cloud zuzugreifen und den Zugriff zu steuern, sondern sogar verbundene S3 Buckets können abgefragt werden. Für Abfragewerkzeuge innerhalb des Fabrics ist zusätzlich auch Row- und Columnlevel Security angekündigt. Das dies nur innerhalb des Fabrics funktioniert ist zwar schade, aber aus technischer Sicht absolut nachvollziehbar. 

Mit Fabric entwickelt sich Microsoft in die absolut richtige Richtung

Die Einfachheit mit dem Microsoft es schafft die Komplexität aus den verschiedensten Data Domänen zusammenzubringen hat uns wirklich beeindruckt. Damit rücken insbesondere alle Themen rund um Data Engineering ein gutes Stück näher an den Großteil der Datennutzer in Unternehmen. Und während das natürlich keine Ausrede für unsauberes Datenmanagement ist, kann Transparenz und Einfachheit gerade im Bereich Daten gar nicht hoch genug bewertet werden. 

Early Adopters aufgepasst: Aktuell gibt es noch viele Features die zwar angekündigt, allerdings aktuell noch nicht verfügbar sind. Das fällt uns bei der No-code-Komponente Data Activator deutlich einfacher als mit der fehlenden Zugriffssteuerung auf Tabellenebene.  

Unser Tipp: Wenn Sie mehr über Fabric wissen wollen, folgen Sie uns auf LinkedIn und Xing oder abonnieren Sie einfach unseren Newsletter. Wir bleiben an der Fabric dran und halten Sie über unsere Erkenntnisse und Learnings informiert.

Beurer: Zentrale Datenplattform für wachsende Unternehmensgruppe

Erstellt am: Montag, 23. Januar 2023 von Anja Gorbach

Die 1919 gegründete Beurer GmbH ist heute Marktführer im Segment Gesundheit und Wohlbefinden. Mit der Hilfe von QUNIS hat die erfolgreiche Unternehmensgruppe ein zentrales Data Warehouse aufgebaut und ein zukunftsfähiges Datenmanagement für das unternehmensweite Reporting etabliert.

Wir haben auf die Expertise, die Projekterfahrung und den Marktüberblick von QUNIS vertraut. Damit konnten wir im Data Warehouse-Projekt von Anfang an die richtigen Weichen stellen.


Florian Merk,
Leiter Controlling,
Beurer GmbH

Modernisierung der BI-Landschaft

Das Controlling der Beurer GmbH verfügt über viel BI-Erfahrung. Beurer hat bereits frühzeitig auf BI-Systeme der ersten Produktgeneration gesetzt und seine Berichtslandschaft seitdem kontinuierlich ausgebaut.

Seit einem Systemwechsel im Jahr 2011 ist das erfolgreiche Unternehmen allerdings stark gewachsen. Heute ist Beurer eine international aufgestellte Unternehmensgruppe mit über 30 Gesellschaften. Damit kam die grundlegende BI-Datenarchitektur zunehmend an ihre Grenzen. Die vorhandene einfache Staging Area mit dem ERP-System proAlpha als Vorsystem war nicht mehr ausreichend.

Beurer benötigte stattdessen ein Data Warehouse (DWH), in dem die heterogenen Datenquellen aller Tochtergesellschaften zusammenlaufen. Sowohl die Datenanlieferung an das zentrale Controlling als auch das Berichtswesen in die Unternehmensgruppe sollte auf dieser Grundlage wesentlich erweitert werden.

Data Warehouse mit hohem Automatisierungsgrad

Die Controller hatten klare Vorstellungen: Ziel war ein skalierbares Data Warehouse mit hohem Automatisierungsgrad, das der Fachbereich selbst steuern und weiterentwickeln kann. Die neue BI-Umgebung sollte außerdem die erste Cloud-Applikation bei Beurer werden. Um die nachhaltige Implementierung sicherzustellen und mögliche Umwege im Projekt oder spätere Sackgassen zu vermeiden, setzte das Projektteam auf QUNIS als Beratungs- und Implementierungspartner und vertraute auf die Expertise, die Projekterfahrung und den Marktüberblick.

Nach der Anforderungsanalyse, für die auch Wünsche der Berichtsempfänger zusammengetragen wurden, hat QUNIS zusammen mit den BI-Experten von Beurer das Data Warehouse in der Microsoft Azure Cloud implementiert. Viele Strukturen und Geschäftslogiken konnten dabei aus dem bestehenden Sales- und Finanzreporting übernommen werden.

Um eine konsistente, ausbaufähige Datenplattform zu schaffen, wurden im Rahmen der Implementierung auch Stammdaten harmonisiert. Das QUNIS Data Warehouse Framework (QDF) war hilfreich beim Design und der Etablierung von standardisierten Strukturen und Datenmodellen. Auf dieser Basis können beispielsweise zusätzliche Datenquellen angebunden, internationale Gesellschaften integriert und neue fachliche Themen auf einheitlicher Datenbasis abgebildet werden. Der hohe Automatisierungsgrad sorgt zudem für die sichere und einfache Administration im laufenden Betrieb.

Betrieb und Ausbau in der Fachabteilung

Während der Implementierung fand bereits der Know-how-Transfer ins Team von Beurer statt. Den weiteren Ausbau des DWH, die Anbindung der Tochtergesellschaften und die Ausgestaltung der Reports und das Rollout des Berichtswesens hat das Controlling seitdem selbst übernommen. Marc Hofmann, verantwortlich für das BI-Backend, bestätigt:

„QUNIS hat uns im Laufe des Projekts gut in das Data Warehousing eingearbeitet. Die Weiterentwicklung und das Rollout führen wir eigenständig durch.“

Bei der Auswahl des neuen Frontends Microsoft Power BI hat QUNIS ebenfalls unterstützt. Beurer wird sein neues Berichtswesen über Power BI schrittweise im gesamten Unternehmen ausrollen. Derzeit läuft das neue System parallel mit der vorigen Lösung, mit Absprungmöglichkeiten aus dem Altsystem. In einer zeitlich ausgedehnten Übergangsphase mit internem Schulungskonzept können sich die Nutzer allmählich mit der neuen Lösung vertraut machen.

Hohe Akzeptanz bei den Nutzern

Die Nutzungszahlen nach dem Rollout in Deutschland und in der Schweiz als erster Tochtergesellschaft sprechen schon jetzt für eine hohe Akzeptanz im Unternehmen. Im ersten Schritt wurden bereits 22 Reporting-Mappen aufgebaut. Schon vor Anbindung der internationalen Tochtergesellschaften greifen 120 User regelmäßig auf die neue Berichtsumgebung zu, mit stark steigender Tendenz. Die wichtigsten Reports werden derzeit 1.200 mal pro Monat geöffnet. Andreas Traut, zuständig für das BI-Frontend, stellt fest:

„Die Modernisierung kam zur richtigen Zeit. In den heutigen diffusen Märkten brauchen unsere Fachbereiche und Gesellschaften verlässlichen Kennzahlen; das Interesse am Reporting ist entsprechend stark gestiegen.“

Self-Service-BI mit klarer Datenhoheit

Fachlich liegt der Fokus derzeit auf dem Umsatzreporting mit klassischen vertrieblichen Steuerungsgrößen wie Deckungsbeiträgen und Margen. Neben differenzierten Informationen zu den Außenumsätzen der Tochtergesellschaften liegt der Fokus zukünftig vor allem auf Auswertungsmöglichkeiten konsolidierter Kennzahlen auf Konzernebene. Auf dieser Basis kann das Controlling der Unternehmensgruppe ein detailliertes Reporting zur Verfügung stellen.

Hinsichtlich der Informationsversorgung setzt Beurer schon seit Jahren auf Self-Service BI. Die Fachbereiche nutzen dabei auch unterschiedliche Ausgabeformate, z. B. Powerpoint-Folien mit Produktfotos im Produktmanagement. Dabei werden Power BI Berichtsseiten mit Live-Daten in Powerpoint eingebunden. Somit lassen sich schnell professionell aufbereitete Powerpoint-Präsentationen erstellen und monatlich auf den aktuellen Stand bringen.

Die Controller arbeiten natürlich nach wie vor gerne in Excel, das ebenfalls mit Live-Daten aus dem Data Warehouse gefüllt wird. Damit sind sehr flexible und individuelle Auswertungen für die Nutzer möglich.

Wichtig ist den projektverantwortlichen Controllern, dass sie mit dem Data Warehouse den Single Point of Truth (SPOT) und damit die Datenhoheit in der Hand haben – die wesentliche Voraussetzung für vertrauenswürdige Informationen und einheitliche Kennzahlendefinitionen.

Skalierbare Datenarchitektur

Mit dem zentralen Data Warehouse hat Beurer die Grundlage für seine unternehmensweite Datenplattform geschaffen. Der durchdachte Aufbau und die Vorteile der guten Vorarbeit im Backend wurden in späteren Projektphasen z. B. beim Berichts-Design und beim Rollout offensichtlich. Florian Merk hält fest:

„Bei der Ausgestaltung des Frontend-Bereichs wurde deutlich, dass QUNIS beim Aufbau des Data Warehouse weit vorgedacht hat. Wir können flexibel auf einer sauberen Datenbasis und strukturierten Logiken aufsetzen.“

 Auch die Einführung der einfach skalierbaren Cloud-Technologie war richtungsweisend für die Unternehmensgruppe. Inzwischen wurden bei Beurer weitere Projekte in der Azure-Cloud umgesetzt, die vom DWH-Projekt als Pilotanwendung profitieren konnten.Das Controlling-Team wird im nächsten Schritt alle Tochtergesellschaften an die Plattform anbinden.

Auch die fachliche Erweiterung ist bereits geplant. Zunächst soll das Reporting für die Bereiche Marketing und E-Commerce dazukommen, um danach schrittweise weitere Fachbereiche einzubinden.

Mehr zur Beurer GmbH: Die Beurer GmbH ist seit 1919 Marktführer im Segment Gesundheit und Wohlbefinden. Mit dem umfangreichen Sortiment in den fünf Produktbereichen wellbeing, medical, beauty, active und babycare bietet Beurer professionelle Produkte für die Heimanwendung – von Heizkissen, Personenwaagen, Massagegeräten und einem Produktsortiment zum Erhalt eines optimalen Raumklimas über spezielle Medizinprodukte wie Blutdruckmessgeräte und Blutzuckermessgeräte sowie Inhalatoren und Fieberthermometer bis hin zu Beautygeräten und Lifestyleprodukten.

Mehr zu QUNIS StrategieberatungQUNIS Strategie

Murrelektronik: Umstellung der BI-Landschaft auf SAP Datasphere

Erstellt am: Donnerstag, 12. Januar 2023 von Anja Gorbach

Murrelektronik ist ein global tätiger Spezialist für dezentrale Automatisierungstechnik. Das Controlling der Unternehmensgruppe hat in Zusammenarbeit mit QUNIS seine BI-Landschaft auf die SAP-Cloud umgestellt. Ein spannendes Projekt, weil das Tool SAP Datasphere zum Einführungszeitpunkt noch neu auf dem Markt war und selbst bei SAP kaum Praxiserfahrung vorlag.

In der komplett neuen Produktumgebung war ein fester Projektplan kaum einzuhalten. QUNIS hat sehr flexibel und agil mit uns zusammengearbeitet und die Datasphere Implementierung Schritt für Schritt mit uns umgesetzt.


Rafael Theiss,
Business Data Analyst,
Murrelektronik GmbH

SAP Datasphere-Implementierung als Pilotprojekt

Murrelektronik ist mit Niederlassungen, Produktions- und Logistik-Standorten sowie Vertriebspartnern in 50 Ländern weltweit vertreten. Die vorhandene BI-Lösung, die von einem externen Beratungshaus betreut wurde, konnte das Reporting für den agilen Konzern nicht mehr abdecken. Vor allem die fehlende Flexibilität bei nötigen Anpassungen war problematisch; die erforderliche Umsetzungsgeschwindigkeit neuer Anforderungen war in dieser Konstellation nicht mehr zu gewährleisten.

Das zentrale Controlling wollte daher seine BI-Plattform modernisieren und im eigenen Haus ansiedeln, um die Datenmodelle selbst nach Bedarf anpassen zu können. Im Konzern mit starker SAP-Strategie lag der Umstieg auf SAP-Tools für die neue BI-Umgebung nahe.

Besonders das noch relativ neu am Markt eingeführte SAP Datasphere bot für die Controller ein interessantes Konzept: Als Cloud-Technologie ist es kosteneffizient einzuführen und einfach skalierbar. Ein wichtiger Vorteil ist zudem die anwenderorientierte Entwicklung: Mit den sogenannten Spaces stellt SAP Datasphere einen Business Layer für die Datenmodellierung zur Verfügung, über den Fachbereiche ihre eigenen Datensichten erstellen können. Das vereinfacht die Steuerung des DWH im Controlling und schafft die Voraussetzung für Self-Service-Szenarien im gesamten Unternehmen.

Die Entscheidung für SAP Datasphere stand zu Projektbeginn fest. Als mögliche Frontends schauten sich die Controller auch Tools außerhalb der SAP-Welt an. SAP Analytics Cloud (SAC) in Kombination mit Datasphere stellte sich dabei als die beste Lösung für Murrelektronik heraus.

Mit QUNIS gemeinsam DWH-Neuland betreten

Bei der Suche nach einem Realisierungspartner war dem Projektleiter Rafael Theiss klar, dass es so kurz nach Markteinführung von SAP Datasphere keinen Dienstleister mit großer Implementierungserfahrung für dieses Tool geben konnte.

Im Auswahlverfahren überzeugte QUNIS durch seine umfangreiche Erfahrung in den Bereichen Data Warehousing, BI und Analytics mit Cloud- und On-Premise-Technologien, gepaart mit sehr hohem Engagement und Interesse an der Datasphere-Umgebung. Rafael Theiss, Business Data Analyst bei Murrelektronik, sah darin die besten Voraussetzungen für eine erfolgreiches gemeinsames Implementierungsprojekt im DWH-Neuland.

Agile Zusammenarbeit im Team

Nach ersten Vorarbeiten Ende 2020 startete die Implementierung mit Systemzugriff für das Projektteam auf die Datenquellen und das Altsystem im März 2021. Zunächst arbeiteten hauptsächlich Rafael Theiss und die QUNIS-Beraterin an der Umsetzung.

Rafael Theiss hebt besonders den Einsatz der QUNIS-Beraterin hervor, die mit hohem Engagement und lösungsorientiertem Vorgehen wesentlich zum Projekterfolg beitrug. Bei der Schnittstellen-Definition wurde das Kernteam durch die IT-Abteilung unterstützt. Auch die Key User der Anwendung wurden zunehmend einbezogen. Erst in späteren Projektphasen kam dann ein „SAP Development Angel“ dazu, der hilfreiches Produktwissen einbringen konnte.

Wichtig für das Gelingen des Projekts war die flexible Reaktion von QUNIS auf den Projektstatus. Durch vielfältige Herausforderungen im Pilotprojekt verzögerte sich der geplante Rollout-Termin um sechs Monate. QUNIS begleitete das Team von Murrelektronik auch über die ursprüngliche Projektplanung hinaus bis zum erfolgreichen Go live und steht auch weiterhin als Ansprechpartner für die Controller bereit.

Weltweite Datenplattform für über 600 Anwender

Seit Februar 2022 ist die Berichtsplattform weltweit bei Murrelektronik verfügbar. Nach einer kurzen Übergangsphase, in der Neu- und Altsystem parallel liefen, erfolgte der konsequente Umstieg in die SAP Cloud, die seitdem als zentrale Berichtsumgebung mit einheitlicher Datenbasis im Konzern etabliert ist.

Fachlich hat das Projektteam das umfangreiche Reporting aus dem Altsystem übernommen und optimiert. Das neue Data Warehouse ist als ganzheitliche Lösung für derzeit 600 Anwender konzipiert. Kernthemen sind das Finanz- und Vertriebscontrolling, wobei auch vielfältige Analysen im operativen Bereich zur Verfügung stehen. Hauptsächliche Datenquelle für die Auswertungen ist SAP ERP. Um das Analysespektrum zu erweitern, wird derzeit auch Salesforce als Quellsystem integriert.

Ein wesentlicher Anspruch des zentralen Controllings ist dabei die Anwenderfreundlichkeit: Jeder soll das System einfach nutzen und verstehen können. Dazu trägt auch das Frontend SAP Analytics Cloud (SAC) bei, über das die Anwender komfortabel per Web auf ihre Berichte und Analysen zugreifen können.

Neue fachliche Anforderungen schnell umsetzen

Mit dem erfolgreich abgeschlossenen Projekt gehört Murrelektronik zu den Vorreitern beim Einsatz von SAP Datasphere mit SAP SAC. Die Projektziele sind erreicht: der Wechsel der Plattform, die Verlagerung der Systemsteuerung ins eigene Haus und der Aufbau der entsprechenden internen Kompetenzen sind gelungen. Auch der Plan, mit dem anwenderorientierten Datasphere die Taktzahl im Anforderungsmanagement zu erhöhen, ist aufgegangen.

Rafael Theiss bestätigt: Mit SAP Datasphere haben wir die Datenmodelle im Controlling selbst in der Hand und können unser Data Warehouse jederzeit an neue Anforderungen anpassen.“ 

Die Anwender profitieren von übersichtlich visualisierten Daten im modernen Frontend. Anstelle der vorigen Excel-Tabellen stehen nun Berichte mit dynamischen Grafiken bereit. Die Berichtempfänger haben zudem deutlich mehr Auswertungen zur Verfügung und können selbst Analysen fahren.

Das zentrale Controlling verfolgt hier ein Self-Service-BI-Konzept (SSBI), das über die jeweiligen Key User konzernweit etabliert wird. Auch hinsichtlich der SSBI-Strategie hat sich SAC zwischenzeitlich als das passende Frontend für Murrelektronik erwiesen.

Nachdem im Rahmen der Implementierung vielfältige neue Anforderungen umgesetzt wurden, wird die Applikation derzeit mit Blick auf die Anwenderorientierung nachgeschärft. Wichtige Anliegen sind Rafael Theiss auch der Know-how-Aufbau im Umgang mit der Datenplattform in der gesamten Nutzergemeinde und die Sicherung der Datenqualität. Im nächsten Ausbauschritt soll das Data Warehouse dann um ein Planungstool ergänzt werden.

Mehr zur Murrelektronik GmbH: Murrelektronik ist ein führendes Unternehmen in der Entwicklung und Herstellung hochmoderner dezentraler Automatisierungstechnik für Maschinen und Anlagen. Das Unternehmen konzentriert sich dabei auf vier Kernbereiche: Stromversorgung, Schnittstellen, Anschlussleitungen und IO-Systeme. Innovative Produkte in herausragender Qualität, eine ausgeprägte Markt- und Kundenorientierung machen Murrelektronik einzigartig und verbessern die Maschinen und Anlagen der Kunden.

Mehr zu QUNIS StrategieberatungQUNIS Strategie