Archiv für die Kategorie Reporting

Melitta Single Portions: Entwicklung und Betrieb des Data Warehouse aus einer Hand

Erstellt am: Montag, 17. Juni 2024 von Anja Gorbach

QUNIS hat bei Melitta Single Portions ein Data Warehouse implementiert und betreut seitdem den Betrieb und die Weiterentwicklung der Cloud-Lösung. Mit „QUNIS Care & Run“ erhält das junge Unternehmen professionellen Rundum-Service und kann sich verstärkt auf den Ausbau seines innovativen Geschäftsmodells konzentrieren.

QUNIS ist Teil unseres Teams. Der Elan und die Motivation im Team machen die Zusammenarbeit so besonders und bringen uns täglich voran.

Angela Musić-Siedler,
BI-Leiterin, Melitta Single Portions

Data Warehouse für innovatives Start-up

Seit 2019 hat sich Melitta Single Portions mit seiner Marke Avoury® am Markt für einzelportionierten Tee positioniert. Parallel hat das Unternehmen seine IT-Landschaft komplett neu „auf der grünen Wiese“ aufgesetzt, inklusive Data Warehouse als Grundlage für das Reporting und die Unternehmenssteuerung.

Die BI-Leiterin Angela Musić-Siedler, die das Thema anfangs allein bearbeitete, holte sich im Jahr 2019 QUNIS als erfahrenen Beratungs- und Implementierungspartner zur Seite. Die Zusammenarbeit startete mit einem Workshop zur Konzeption des Data Warehouse. Auch die Produktauswahl hat QUNIS begleitet. Als Technologien sind Microsoft Azure SQL und das Frontend Pyramid Analytics im Einsatz.

Mit der Cloud-Lösung kann das Start-up-Unternehmen die Kosten sicher planen und die benötigten IT-Ressourcen entsprechend dem Firmenwachstum schnell ausbauen. Das Frontend wurde drei Jahre nach der Inbetriebnahme erneut evaluiert und weiterhin als die passende Lösung bestätigt.

Die Implementierung fand auf Basis des QUNIS Data Warehouse Framework (QDF) statt, das die effiziente Umsetzung einer standardisierten und hoch automatisierten IT-Architektur gewährleistet. QUNIS hat verschiedene Datenquellen wie SAP, Salesforce oder Google Analytics zu einer zentralen Datenbasis für das Reporting zusammengeführt. Inzwischen sind rund zehn Vorsysteme integriert.

Standardreports für jeden Fachbereich

Hinsichtlich des Standardreportings lautete das Ziel, dass von Anfang an jeder Fachbereich einen Bericht mit seinen wichtigsten Kennzahlen erhalten sollte.

Eine wesentliche Herausforderung bestand dabei im neuen Geschäftsmodell des Startups: Da zum Zeitpunkt der Implementierung die Produkte noch nicht auf dem Markt waren, lagen noch keine konkreten Verkaufszahlen für die Belegung der Datenmodelle und Berichte vor. Avoury® arbeitet über den eigenen Shop mit dem DTC (Direct to Consumer)-Ansatz. Das Kundenverhalten und die Kundenzufriedenheit sind dabei ein zentrales Thema der BI-Analysen.

Inzwischen gibt es 45 Berichte für alle Fachbereiche. Die Schwerpunkte liegen derzeit auf dem Ist-Reporting von Sales- und Finanzkennzahlen; die Planung soll in einem späteren Ausbauschritt dazukommen. Einen Überblick über die wichtigsten Steuerungskennzahlen ruft die Geschäftsführung täglich auf ihrem Smartphone ab.

Steuerungsinformationen aus der Teemaschine

Wertvolle Steuerungsinformationen liefern zudem die verkauften Avoury® Teemaschinen. Nach Zustimmung durch den Kunden kann Melitta Single Portions den Lebenszyklus, Updates oder Wartungsdaten der smarten Maschinen online auslesen. Im Servicefall hat so der Melitta-Support Zugriff auf die Daten und kann den Endkunden gezielt unterstützen. Auch Nutzungsinformationen wie die verwendeten Teesorten erkennt die Maschine.

Durch die Auswertung der Maschinendaten erhält Melitta Single Portions Einblick in das Kundenverhalten, zu dem es bislang wenig Erfahrungs- und Vergleichswerte gab. Auch die Klassifizierung und Analyse von Retouren liefern Hinweise für das Qualitätsmanagement und die Erhöhung der Kundenzufriedenheit. 

Durch die BI-Lösung kennen wir unsere Kunden, können gut informierte Entscheidungen treffen und unser Unternehmen gezielt steuern.

Strukturierte Weiterentwicklung

Für die Weiterentwicklung des Berichtswesens hat das Team ein strukturiertes Anforderungsmanagement etabliert.

  • Die Aufnahme und Spezifikation der Anforderungen aus den Fachbereichen übernimmt Melitta Single Portions intern.
  • QUNIS sorgt dann für die Umsetzung im Backend: den Datenload aus den Vorsystemen, den Aufbau von Business-Logiken und den standardisierten Ausbau des Datenmodells.
  • Die gemeinsame Entwicklungsarbeit erfolgt in einem agilen Ansatz mit definierten Sprints. Zur Planung der Sprints samt Personaleinsatz nutzt das Team Azure DevOps.

Sicherheit durch QUNIS Care & Run

Außer der Entwicklung unterstützt QUNIS auch den Systembetrieb. Im Rahmen der Care & Run Services kümmert sich das Support- und Wartungsteam von QUNIS um die Produktiv- und Testumgebung des Data Warehouse in der Azure Cloud.

So prüfen die IT-Experten täglich, ob der nächtliche Datenload zum Data Warehouse störungsfrei abgelaufen ist. Gründe für einen abgebrochenen Ladelauf können u .a. Wartungsarbeiten an einem der Vorsysteme innerhalb der Melitta Group oder die Passwortänderung einer Datenquelle sein, die dann für die BI-Anwendung nachgezogen wird.

Durch Fehler-Alerts, ein strukturiertes Ticketsystem und die Bearbeitung auf Basis definierter SLAs gewährleistet QUNIS den durchgängig sicheren und stabilen Systembetrieb.

In monatlichen Meetings bespricht das BI-Team mit den Experten von QUNIS Themen wie inhaltliche Auffälligkeiten, Möglichkeiten zur weiteren Automatisierung oder effiziente Kommunikationsregeln, um den Systembetrieb kontinuierlich weiter zu optimieren. Einige Erkenntnisse aus dieser Zusammenarbeit sind bereits in die Weiterentwicklung der QUNIS Care & Run Services eingegangen.

Hohe Planungssicherheit

Die Zusammenarbeit mit QUNIS ermöglicht Melitta Single Portions auch mit weniger Personalressourcen den Betrieb und Ausbau einer professionellen und hochmodernen Berichtsumgebung. In Kombination mit der Cloud-Infrastruktur sind die Personal- und IT-Ressourcen gezielt skalierbar.

Das BI-Team kann flexibel auf Anforderungen aus dem Unternehmen reagieren und sich dabei jederzeit auf eine stabile IT-Umgebung verlassen. Bei Fragen stehen fachlich und technisch versierte Ansprechpartner von QUNIS zur Verfügung, die die gemeinsam entwickelte Systemlösung selbst gut kennen.

Wir schätzen die Kompetenz und Zuverlässigkeit
der QUNIS Experten und die Zusammenarbeit macht einfach Spaß.


Mehr zu Melitta Single Portions
: Melitta Single Portions ist innerhalb der Melitta Group für Produkte rund um die Heißgetränkezubereitung in Form der Einzelportionierung zuständig. Mit innovativen Lösungen und Produkten ist es das Ziel, einer der führenden, global agierenden Anbieter für einzelportionierte Heißgetränke zu werden. Seit November 2019 wird mit Avoury®, der ersten Marke von Melitta Single Portions, einzelportionierter Tee im Premium-Sortiment produziert und vertrieben. Mit der Avoury® One Teemaschine und über 30 Premium-Teesorten sorgt Avoury® für einen neuen, nachhaltigen und hochwertigen Teegenuss. www.melitta-group.com

Mehr zur QUNIS Implementierung

Danone: Sell-Out-Applikation in Lakehouse-Architektur

Erstellt am: Montag, 5. Februar 2024 von Anja Gorbach

Danone gehört zu den führenden Lebensmittelherstellern weltweit. Eine globale Plattform für Data & Analytics hilft bei der operativen und strategischen Steuerung des Konzerns. Für den Bereich Danone D-A-CH hat QUNIS eine Sell-Out-Applikation realisiert, die sich nahtlos in die zentrale Datenplattform einfügt.

Wir waren uns sicher, dass QUNIS den Use Case in selbstständiger Arbeit erfolgreich abliefert.

Tobias Riedner,
Head of IT  Data & Analytics, Danone Deutschland GmbH

Data Journey bis 2025

Danone verfolgt eine konsequente Digitalisierungsstrategie. Im Jahr 2020 hat das Unternehmen eine auf fünf Jahre angelegte Initiative zu den Themen Cloud, Data Products und Data Driven Decisions gestartet und in diesem Rahmen eine zentrale Datenplattform für Data Sourcing und Provisioning aufgebaut. Seit dem Rolling Out der „One Source“-Plattform im Jahr 2022 werden kontinuierlich neue Use Cases aufgesetzt.

Die benötigten Datenprodukte für die Anwendungen werden vom Bereich IT Data & Analytics zur Verfügung gestellt und gewartet. Für die Umsetzung einer Sell-Out-Applikation hat das IT-Team QUNIS als Implementierungspartner hinzugezogen. Die internen Core DevOp Teams, die unternehmensweit Datenprodukte bereitstellen, hatten zu diesem Zeitpunkt nicht die nötigen Kapazitäten für diesen strategisch wichtigen Use Case. Als zentrales Steuerungsinstrument für den Bereich Danone D-A-CH wurde der Sell Out Use Case jedoch dringend benötigt.

Use Case an QUNIS delegiert

QUNIS war bei Danone bereits seit Jahren als projekterfahrener Experte für Data & Analytics bekannt. Für Tobias Riedner, Head of IT Data & Analytics der Danone Deutschland GmbH, war daher klar, dass er sich auf QUNIS als kompetenten Implementierungspartner verlassen kann: „Wir waren uns sicher, dass QUNIS den Use Case in selbstständiger Arbeit erfolgreich abliefert.“

Im Projekt galt es, den spezifischen Use Case im Rahmen der vorgegebenen globalen Referenzarchitektur umzusetzen. Die One-Source-Datenplattform von Danone ist ein Data Lakehouse auf der Basis von Microsoft Azure, mit vielfältigen Vorsystemen, mit Databricks und Snowflake Datenspeichern und Power BI als Frontend für die Berichtsempfänger.

Für Tobias Riedner war wichtig, dass QUNIS in dieser Technologieumgebung eine große Expertise und umfangreiche Projekterfahrung mitbringt. Aber auch die Tatsache, dass QUNIS zuvor bereits eine ähnliche Anwendung mit anderer Technologie umgesetzt hatte, sprach für eine schnelle und sichere Implementierung.

Wichtige Steuerungskennzahlen

Der Sell Out Use Case ist eine klassische BI-Anwendung, allerdings fachlich und hinsichtlich des Datenmanagements sehr komplex. Danone vertreibt seine Produkte fast ausschließlich als B2B-Händler an den Einzelhandel. Der Verkaufspreis an Händler wie Aldi oder ReWe wird als „Sell In“ geführt. Zu welchem „Sell-Out“-Preis der jeweilige Einzelhändler die Produkte an die Konsumenten abgibt, ist für Danone eine wesentliche Information für die Preissteuerung. Aus der Marge zwischen Sell In und Sell Out, oder der Sell-Out-Nachfrage für das Produkt, ergeben sich Hinweise zur Preissensitivität der Endkunden, die wiederum Auswirkungen auf die eigene Preisgestaltung und darüber hinaus auch auf die Produktions- und Lagersteuerung oder auf Marketingaktionen haben.

Datenmanagement automatisiert

Danone erhält für diese Analyse Flat-Files von den Einzelhändlern, die vor der Neuimplementierung manuell gesammelt und aufbereitet wurden. Die Prüfung und Zusammenführung der Daten war zuvor entsprechend aufwändig und fehleranfällig. Wegen des hohen Aufwands war zudem nur eine monatliche Aktualisierung möglich.

Die Data Engineers von QUNIS haben das Datenmanagement neu aufgesetzt. Die teilautomatisiert gesammelten Dateien der Händler werden nun intern vollautomatisch verarbeitet, in das Data Lakehouse integriert und zur Auswertung bereitgestellt. Eine wesentliche Herausforderung im Projekt war dabei die Harmonisierung von Hunderten angelieferter Excel- und Textfiles, u. a. auch mit unterschiedlichen Berichtszeiträumen der Händler.

© Burda Food Agency / Katrin Winner

Leistungsstarke Datenmodelle

Bei der Datenmodellierung war die fachliche Expertise von QUNIS gefragt. Die performanten Datenmodelle ermöglichen schnelle und flexible Auswertungen für unterschiedliche Fachbereiche. Das Datenprodukt wird für die Abteilung Price Revenue Growth Management (PRCM) bereitgestellt, die diese wiederum für Reporting und Analyse in verschiedenen Fachbereichen aufbereitet. Im Rahmen des PRCM-Prozesses können nun Bereiche wie Sales, Key Account Management oder Produktion ihre Fragen zur Preissensibilität der Endkunden mit flexibler Sicht auf die Verkäufe, Preise, Händler oder Regionen beantworten, Produktionsmengen steuern oder Lieferungen zu Händlern oder in bestimmte Regionen präzise terminieren. Tobias Riedner fasst zusammen: 

 Die Sell-Out-Applikation ist für unsere Unternehmenssteuerung unverzichtbar. Dank QUNIS sind die aktuellen Kennzahlen heute auf Knopfdruck verfügbar.


Kompetenter Implementierungspartner

QUNIS wurde bei Danone vor allem als Experte für Data Engineering eingesetzt. Wichtig ist dabei jedoch auch der Blick für das Big Picture der globalen Datenplattform. Die Architektur der Sell-Out-Lösung fügt sich nahtlos in die Gesamtarchitektur ein, kann im Rahmen der standardisierten Technologieumgebung beliebig ausgebaut werden und lässt sich zugleich an die ständig weiterentwickelte Datenplattform anpassen.

Die Zusammenarbeit mit QUNIS war großartig. Bei Bedarf werde ich jederzeit wieder darauf zurückgreifen.

Mehr zu Danone: Danone ist einer der führenden Hersteller von Lebensmitteln und medizinischer Ernährung in der D-A-CH-Region, der in vier Geschäftsbereichen tätig ist: Milchfrische, pflanzenbasierte Produkte, natürliches Mineralwasser und Erfrischungsgetränke sowie frühkindliche und medizinische Nahrung. Mit rund 2.300 Mitarbeitern an sieben Standorten sowie zwei international relevanten Werken produziert Danone D-A-CH über 1.000 unterschiedliche Produkte. Das Portfolio umfasst führende internationale und lokale Marken wie Actimel, Activia, Alpro, Aptamil, Volvic, evian, Fruchtzwerge, Nutrini, Fortimel und Neocate. Weltweit ist Danone mit mehr als 96.000 Mitarbeitenden in über 55 Ländern Marktführer in den Bereichen Dairy & Plant Based Products, Spezialized Nutrition und Waters. Die Danone Produkte sind in mehr als 120 Ländern erhältlich. Weitere Informationen: www.danone.de

Kostenfreies Whitepaper QUNIS Quick Guide to Open Lakehouse

Mehr zur QUNIS Implementierung

Schreiner Group: Implementierung eines Data Warehouse in der Cloud

Erstellt am: Dienstag, 12. Dezember 2023 von Anja Gorbach

Die Schreiner Group ist ein international tätiges Familienunternehmen, das innovative Hightech-Labels und Funktionsteile vor allem für die Pharma- und Automobilindustrie entwickelt und produziert. Mit zukunftsweisenden Produkten wie smarten RFID-Lösungen, Druckausgleichselementen für Elektronik-Gehäuse oder Schutzfolien erzielt die Schreiner Group einen Jahresumsatz von über 200 Millionen Euro. Die Controlling-Abteilung hat zusammen mit QUNIS ein Cloud-basiertes Data Warehouse implementiert. Die BI-Lösung bildet den Kern einer zentralen Datenplattform, die schrittweise im gesamten Unternehmen ausgerollt wird.

Unser Data Warehouse ist hoch professionell, standardisiert, nachvollziehbar und skalierbar. Die moderne Data & Analytics-Architektur erschließt SAP-Daten für unsere Fachbereiche.


Matthias Lindemann,

BI Solution Architect, Schreiner Group GmbH

Data & Analytics-Implementierung parallel zur SAP-Einführung

Im ersten Schritt sollte ein modernes Data Warehouse (DWH) implementiert werden, das eine einheitliche Datenbasis für Reporting und Analyse schafft. Die Systemarchitektur sollte dabei als ausbaufähige Datenplattform angelegt werden, die in späteren Projektphasen beispielsweise durch einen Data Lake ergänzt werden kann.

Der projektverantwortliche BI Solution Architect Matthias Lindemann hebt die hochprofessionelle und fokussierte Beratung durch QUNIS hervor: „Die Strategie-Workshops waren sehr effektiv. QUNIS hat uns gezielt zur passenden Data & Analytics-Lösung geführt.“

Nach der erfolgreichen Zusammenarbeit bei der Strategieentwicklung hat sich die Schreiner Group bei der Realisierung des Data Warehouse ebenfalls für QUNIS als Implementierungspartner entschieden. Das DHW-Projekt fand dabei unter besonderen Rahmenbedingungen statt: Die Schreiner Group löst ihr bestehendes ERP-System auf Basis einer AS/400-Datenbank schrittweise durch SAP ab. Dadurch ergibt sich derzeit ein Parallelbetrieb zweier ERP-Systeme mit ganz unterschiedlichen Datenstrukturen.

Ein wesentliches Ziel des neuen Data Warehouse ist, den Controllern und Fachanwendern einen einfachen Zugriff auf konsolidierte Daten aus beiden ERP-Systemen zu ermöglichen. Gerade im SAP-Umfeld werden sämtliche Ladestrecken neu konzipiert und schrittweise realisiert.

Pilotprojekt in der Cloud

Die Einführung von Azure war für die Schreiner Group aufgrund der speziellen Herausforderungen einer Cloud-Umgebung Neuland und erwies sich als aufwändiger als zunächst angenommen. QUNIS und die auf Cloud-Projekte spezialisierte Schwesterfirma TEQWERK, die zeitweise ebenfalls involviert war, waren hier insbesondere hinsichtlich der internen Positionierung des Projekts sehr hilfreich.

Matthias Lindemann erklärt, dass die professionelle Implementierung und Moderation u. a. die interne IT überzeugt, Vertrauen geschaffen und damit die Umsetzung der vom BI Board favorisierten Cloud-Lösung ermöglicht haben. Die Azure-Umgebung wird derzeit von der IT-Abteilung der Schreiner Group betreut. Eine Auslagerung an TEQWERK steht als mögliche Alternative im Raum.

Flexible Auswertung von SAP-Daten

Zum Aufbau des Data Warehouse kam das QUNIS Data Warehouse Framework (QDF) zum Einsatz. Das Vorgehensmodell mit Best Practices, Templates und vordefinierten Prozessen sorgt für eine schnelle und sichere Implementierung und Bewirtschaftung des Data Warehouse.

  • Der Schwerpunkt im Projekt lag auf der Erschließung der SAP-Daten für den Fachbereich. Auf Empfehlung von QUNIS wurden die SAP-internen Business Logiken nicht übernommen, sondern eigene Ladestrecken mit Direktzugriff auf die einzelnen SAP-Tabellen definiert. Damit erhält der Fachbereich höchste Flexibilität beim Aufbau und der Auswertung seiner Datenmodelle.
  • Bei der Integration der ersten Use Cases arbeitete das interdisziplinäre Projektteam bereits mit den neu geschaffenen Rollen aus Fachbereichen, Prozessexperten, IT und Führungskräften eng zusammen. Inzwischen sind die Power User aus den Fachbereichen mit den SAP-Strukturen so vertraut, dass sie eigenständig die benötigten SAP-Tabellen ermitteln und hinsichtlich ihrer Reporting- und Analyse-Relevanz beurteilen.
  • Die effiziente Zusammenarbeit zwischen Power Usern und den Data Managern aus der IT wird zudem durch das Data Dictionary unterstützt, das QUNIS in seinem QDF-Modell als Template bereitstellt. Die Power User nutzen das Tool als Drehbuch für die IT, um ihre Anforderungen professionell zu spezifizieren.

Auftragseingang als erster Use Case

Als erster Use Case wurde das Auftragseingangsreporting im Data Warehouse abgebildet. Im Prototyping-Verfahren wurden die ETL-Strecken und Datenmodelle definiert, der Auftragseingangsreport in Power BI abgebildet und die Lösung schrittweise weiter ausgefeilt.

Die Beteiligten der Schreiner Group haben sich im Projekt das entsprechende Know-how angeeignet und können nun das Umsatzreporting als zweiten Use Case komplett selbstständig aufsetzen. Matthias Lindemann benennt den Coaching-Ansatz von QUNIS als wesentlichen Vorteil: „Die Fachabteilung hat das Datenmodell verstanden und kann alle benötigten Auswertungen selbst zusammenstellen.“

Das neue Umsatz- und Auftragseingangsreporting vereint Informationen aus beiden ERP-Welten und wird das bestehende Sales Reporting aus dem bisherigen Reportingtool und Excel ablösen. Bisher arbeiten lediglich ausgewählte Power User und Controller mit Power BI. Ein Rollout von Power BI auf die End User und weitere Power User ist schrittweise je nach Umsetzung der nächsten Use Cases geplant.

Interne Weiterentwicklung

Mit dem Data Warehouse hat das Controlling schon während der SAP-Implementierung eine integrierte Berichtsplattform bereitgestellt. Ein wesentlicher Gewinn ist die im Lauf der Implementierung etablierte effektive Zusammenarbeit der Power User mit den Data Managern aus der IT auf Basis professioneller Requirements.

Die Power User haben die Datenbewirtschaftung und -bereitstellung heute selbst in der Hand und können die SAP-Daten flexibel auswerten. Auch die IT-Abteilung lobt das hoch automatisierte Data Warehouse, das einen sicheren Betrieb mit einfacher Wartung, strukturierter Weiterentwicklung und gleichbleibend hoher Performance gewährleistet: „Das Data Warehouse ist hoch professionell, standardisiert, nachvollziehbar und skalierbar.“ 

Die Data & Analytics-Plattform wird zunehmend verschiedene BI-Produkte und Insellösungen der Fachbereiche ersetzen, was die IT-Administration vereinfacht und Kosten für Software-Updates und diverse Lizenzen spart.

Organisatorisch hat das neu geschaffene BI Competence Team (BICT) unter der Leitung des Controllings hierfür bereits alle BI- und Analytics-Initiativen der Schreiner Group zusammengefasst. Darüber hinaus gestaltet das BICT die Weiterentwicklung der unternehmensweiten Data Governance und ist in Architekturfragen hinsichtlich der Analytics und des Reportings wichtiger Ansprechpartner.

Das Controlling treibt derzeit die Umsetzung und den Rollout von Reporting und Analyse in Power BI weiter voran. QUNIS wird für diese Ausbaustufen lediglich punktuell benötigt und steht für Fragen bereit. Desweiteren stehen die Themen Aufbau und Integration einer neuen Planungslösung, Big Data, Integration von KI-Anwendungen und die damit verbundene Weiterentwicklung der Azure-Architektur auf der Roadmap.

Mehr zur Schreiner Group: Die Schreiner Group GmbH & Co. KG ist ein international tätiges deutsches Familienunternehmen und gilt als bevorzugter Partner in den Märkten Healthcare und Mobility. Der „Hidden Champion“ aus Oberschleißheim im Landkreis München hat weltweit vier Standorte (u.a. in Shanghai und New York) und liefert in rund 60 Länder. Das Kerngeschäft sind Funktionslabels in Top-Qualität, die um ergänzende Systemlösungen und Dienstleistungen angereichert werden. Die innovativen Hightech-Labels und Funktionsteile der Schreiner Group erschließen smarte Lösungsdimensionen und helfen, das Leben ein Stück gesünder, mobiler und sicherer zu machen.  www.schreiner-group.com

Mehr zu QUNIS ImplementierungQUNIS Implementierung

SENEC: Implementierung einer Data & Analytics-Plattform im Bereich Erneuerbare Energien

Erstellt am: Dienstag, 18. Juli 2023 von Anja Gorbach

SENEC gehört zu den führenden Solarstromspeicheranbietern in Deutschland. Zusammen mit QUNIS hat das Unternehmen mit vielfältigen Technologien ein Data Lakehouse aufgesetzt, das dem schnellen Firmenwachstum gerecht wird und BI- und IoT-Analysen in einer zentralen Datenplattform unterstützt.

Wegen des starken Wachstums haben wir uns entschlossen, einen Modern Data Stack auf Basis von Microsoft Azure einzuführen, um mit den steigenden Reporting- und Analyseanforderungen Schritt zu halten.

Armin Geisler,
Team Lead Data and Analytics, SENEC GmbH

Eine Plattform für alle Datenprodukte

SENEC entwickelt und produziert intelligente Speicherlösungen für die Nutzung von Sonnenenergie. Mit SENEC.360 bietet das Unternehmen Privathaushalten passgenaue Lösungen für die Eigenversorgung mit Solarstrom, von der PV-Anlage über den smarten Stromspeicher bis hin zur E-Ladestation. Das dynamische Unternehmen trifft mit seinem Angebot den Nerv der Zeit und verzeichnet ein exponentielles Wachstum.

Das vorhandene BI-System konnte der schnellen Unternehmensentwicklung nicht mehr folgen und auch der steigende Bedarf an Big-Data-Applikationen war mit individuell programmierten Lösungen nicht mehr zu bewältigen. Die Auswertung von Streaming-Daten aus IoT-Produkten, Feldtestanalysen auf Basis von Batteriedaten oder ML-Anwendungen wie Predictive Maintenance gehören zur wachsenden Zahl an Use Cases bei SENEC, die eine neue IT-Umgebung für Data & Analytics erforderten.

Ziel der neuen Datenplattform war, dass sie sowohl die klassischen Geschäftsanalysen im Finanz- und Fachbereichscontrolling als auch die Big-Data-Analysen unterstützt – mit der Möglichkeit der kombinierten Auswertung aller Datenformate in Dashboards für Geschäftsanalysen und die Unternehmenssteuerung. Die Plattform sollte als Modern Data Stack mit verschiedenen Tools und Technologien aufgesetzt werden und als Single Point of Truth für sämtliche Datenprodukte fungieren.

Mindset-Pitch für eine gute Zusammenarbeit

Im Rahmen einer Ausschreibung und auf Empfehlung aus dem Netzwerk des Teams kam QUNIS als Realisierungspartner ins Spiel. Katja Both, Head of Business Intelligence & Processes bei SENEC, integrierte mit einem Mindset-Check den ausschlaggebenden Bewertungsansatz der Pitches. Hintergrund ist die Überzeugung, dass die gute Zusammenarbeit mit dem Dienstleister – insbesondere auf operativer Ebene – entscheidend für den Projekterfolg ist.

Katja Both erläutert: „Uns war wichtig herauszufinden, ob unsere Engineers und Analysten gut mit denen des Dienstleisters zusammenarbeiten können. Am Ende haben unsere Mitarbeiter:innen entschieden, wer unser Projektpartner wird. Damit hatten wir von Beginn an ein ausgeprägtes Committment aller Beteiligten, entscheidend für die benötigte Geschwindigkeit in diesem schnellwachsenden Hypergrowth Umfeld.“

QUNIS bringt die richtige Mischung aus strategischem Vorgehen und Pragmatismus mit und passt auch mit seinem Mindset gut zu unserem Team.

Katja Both,
Head of Business Intelligence & Processes, SENEC GmbH

Agile Entwicklung am Testsystem

Einmal beschlossen, ging die Konzeption und Implementierung der komplexen Plattform zügig voran. Die Strategie für die neue IT-Architektur, die Systemkonzeption und Themen wie Data Governance und Security haben QUNIS und SENEC ab Mitte 2022 innerhalb von zwei Monaten definiert. Im Herbst 2022 startete die Implementierung der IT-Architektur. Im März 2023 war die Datenplattform betriebsbereit.

Schon während der Strategieentwicklung hat QUNIS eine temporäre Testinfrastruktur als vereinfachte Version des Zielsystems installiert, was zur schnellen Realisierung beitrug: Das Team konnte die Plattform auf diese Weise im agilen Prototyping auf und ausbauen und parallel bereits erste Anforderungen der Fachbereiche und der Geschäftsleitung umsetzen.

Data Lakehouse als Modern Data Stack

Als Modern Data Stack besteht die Cloud-basierte Plattform aus einer Vielzahl von Technologien und Tools für die Erfassung, Speicherung, Verarbeitung und Analyse von Daten.

  • Die IT-Architektur ist ein Data Lakehouse auf Basis von Azure Databricks, das Elemente eines Data Warehouse mit einem Data Lake in der zentralen Plattform kombiniert. Die mit einer Staging und Cleansing Area, dem Core und einem Data Mart angelegte Lakehouse-Architektur ist in der Lage, Funktionen von Streaming Analytics, BI und maschinellem Lernen auf einer einzigen Plattform bereitzustellen.
  • Als Datenquellen sind u. a. eine Time Series Datenbank, eine Log-Datenbank, diverse relationale Datenbanken, SharePoint und klassische Business Systeme wie ERP, CRM usw. eingebunden. Zur Integration und Orchestrierung der Daten sind die Open-Source-Lösungen Airbyte und Airflow auf Kubernetes im Einsatz, zur Transformation von Daten im Lakehouse die Open-Source-Software dbt. Mit der kontinuierlichen Umsetzung neuer Use Cases werden schrittweise weitere Datenquellen angebunden. Die Anwender greifen über Microsoft Power BI auf die aufbereiteten Daten zu.
  • Power BI ist als strategisches Frontend für alle User im Einsatz. Das vielseitige Frontend unterstützt und visualisiert verschiedenste Use Cases in den Bereichen Unternehmens- und Marktinformationen sowie Produkt- und Qualitätskontrolle. Derzeit arbeiten von rund 550 Mitarbeitenden in Leipzig ca. 150 Konsumenten und Power User mit der BI-Lösung. Die Anzahl von aktuell 10 Designern soll kontinuierlich erhöht werden.

Starkes Data & Analytics-Team

Das hohe Realisierungstempo verdankt SENEC auch der konsequenten Personalstrategie, mit der Katja Both Schub in das Thema Data & Analytics bringt. Erst im Jahr 2021 wurde die erste BI-Lösung im Unternehmen etabliert. Im Rahmen der aktuellen Implementierung ist das BI-Team innerhalb weniger Monate zum Bereich Data & Analytics mit BI-Experten, Data Analysts, Data Engineers und Data Scientists angewachsen.

Das Team unterstützt und befähigt die Fachbereiche durch Self-Services, Trainings und Standards. Katja Both erläutert: „Durch die Herausbildung von dezentralen Daten-Experten erreichen wir eine hohe Autonomie in den Fachbereichen und werden damit dem starken Unternehmenswachstum gerecht.“

Bei der Implementierung sorgten der Einsatz von Best Practices und Frameworks, die umfangreiche Projekterfahrung von QUNIS und der permanente Know-how-Transfer zu SENEC für effiziente Projektschritte und schnelle Erfolge. Während das Thema Data & Analytics seinen Projektcharakter zunehmend verliert und in eine Linienfunktion übergeht, wird SENEC die Weiterentwicklung der Plattform künftig intern mit eigenen Experten vorantreiben.

Hoch skalierbare Datenplattform

Das Ziel der Implementierung ist erreicht: Der Modern Data Stack erfüllt alle Anforderungen an fortgeschrittene Datenanalysen im Bereich BI, KI und ML.

Von strukturierten Finanzdaten bis zu Streaming-Daten stehen unterschiedlichste Datenarten in einem zentralen Speicher für flexible Auswertungen bereit. Die hohe Systemperformance sorgt dabei für schnelle Analysen bei umfangreichem Datenvolumen. Die Projektverantwortlichen heben zudem die Validität der Daten hervor. Die Herkunft und Verarbeitung von Kennzahlen ist nachvollziehbar und glaubwürdig, was das Vertrauen in die Plattform stärkt und hohe Nutzungsraten im gesamten Unternehmen fördert. Der Projektleiter Armin Geisler hält fest: „Wir gewinnen tiefere Insights für Geschäftsanalysen sowie Entscheidungen und einige Use Cases sind mit der leistungsstarken Plattform überhaupt erst möglich geworden.“

Lisa-Marie Krause, als Senior Data Engineer im Projekt verantwortlich für die technische Entwicklung, beschreibt den Status der IT-Umgebung zum Zeitpunkt der Inbetriebnahme:

Mit der Datenplattform steht das Gerüst.
Wir haben Richtfest gefeiert und können jetzt
in hoher Geschwindigkeit neue Use Cases
für die Datenanalyse umsetzen.

Lisa-Marie Krause
Senior Data Engineer, SENEC GmbH

Die hohe Taktzahl bei der Skalierung ist notwendig, denn aus dem gesamten Unternehmen kommen vielfältige Anfragen nach Use Cases im Umfeld von BI, KI und ML. Ein wesentliches Ziel der zentralen Plattform ist, künftig mehr Datenkompetenz in der Breite im Unternehmen zu verankern. Auch Armin Geisler nennt die Generierung neuer Use Cases mit schnellem Time-to-Market als wesentlichen Mehrwert: „Wir haben im Bereich Data & Analytics deutlich an technischer und fachlicher Skalierbarkeit gewonnen.“

Auf Basis der Single Source of Truth sollen die Fachbereiche künftig ihre Reports selbst aufbauen können – auch damit wird der fachliche Ausbau beschleunigt und im gesamten Unternehmen vorangetrieben.

Mehr zu SENEC: Seit 2009 entwickelt die SENEC GmbH in Leipzig intelligente Stromspeichersysteme und speicherbasierte Energielösungen. Mit SENEC.360 bietet das Unternehmen ein abgestimmtes Ökosystem zur nachhaltigen Rundum-Eigenversorgung, unter anderem bestehend aus Stromspeicher (SENEC. Home), Solarmodulen (SENEC.Solar), virtuellem Stromkonto (SENEC.Cloud) sowie E-Auto Ladestation (SENEC.Wallbox). Die Marke SENEC zählt inzwischen europaweit zu den führenden Anbietern für innovative Energie- und Speicherlösungen rund um Einfamilienhäuser – mit mehr als 120.000 verkauften Systemen und einem Beratungsnetzwerk von über 1.200 Fachpartnern. Seit 2018 ist die SENEC GmbH eine 100 %-ige Tochtergesellschaft der EnBW Energie Baden-Württemberg AG und beschäftigt über 570 Mitarbeiter*innen an den Standorten Leipzig und Köln sowie in Italien und Australien. Weitere Informationen: www.senec.com

Mehr zur QUNIS Implementierung

MEDIA Central Group: Moderne Prozesse und neue Geschäftsmodelle

Erstellt am: Dienstag, 20. Juni 2023 von Anja Gorbach

Die MEDIA Central Group ist der ganzheitliche Lösungsanbieter für 360°-Angebotskommunikation. Auf Basis branchenweit einzigartiger Daten, eigener Expertise in der Datenanalyse sowie eines spezialisierten Netzwerks bietet die Firmengruppe maßgeschneiderte Lösungen für die cross-mediale Angebotskommunikation. Zusammen mit QUNIS etabliert die MEDIA Central Group eine gruppenweite Datenplattform, die immer mehr datengetriebene Entscheidungen, optimierte Prozesse und innovative Geschäftsmodell ermöglicht.

Statt im extrem dynamischen Technologieumfeld selbst lange Lernkurven
oder mögliche Sackgassen in Kauf zu nehmen, nutzen wir die langjährige
Projekterfahrung und den tiefen Einblick in die Produktstrategien der
Softwarehersteller, die QUNIS uns bietet.

 

Rafael de Brito
Head of Corporate IT
MEDIA Central Group

QUNIS begleitet die digitale Transformation

Als Spezialist für haptische Angebotskommunikation steuert MEDIA Central über 15 Milliarden Prospekte jährlich, dazu kommen Anzeigen, Print-Mailings, Out-of-Home- und Radio/TV-Werbung sowie immer mehr digitale Kanäle. Das Kunden-Portfolio umfasst mehr als 100 international tätige Unternehmen aller Branchen, darunter den Großteil des deutschen Einzelhandels. Die gezielte Auswahl der passenden Kanäle, der Werbeformen, Reichweiten und Zeitpunkte basiert zunehmend auf automatisierten Analysen und datengetriebenen Entscheidungen. Mit der Offerista Group, dem europaweit führenden Experten für digitale Angebotskommunikation, dem Data-Science-Spezialisten Yagora und der europaweit führenden Drive-to-Store Technologieplattform ShopFully sind dabei in den letzten Jahren drei ausgewiesene Digitalisierungsexperten zur Unternehmensgruppe gestoßen.

Die konsequent vorangetriebene digitale Transformation ist der wesentliche Erfolgsfaktor der wachsenden Unternehmensgruppe. Rafael de Brito, Head of Corporate IT der MEDIA Central Group, sieht darin zugleich auch eine zentrale Herausforderung:

Den Wandel zum datengetriebenen Unternehmen gezielt, effizient und mit nachhaltigem Erfolg zu steuern, erfordert in der dynamischen Branche des Unternehmens und bei rapider technologischer Entwicklung einen soliden strategischen Plan – und darüber hinaus die kompetente Beurteilung neuer Situationen, die sich zwangsläufig im disruptiven Markt- und Technologie-Umfeld immer wieder ergeben.

Organisationale Ambidextrie als Leitfaden der Transformation

Das Schlüsselwort der erfolgreichen digitalen Transformation lautet für Rafael de Brito „Organisationale Ambidextrie“: die Fähigkeit von Organisationen, gleichzeitig effizient und flexibel zu sein. Im betriebswirtschaftlichen Umfeld ist damit die Balance zwischen effizienter Nutzung des Bestehenden (Exploitation) und der Erkundung von Neuem (Exploration) gemeint.

Vorhandene Systeme und Prozesse zu vernachlässigen und sich kopflos in neue Technologien und Methoden zu stürzen, kann natürlich nicht der richtige Weg sein. Im komplexen und dynamischen Entwicklungsumfeld immer den Überblick zu behalten, richtungsweisende Entscheidungen zu treffen und diese dann kompakt umzusetzen, ist jedoch für die internen IT- und Digitalisierungsexperten neben ihrem Tagesgeschäft schier unmöglich.

Gerade weil die MEDIA Central Group hoch spezialisierte Digitalisierungsexperten und Data Scientists im Haus hat, können diese die Situation gut beurteilen und wissen, an welcher Stelle man sich komplementäres Know-how von außen dazu holen sollte, weil in diesem Falle „buy“ statt „make“ effektiver und ökonomischer ist. Die MEDIA Central Group setzt daher auf die Zusammenarbeit mit QUNIS. Der Spezialist für Data & Analytics begleitet die digitale Transformation des Unternehmens seit dem Jahr 2018 als Beratungs- und Implementierungspartner.

Rafael de Brito erklärt: „Statt im extrem dynamischen Technologieumfeld selbst lange Lernkurven oder mögliche Sackgassen in Kauf zu nehmen, nutzen wir die langjährige Projekterfahrung und den tiefen Einblick in die Produktstrategien der Softwarehersteller, die QUNIS uns bietet. Das bedeutet für uns strategisch gut untermauerte Projekte, effektive Implementierung und Best Practices für sichere Projekterfolge.“ Sein anschaulicher Schluss lautet: „So wie wir die Firmenfahrzeuge unserer Außendienstmitarbeiter weder selber bauen noch reparieren, so handhaben wir es auch mit dem Data Warehouse. Unsere Kernkompetenz liegt darin, die Technik zu nutzen, nicht das Rad neu zu erfinden.“

Komplettbegleitung in allen Fragen von Data & Analytics

QUNIS kam vor allem als Partner für die Infrastruktur und Prozesse eines gruppenweiten Data Warehouse ins Spiel, das nach allen Richtungen offen und skalierbar für beliebige Datenquellen und Use Cases angelegt wurde. Heute schätzt Rafael de Brito die umfassende Begleitung auf allen Ebenen von Data & Analytics: von der Strategie, dem DWH-Ausbau, BI- und Reporting mit Auswahl, Design und Schulung des Frontends, Anbindung von Datenquellen samt Schnittstellenprogrammierung bis hin zum smarten Aufbau von Datenmodellen aus wirtschaftlicher Sicht. Besonders effizient er die Zusammenarbeit durch die strukturierte und direkte Kommunikation:

“Wir nutzen QUNIS als verlängerte Werkbank. Für das Projektmanagement und die Abwicklung von Anforderungen müssen wir kaum Zeit und Ressourcen aufbringen, da verlassen wir uns auf unsere vorausschauende QUNIS-Beraterin.“ Auch den Wissenstransfer bei der Erstellung von Reports und der Nutzung des DWH nennt Rafael de Brito als Vorteil der Zusammenarbeit. So kann sich das interne Team schnell eigenes Know-how aneignen und im Unternehmen weitergeben.

Im Bereich des eingesetzten Frontends Power BI beispielsweise hat MEDIA Central heute eigene Experten für den Berichtsaufbau, profitiert aber weiterhin von der Beratung der QUNIS-Spezialisten und nimmt nach Bedarf sehr individuelle Schulungen für ausgewählte Nutzergruppen in Anspruch. Derzeit klärt das Projektteam zudem gemeinsam die Frage, ob die Datenmodellierung in Data Marts oder Data Sets die bessere Alternative für künftige Auswertungen in Power BI ist.

Immer mehr Daten erschließen

Eine wichtige Aufgabe von QUNS ist die kontinuierliche Einbindung interner und externer Datenquellen in die zentrale Plattform. Das betrifft zum einen verschiedene Themen- und Fachbereiche, die in den Datenpool eingegliedert werden. Aber auch bei der Integration neuer Gesellschaften in die wachsende Firmengruppe verfolgt die MEDIA Central Group das Ziel, dass die vorhandenen Systemlandschaften bestehen bleiben und die benötigten Daten in die zentrale Plattform überspielen. Also kein Umbau der wachsenden heterogenen Systemlandschaft, sondern ein neu entstehender zentraler Datenlayer, der Informationen aus diversen Quellen integriert und harmonisiert zur Auswertung – auch wiederum für die neuen Gesellschaften – bereitstellt. Den Kern-Anwendungsbereich bilden dabei die gruppenübergreifenden Finanzauswertungen.

So ist eine schnelle Eingliederung in die Firmengruppe möglich, ohne den laufenden Systembetrieb neu hinzukommender Gesellschaften zu stören. QUNIS übernimmt die Schnittstellenintegration, die Definition der Aufbereitung der Daten und die Edition der Lade- und Qualitätsprüfungsprozesse beim Datenload. Für das Finanzreporting und erweiterte Analysen in alle operativen Bereiche wurden bisher u.a. diverse ERP-Systeme der Tochtergesellschaften, das FiBu-System, ein DMS, das Geoinformationssystem, QS/QM-Daten sowie zugekaufte Marktdaten angeschlossen.

Gemeinsam die Komplexität und Dynamik erfolgreich meistern

In enger Zusammenarbeit sorgt das Projektteam für den kontinuierlichen Ausbau der Datenplattform und die organisatorische Verankerung der damit zusammenhängenden Prozesse. Für neue Datenquellen und Use Cases ist die skalierbare Daten- und Systemarchitektur dabei jederzeit offen. Rafael de Brito bringt den entscheidenden Mehrwert der Data & Analytics-Plattform auf den Punkt:

„Wir wollen einen Datenschatz aufbauen und neue Insights generieren, von denen sowohl unsere internen Prozesse und Geschäftsmodelle als auch unsere Kunden und Lieferanten profitieren.“

Für die Kunden bedeutet mehr Wissen ein sehr gezieltes Marketing mit genauen Erfolgskontrollen. Das gilt auch für die analogen Werbeformen wie die klassischen Papier-Prospekte. Umfangreiche Datenanalysen sorgen dafür, dass die logistische Steuerung der Prospekte punktgenau mithilfe von Geo-soziologischen und -ökonomische Analysen oder finanziellen Erfolgskontrollen erfolgt. Die Ergebnisse samt Umsatzanalysen können die Kunden u.a. in einem Qualitätsportal nachvollziehen.

Erfolgsgesteuerte selektive Werbung statt mit der Gießkanne, budget- und ressourcenschonend sowie transparent bis hin zu den Kunden und Lieferanten – die smarte Prospektsteuerung ist nur ein Beispiel für optimierte Angebote durch „data driven decisions“. Die MEDIA Central Group wird ihre datengetriebenen Geschäftsmodelle gezielt und kreativ weiter ausbauen. Dass QUNIS dafür der richtige Beratungs- und Implementierungspartner ist, steht für Rafael de Brito fest: QUNIS trägt wesentlich dazu bei, dass wir die Komplexität und Dynamik der digitalen Transformation der MEDIA Central Group erfolgreich meistern.“

Mehr zu MEDIA Central Group: Starke Marken für starke Kommunikationslösungen: Die MEDIA Central Group ist der ganzheitliche Lösungsanbieter für 360°-Angebotskommunikation. Auf Basis branchenweit einzigartiger Geo-Daten und der eigenen Expertise in der Datenanalyse erkennt die MEDIA Central Group übergeordnete Zusammenhänge und bietet Kunden maßgeschneiderte Empfehlungen für erfolgreiche Handelskommunikation. Die MEDIA Central Group versteht sich als Reichweitenmanager und bringt die Werbebotschaft ihrer Kunden zur richtigen Zeit zur richtigen Zielgruppe.

Die Gruppe vereint unter ihrem Dach den marktführenden Spezialisten für haptische Angebotskommunikation MEDIA Central, die europaweit führende Drive-to-Store Technologieplattform ShopFully, die europaweit führenden Experten für digitale Angebotskommunikation Offerista Group, die Data-Science-Experten für den Moment der Kaufentscheidung Yagora sowie die Auslandsgesellschaften MC Tschechien und MC Polen. Als Marktführer in der unadressierten Haushaltswerbung steuert MEDIA Central jährlich über 15 Milliarden Prospekte. Die Offerista Group ist Europas größtes Netzwerk für digitales Handelsmarketing und bündelt im eigenen Native Network über 1.400 Plattformen und Reichweitenpartner. Als Experten für den Moment der Kaufentscheidung analysiert und optimiert die Yagora Maßnahmen im Bereich Shopper Marketing und ermöglicht so die Steigerung der POS-Performance. Die Gruppe ist mit über 900 Mitarbeitenden an 21 Standorten vertreten und betreut heute Kunden in über 30 Ländern aus allen Branchen. Mehr Informationen: . https://corporate.media-central.de/

Mehr zu QUNIS StrategieberatungQUNIS Strategie

Die neueste SAP-Evolution im Bereich Data & Analytics: SAP Datasphere

Erstellt am: Donnerstag, 13. April 2023 von Anja Gorbach

Aus SAP Data Warehouse Cloud wird SAP Datasphere! Was steckt hinter dem neuen Release? Bloß ein neuer Name – also anders ausgedrückt reines Marketing – oder verbirgt sich mehr hinter der neuesten Evolution aus dem Hause SAP?

Am 8. März 2023 launchte SAP Datasphere im Rahmen von SAP Data Unleashed, einem virtuellen Event rund um Neuerungen im Kontext Data & Analytics. Auch auf den diesjährigen DSAG-Technologietagen am 22. und 23. März in Mannheim war Datasphere eines der Hot Topics. Und so viel vorneweg: Die Neuausrichtung seitens SAP verspricht einiges und Datasphere bietet bereits einige spannende neue Features.

Werfen wir aber zunächst nochmal einen Blick zurück. Die Entwicklung der Data Warehouse Cloud (DWC) in den letzten anderthalb Jahren war wirklich rasant. Mit jedem neuen Release spürte und spürt man die Intensität und Manpower, mit denen hinter den Kulissen an neuen Features und der Verbesserung bestehender Funktionalitäten gearbeitet wird.

Auf einige der aktuellsten Neuerungen im Rahmen der Umbenennung zu Datasphere werde ich später noch genauer eingehen. Einen detaillierten Blick auf die neue strategische Data Warehousing Lösung von SAP hatte ich bereits in einem früheren WHITEPAPER: SAP Data Warehouse Cloud  – DAS neue strategische Data Warehouse der SAP gegeben.

In der Praxis zeigte sich in den letzten Monaten, dass die DWC insbesondere beim Thema Datendemokratisierung ein sehr interessanter und relevanter Baustein für Unternehmen werden kann. Durch die zentralen Elemente der Spaces, Sharing-Optionen zwischen den unterschiedlichen virtuellen Bereichen sowie Data Access Controls als wichtige Governance-Elemente auf der einen Seite und der Möglichkeit, Modelle auf Basis eines grafischen Editors zu erstellen. Auf der anderen Seite, ergeben sich mitunter komplett neue Möglichkeiten in der Zusammenarbeit zwischen IT und Business.

Ein Tool alleine ermöglicht natürlich keine Datendemokratisierung im Unternehmen – die technischen Möglichkeiten erfordern immer auch das Vorhandensein von Datenkompetenz innerhalb der involvierten Bereiche (Data Literacy) sowie klar definierte Data & Analytics-Rollen.

Die Agilität sowie die leichte und intuitive Bedienbarkeit bei der Erstellung neuer analytischer Modelle beziehungsweise semantischer Sichten auf vorhandene Datensets sind in der agilen und schnelllebigen Business-Welt ein absoluter Unterscheidungsfaktor im Analytics-Umfeld. Auf der anderen Seite wurden auch die Möglichkeiten aus Entwicklersicht stark erweitert. Ein Beispiel ist hier das Command Line Interface (CLI).

Seit einiger Zeit ist es über das DWC-CLI möglich, gewisse manuelle und vor allem wiederkehrende Tätigkeiten beim Administrieren des Tenants, der Userverwaltung oder dem Erstellen von Tabellen und Views mithilfe der Kommandozeile programmatisch zu lösen – oder besser gesagt zu automatisieren. Das DWC-CLI ist technisch gesehen ein eingeständiges Node.js-Modul. Voraussetzung ist die Installation der letzten node.js-Version auf dem Client. Mithilfe des CLI lassen sich lästige und wiederkehrende Mehrfacharbeiten in der UI reduzieren und wie bereits erwähnt automatisieren – und letztendlich auf diese Weise auch standardisieren.

Seit der Einführung der DWC wurden neue Innovationen im Bereich Data & Analytics nach und nach nur noch im neuen Cloud-Service integriert; ein Beispiel ist hier der Data Marketplace, der mittlerweile etliche Datenmodelle von Drittanbietern bereitstellt.

Ebenso hat man als Unternehmen die Möglichkeit, eigene Datenprodukte nach draußen zu verteilen. Hier denke man zum Beispiel an Lieferanten oder enge Partner, mit denen auf diese Weise noch enger kooperiert werden kann. Sogar innerhalb eines Unternehmens lässt sich der Marketplace nun einsetzen, um beispielsweise Datenprodukte an die eigenen Fachbereiche auszuliefern.

SAP Datasphere – auf dem Weg zur „Business Data Fabric“

Werfen wir nun einen genaueren Blick auf die neueste Evolutionsstufe im Data & Analytics-Portfolio von SAP. Was verbirgt sich hinter dem Begriff Datasphere? Zunächst einmal ändert sich für DWC-Kunden nicht sonderlich viel: Das Look&Feel des Tools ist gleich geblieben, lediglich der Name wurde ausgetauscht und bereits einige neue technische Features hinzugefügt.

Mit Datasphere möchte SAP den Data Fabric Ansatz stärker verfolgen und spricht in dem Zusammenhang nun von einer „Business Data Fabric“. Aber was versteht SAP eigentlich unter diesem Begriff?

SAPs Definition der Business Data Fabric ist im Kern eine Datenmanagementarchitektur für einen virtuellen oder persistierten semantischen Daten-Layer über der darunterliegenden Datenlandschaft (Beispiele: zentrales DWH, Lakehouse, MES- beziehungsweise Produktionsdaten, IoT-Daten etc.) eines Unternehmens. Die Basis für dieses Vorhaben soll mit SAP Datasphere und einem offenen Daten-Ökosystem, das im Zuge einiger strategischen Partnerschaften mit unter anderem Databricks, Collibra, Confluent und DataRobot angekündigt wurde, geschaffen werden. Das grundlegende Ziel, das SAP hiermit verfolgt, ist, einen skalierbaren und einheitlichen Datenzugriff ohne Datenduplikationen im Unternehmen zu ermöglichen.

Als Grundlage einer Business Data Fabric bringt Datasphere sämtliche Funktionalitäten eines modernen Data Tools mit, angefangen vom Datenzugriff via Self-Service & Data Discovery bis hin zur Datenintegration sowie Governance & Security. Data Warehousing, Virtualisierung, die semantische Modellierung von Businesslogik sowie Orchestrierung und Processing als zentrale Datenmanagementaufgaben gehören ebenso zum Funktionsumfang.

Auf dem Weg zum vollumfänglichen Data Tool 

Wer sich bereits mit der DWC beschäftigt hat, wird merken, dass dies nun erstmal nichts Neues ist, denn auch die DWC verfügte schon über die genannten Funktionalitäten. Rein technisch ist Datasphere daher aktuell vielmehr als das neueste Release der DWC zu interpretieren. Dennoch gibt es einige Neuigkeiten. die den Weg der der SAP Datasphere zum vollumfänglichen Data Tool aufzeigen.  Im Folgenden habe ich einige dieser Neuerungen für Sie aufgelistet:

Neue Datenintegrationsmöglichkeiten mit dem Cloud-basierten Replication Flow
Der Replication Flow ist ein Data Intelligence Feature, das nun in Datasphere integriert wurde. Mit der Komponente kann man eine Cloud-basierte Datenreplikation ohne Transformationslogik durchführen und somit große Datenmengen von A nach B bewegen. Ebenso unterstützt der neue Replication Flow den Change Data Capture (CDC). Stand heute ist der Funktionsumfang noch stark eingeschränkt. So stehen derzeit als Ziel beispielsweise lediglich SAP Datasphere, HANA Cloud und HANA Data Lake zur Auswahl. Es wurde jedoch angekündigt, dass zukünftig für den Replication Flow auch Third-Party-Applikationen als mögliches Ziel angeboten werden.

Neues analytisches Modell
Mit dem neuen Artefakt für die semantische Datenmodellierung hat SAP deutlich mehr Modellierungsmöglichkeiten geschaffen. Es ist nun in Datasphere möglich, ein auf die Anforderungen des Business abgestimmtes und optimiertes semantisches Datenmodell mit Variablen, eingeschränkten Kennzahlen und Filtern für die SAC bereitzustellen. Darüber hinaus bietet das neue analytische Modell eine wirklich sehr hilfreiche Datenvorschau bei der Modellierung und eine verbesserte Integration mit der SAC bei der späteren Nutzung.

Nächster Schritt Richtung Datendemokratisierung und Governance mit dem neuen Catalog
Mit Datasphere hat SAP nun auch einen Data Catalog gelauncht. Über den Catalog Crawler werden die Metadaten aus Datasphere automatisch in den Catalog geladen, ebenso lassen sich zusätzlich SAC-Instanzen mit wenigen Klicks integrieren.

Über den Catalog und dessen Suchfunktion kann man seinen Business Usern jetzt einen sehr guten Überblick über die verfügbaren Datenprodukte geben, KPIs definieren, kategorisieren und in den Assets pflegen sowie Business Terms in Form eines Glossars definieren. Über die Lineage lassen sich so schnell und einfach die Views und Tabellen in Datasphere ausfindig machen, auf die beispielsweise ein Report in der SAC auf Basis eines analytischen Modells aufsetzt.

Auf dem Data & Analytics Forum im Juni 2022 kündigte SAP das Projekt „SAP Data Suite“ an. Mit Datasphere präsentiert das Unternehmen aus Walldorf nun die ersten Ergebnisse.

Wenn die Entwicklung der neuen Data Suite von SAP mit der gleichen Geschwindigkeit wie in den vergangenen Monaten weitergeht, sind wir sehr optimistisch, dass die aktuell noch bestehenden Funktionslücken Schritt für Schritt geschlossen werden.

Beispielsweise verspricht der Blick auf die Roadmap im Laufe des Jahres eine nahtlose Integration der SAC-Planung mit Datasphere und die Erweiterung des neuen Catalogs hinsichtlich der Anbindung zusätzlicher SAP-Quellen. Ebenso soll es zukünftig möglich sein, User pro Space unterschiedlich zu berechtigen. Auch das analytische Modell wird weiter ausgebaut und um Multi-Fact sowie weitere Modellierungsfunktionen erweitert.

Aber es gibt auch noch genügend Themen, die dringend angegangen werden müssen. Insbesondere beim Thema Life-Cycle Management – Stichwort CI/CD – hat SAP Datasphere aktuell noch keine wirklich zufriedenstellende Antwort zu bieten.

Beurer: Zentrale Datenplattform für wachsende Unternehmensgruppe

Erstellt am: Montag, 23. Januar 2023 von Anja Gorbach

Die 1919 gegründete Beurer GmbH ist heute Marktführer im Segment Gesundheit und Wohlbefinden. Mit der Hilfe von QUNIS hat die erfolgreiche Unternehmensgruppe ein zentrales Data Warehouse aufgebaut und ein zukunftsfähiges Datenmanagement für das unternehmensweite Reporting etabliert.

Wir haben auf die Expertise, die Projekterfahrung und den Marktüberblick von QUNIS vertraut. Damit konnten wir im Data Warehouse-Projekt von Anfang an die richtigen Weichen stellen.


Florian Merk,
Leiter Controlling,
Beurer GmbH

Modernisierung der BI-Landschaft

Das Controlling der Beurer GmbH verfügt über viel BI-Erfahrung. Beurer hat bereits frühzeitig auf BI-Systeme der ersten Produktgeneration gesetzt und seine Berichtslandschaft seitdem kontinuierlich ausgebaut.

Seit einem Systemwechsel im Jahr 2011 ist das erfolgreiche Unternehmen allerdings stark gewachsen. Heute ist Beurer eine international aufgestellte Unternehmensgruppe mit über 30 Gesellschaften. Damit kam die grundlegende BI-Datenarchitektur zunehmend an ihre Grenzen. Die vorhandene einfache Staging Area mit dem ERP-System proAlpha als Vorsystem war nicht mehr ausreichend.

Beurer benötigte stattdessen ein Data Warehouse (DWH), in dem die heterogenen Datenquellen aller Tochtergesellschaften zusammenlaufen. Sowohl die Datenanlieferung an das zentrale Controlling als auch das Berichtswesen in die Unternehmensgruppe sollte auf dieser Grundlage wesentlich erweitert werden.

Data Warehouse mit hohem Automatisierungsgrad

Die Controller hatten klare Vorstellungen: Ziel war ein skalierbares Data Warehouse mit hohem Automatisierungsgrad, das der Fachbereich selbst steuern und weiterentwickeln kann. Die neue BI-Umgebung sollte außerdem die erste Cloud-Applikation bei Beurer werden. Um die nachhaltige Implementierung sicherzustellen und mögliche Umwege im Projekt oder spätere Sackgassen zu vermeiden, setzte das Projektteam auf QUNIS als Beratungs- und Implementierungspartner und vertraute auf die Expertise, die Projekterfahrung und den Marktüberblick.

Nach der Anforderungsanalyse, für die auch Wünsche der Berichtsempfänger zusammengetragen wurden, hat QUNIS zusammen mit den BI-Experten von Beurer das Data Warehouse in der Microsoft Azure Cloud implementiert. Viele Strukturen und Geschäftslogiken konnten dabei aus dem bestehenden Sales- und Finanzreporting übernommen werden.

Um eine konsistente, ausbaufähige Datenplattform zu schaffen, wurden im Rahmen der Implementierung auch Stammdaten harmonisiert. Das QUNIS Data Warehouse Framework (QDF) war hilfreich beim Design und der Etablierung von standardisierten Strukturen und Datenmodellen. Auf dieser Basis können beispielsweise zusätzliche Datenquellen angebunden, internationale Gesellschaften integriert und neue fachliche Themen auf einheitlicher Datenbasis abgebildet werden. Der hohe Automatisierungsgrad sorgt zudem für die sichere und einfache Administration im laufenden Betrieb.

Betrieb und Ausbau in der Fachabteilung

Während der Implementierung fand bereits der Know-how-Transfer ins Team von Beurer statt. Den weiteren Ausbau des DWH, die Anbindung der Tochtergesellschaften und die Ausgestaltung der Reports und das Rollout des Berichtswesens hat das Controlling seitdem selbst übernommen. Marc Hofmann, verantwortlich für das BI-Backend, bestätigt:

„QUNIS hat uns im Laufe des Projekts gut in das Data Warehousing eingearbeitet. Die Weiterentwicklung und das Rollout führen wir eigenständig durch.“

Bei der Auswahl des neuen Frontends Microsoft Power BI hat QUNIS ebenfalls unterstützt. Beurer wird sein neues Berichtswesen über Power BI schrittweise im gesamten Unternehmen ausrollen. Derzeit läuft das neue System parallel mit der vorigen Lösung, mit Absprungmöglichkeiten aus dem Altsystem. In einer zeitlich ausgedehnten Übergangsphase mit internem Schulungskonzept können sich die Nutzer allmählich mit der neuen Lösung vertraut machen.

Hohe Akzeptanz bei den Nutzern

Die Nutzungszahlen nach dem Rollout in Deutschland und in der Schweiz als erster Tochtergesellschaft sprechen schon jetzt für eine hohe Akzeptanz im Unternehmen. Im ersten Schritt wurden bereits 22 Reporting-Mappen aufgebaut. Schon vor Anbindung der internationalen Tochtergesellschaften greifen 120 User regelmäßig auf die neue Berichtsumgebung zu, mit stark steigender Tendenz. Die wichtigsten Reports werden derzeit 1.200 mal pro Monat geöffnet. Andreas Traut, zuständig für das BI-Frontend, stellt fest:

„Die Modernisierung kam zur richtigen Zeit. In den heutigen diffusen Märkten brauchen unsere Fachbereiche und Gesellschaften verlässlichen Kennzahlen; das Interesse am Reporting ist entsprechend stark gestiegen.“

Self-Service-BI mit klarer Datenhoheit

Fachlich liegt der Fokus derzeit auf dem Umsatzreporting mit klassischen vertrieblichen Steuerungsgrößen wie Deckungsbeiträgen und Margen. Neben differenzierten Informationen zu den Außenumsätzen der Tochtergesellschaften liegt der Fokus zukünftig vor allem auf Auswertungsmöglichkeiten konsolidierter Kennzahlen auf Konzernebene. Auf dieser Basis kann das Controlling der Unternehmensgruppe ein detailliertes Reporting zur Verfügung stellen.

Hinsichtlich der Informationsversorgung setzt Beurer schon seit Jahren auf Self-Service BI. Die Fachbereiche nutzen dabei auch unterschiedliche Ausgabeformate, z. B. Powerpoint-Folien mit Produktfotos im Produktmanagement. Dabei werden Power BI Berichtsseiten mit Live-Daten in Powerpoint eingebunden. Somit lassen sich schnell professionell aufbereitete Powerpoint-Präsentationen erstellen und monatlich auf den aktuellen Stand bringen.

Die Controller arbeiten natürlich nach wie vor gerne in Excel, das ebenfalls mit Live-Daten aus dem Data Warehouse gefüllt wird. Damit sind sehr flexible und individuelle Auswertungen für die Nutzer möglich.

Wichtig ist den projektverantwortlichen Controllern, dass sie mit dem Data Warehouse den Single Point of Truth (SPOT) und damit die Datenhoheit in der Hand haben – die wesentliche Voraussetzung für vertrauenswürdige Informationen und einheitliche Kennzahlendefinitionen.

Skalierbare Datenarchitektur

Mit dem zentralen Data Warehouse hat Beurer die Grundlage für seine unternehmensweite Datenplattform geschaffen. Der durchdachte Aufbau und die Vorteile der guten Vorarbeit im Backend wurden in späteren Projektphasen z. B. beim Berichts-Design und beim Rollout offensichtlich. Florian Merk hält fest:

„Bei der Ausgestaltung des Frontend-Bereichs wurde deutlich, dass QUNIS beim Aufbau des Data Warehouse weit vorgedacht hat. Wir können flexibel auf einer sauberen Datenbasis und strukturierten Logiken aufsetzen.“

 Auch die Einführung der einfach skalierbaren Cloud-Technologie war richtungsweisend für die Unternehmensgruppe. Inzwischen wurden bei Beurer weitere Projekte in der Azure-Cloud umgesetzt, die vom DWH-Projekt als Pilotanwendung profitieren konnten.Das Controlling-Team wird im nächsten Schritt alle Tochtergesellschaften an die Plattform anbinden.

Auch die fachliche Erweiterung ist bereits geplant. Zunächst soll das Reporting für die Bereiche Marketing und E-Commerce dazukommen, um danach schrittweise weitere Fachbereiche einzubinden.

Mehr zur Beurer GmbH: Die Beurer GmbH ist seit 1919 Marktführer im Segment Gesundheit und Wohlbefinden. Mit dem umfangreichen Sortiment in den fünf Produktbereichen wellbeing, medical, beauty, active und babycare bietet Beurer professionelle Produkte für die Heimanwendung – von Heizkissen, Personenwaagen, Massagegeräten und einem Produktsortiment zum Erhalt eines optimalen Raumklimas über spezielle Medizinprodukte wie Blutdruckmessgeräte und Blutzuckermessgeräte sowie Inhalatoren und Fieberthermometer bis hin zu Beautygeräten und Lifestyleprodukten.

Mehr zu QUNIS StrategieberatungQUNIS Strategie

Die Data & Analytics Zukunft mit SAP liegt in der Cloud

Erstellt am: Freitag, 20. Januar 2023 von Monika Düsterhöft

In der SAP-Strategie ist seit einiger Zeit ein klarer Trend zu Cloud-only festzustellen. SAP Datasphere kommt dabei eine zentrale Rolle zu.

Zusammen mit der SAP HANA Cloud, der SAP Analytics Cloud (SAC) und der SAP Data Intelligence Cloud bildet SAP Datasphere das Data-to-Value-Portfolio von SAP. Die SaaS-Applikation Datasphere ermöglicht es Unternehmen, sich dabei ganz auf ihre Analytics-Aktivitäten zu konzentrieren.

Mit SAP Datasphere können sowohl Cloud- als auch On-Premise-Datenquellen integriert werden. Die Komponente Data Flow bietet zudem ETL-Funktionalitäten, um Daten aus unterschiedlichsten Quellen zu extrahieren, zu transformieren und schließlich in lokalen Tabellen Datasphere zu speichern. Darüber hinaus gibt es mit dem Data Builder und dem Business Builder zwei separate Bereiche zur Datenmodellierung in Datasphere, und sie stellt einige Business-Content-Datenmodelle bereit, die mit wenigen Klicks für Standardanwendungsfälle verfügbar gemacht werden können.

Komfortabel zum „Data-Shopping“

Mit Dataspehre versucht SAP zudem, einen entscheidenden Schritt in Richtung Self-Service Data Warehousing zu gehen. Hierbei hat die IT weiterhin die Hoheit und Verantwortung für einheitliche, standardisierte Datenmodelle. Zugleich bekommt sie aber Unterstützung im Datenmanagement, denn der Fachbereich kann den letzten Schritt in Richtung Reporting allein und selbstständig machen.

Richtig umgesetzt erhöht dies die Agilität und beschleunigt die Analytics-Entwicklungen in den Unternehmen. Im Sinne eines „Data-Shopping“-Erlebnisses stehen den Endanwendern die Daten in einer einfachen, geführten Form zur Verfügung: Wiederverwendbare analytische Datenmodelle können verschiedene Geschäftsfragen beantworten.

Datasphere und SAC in kraftvoller Verbindung

Die Offenheit der Applikation basiert auf der Kombination mit der SAC als sogenanntem First-Class Consuming Citizen. Mit wenigen Klicks ist die Verbindung zwischen Datasphere und der SAC eingerichtet, dadurch lassen sich nachfolgend die Daten der freigeschalteten analytischen Datenmodelle von Datasphere per Live-Verbindung nutzen.

Ebenso können die Anwender aber auch mit Third-Party-Tools wie Tableau oder Microsoft Power BI auf die Daten zugreifen. Nicht zuletzt soll Datasphere künftig als zentrale Datendrehscheibe für Planungsszenarien in Kombination mit der SAC inklusive einer Retraktion von Forecast und Plan-Daten Richtung Dataspehre etabliert werden. Langfristig soll außerdem die Datasphere Verwendung auf allen gängigen Hyperscalern möglich sein.

Perfekte Symbiose

Da SAP den Service Datasphere als SaaS zur Verfügung stellt, müssen sich Kunden nicht mehr selbst um Produkt-Updates und neue Releases kümmern – gleichzeitig gewährleistet das automatische und zentrale Updaten durch SAP eine permanente Verbesserung und Optimierung des Produkts. Das neue Space-as-a-Service-Konstrukt macht zudem isolierte Einheiten oder auch separierte logische Layer in der Datasphere möglich.

Ein weiterer interessanter Aspekt: End-User können mithilfe des Business Builders selbstständig Business Entities für das Reporting erstellen. Über die Verknüpfung mit der SAC schafft die Einheitlichkeit von User Interface und Usability der beiden Applikationen eine perfekte Symbiose. Daher stellt sich die SAC zum Konsumieren von Datasphere-Datenmodellen als Frontend-Tool der Wahl dar.

Mein Tipp: Einen detaillierten Tool-Steckbrief zur SAP Analytics Cloud (SAC) und zu Microsoft Power BI sowie weitere spannende Learnings rund um das Thema Self Service BI und wie Sie damit Agilität im Fachbereich realisieren, finden Sie in der aktuellen Studie von the factlights.  STUDIE KOSTENFREI HOLEN

Murrelektronik: Umstellung der BI-Landschaft auf SAP Datasphere

Erstellt am: Donnerstag, 12. Januar 2023 von Anja Gorbach

Murrelektronik ist ein global tätiger Spezialist für dezentrale Automatisierungstechnik. Das Controlling der Unternehmensgruppe hat in Zusammenarbeit mit QUNIS seine BI-Landschaft auf die SAP-Cloud umgestellt. Ein spannendes Projekt, weil das Tool SAP Datasphere zum Einführungszeitpunkt noch neu auf dem Markt war und selbst bei SAP kaum Praxiserfahrung vorlag.

In der komplett neuen Produktumgebung war ein fester Projektplan kaum einzuhalten. QUNIS hat sehr flexibel und agil mit uns zusammengearbeitet und die Datasphere Implementierung Schritt für Schritt mit uns umgesetzt.


Rafael Theiss,
Business Data Analyst,
Murrelektronik GmbH

SAP Datasphere-Implementierung als Pilotprojekt

Murrelektronik ist mit Niederlassungen, Produktions- und Logistik-Standorten sowie Vertriebspartnern in 50 Ländern weltweit vertreten. Die vorhandene BI-Lösung, die von einem externen Beratungshaus betreut wurde, konnte das Reporting für den agilen Konzern nicht mehr abdecken. Vor allem die fehlende Flexibilität bei nötigen Anpassungen war problematisch; die erforderliche Umsetzungsgeschwindigkeit neuer Anforderungen war in dieser Konstellation nicht mehr zu gewährleisten.

Das zentrale Controlling wollte daher seine BI-Plattform modernisieren und im eigenen Haus ansiedeln, um die Datenmodelle selbst nach Bedarf anpassen zu können. Im Konzern mit starker SAP-Strategie lag der Umstieg auf SAP-Tools für die neue BI-Umgebung nahe.

Besonders das noch relativ neu am Markt eingeführte SAP Datasphere bot für die Controller ein interessantes Konzept: Als Cloud-Technologie ist es kosteneffizient einzuführen und einfach skalierbar. Ein wichtiger Vorteil ist zudem die anwenderorientierte Entwicklung: Mit den sogenannten Spaces stellt SAP Datasphere einen Business Layer für die Datenmodellierung zur Verfügung, über den Fachbereiche ihre eigenen Datensichten erstellen können. Das vereinfacht die Steuerung des DWH im Controlling und schafft die Voraussetzung für Self-Service-Szenarien im gesamten Unternehmen.

Die Entscheidung für SAP Datasphere stand zu Projektbeginn fest. Als mögliche Frontends schauten sich die Controller auch Tools außerhalb der SAP-Welt an. SAP Analytics Cloud (SAC) in Kombination mit Datasphere stellte sich dabei als die beste Lösung für Murrelektronik heraus.

Mit QUNIS gemeinsam DWH-Neuland betreten

Bei der Suche nach einem Realisierungspartner war dem Projektleiter Rafael Theiss klar, dass es so kurz nach Markteinführung von SAP Datasphere keinen Dienstleister mit großer Implementierungserfahrung für dieses Tool geben konnte.

Im Auswahlverfahren überzeugte QUNIS durch seine umfangreiche Erfahrung in den Bereichen Data Warehousing, BI und Analytics mit Cloud- und On-Premise-Technologien, gepaart mit sehr hohem Engagement und Interesse an der Datasphere-Umgebung. Rafael Theiss, Business Data Analyst bei Murrelektronik, sah darin die besten Voraussetzungen für eine erfolgreiches gemeinsames Implementierungsprojekt im DWH-Neuland.

Agile Zusammenarbeit im Team

Nach ersten Vorarbeiten Ende 2020 startete die Implementierung mit Systemzugriff für das Projektteam auf die Datenquellen und das Altsystem im März 2021. Zunächst arbeiteten hauptsächlich Rafael Theiss und die QUNIS-Beraterin an der Umsetzung.

Rafael Theiss hebt besonders den Einsatz der QUNIS-Beraterin hervor, die mit hohem Engagement und lösungsorientiertem Vorgehen wesentlich zum Projekterfolg beitrug. Bei der Schnittstellen-Definition wurde das Kernteam durch die IT-Abteilung unterstützt. Auch die Key User der Anwendung wurden zunehmend einbezogen. Erst in späteren Projektphasen kam dann ein „SAP Development Angel“ dazu, der hilfreiches Produktwissen einbringen konnte.

Wichtig für das Gelingen des Projekts war die flexible Reaktion von QUNIS auf den Projektstatus. Durch vielfältige Herausforderungen im Pilotprojekt verzögerte sich der geplante Rollout-Termin um sechs Monate. QUNIS begleitete das Team von Murrelektronik auch über die ursprüngliche Projektplanung hinaus bis zum erfolgreichen Go live und steht auch weiterhin als Ansprechpartner für die Controller bereit.

Weltweite Datenplattform für über 600 Anwender

Seit Februar 2022 ist die Berichtsplattform weltweit bei Murrelektronik verfügbar. Nach einer kurzen Übergangsphase, in der Neu- und Altsystem parallel liefen, erfolgte der konsequente Umstieg in die SAP Cloud, die seitdem als zentrale Berichtsumgebung mit einheitlicher Datenbasis im Konzern etabliert ist.

Fachlich hat das Projektteam das umfangreiche Reporting aus dem Altsystem übernommen und optimiert. Das neue Data Warehouse ist als ganzheitliche Lösung für derzeit 600 Anwender konzipiert. Kernthemen sind das Finanz- und Vertriebscontrolling, wobei auch vielfältige Analysen im operativen Bereich zur Verfügung stehen. Hauptsächliche Datenquelle für die Auswertungen ist SAP ERP. Um das Analysespektrum zu erweitern, wird derzeit auch Salesforce als Quellsystem integriert.

Ein wesentlicher Anspruch des zentralen Controllings ist dabei die Anwenderfreundlichkeit: Jeder soll das System einfach nutzen und verstehen können. Dazu trägt auch das Frontend SAP Analytics Cloud (SAC) bei, über das die Anwender komfortabel per Web auf ihre Berichte und Analysen zugreifen können.

Neue fachliche Anforderungen schnell umsetzen

Mit dem erfolgreich abgeschlossenen Projekt gehört Murrelektronik zu den Vorreitern beim Einsatz von SAP Datasphere mit SAP SAC. Die Projektziele sind erreicht: der Wechsel der Plattform, die Verlagerung der Systemsteuerung ins eigene Haus und der Aufbau der entsprechenden internen Kompetenzen sind gelungen. Auch der Plan, mit dem anwenderorientierten Datasphere die Taktzahl im Anforderungsmanagement zu erhöhen, ist aufgegangen.

Rafael Theiss bestätigt: Mit SAP Datasphere haben wir die Datenmodelle im Controlling selbst in der Hand und können unser Data Warehouse jederzeit an neue Anforderungen anpassen.“ 

Die Anwender profitieren von übersichtlich visualisierten Daten im modernen Frontend. Anstelle der vorigen Excel-Tabellen stehen nun Berichte mit dynamischen Grafiken bereit. Die Berichtempfänger haben zudem deutlich mehr Auswertungen zur Verfügung und können selbst Analysen fahren.

Das zentrale Controlling verfolgt hier ein Self-Service-BI-Konzept (SSBI), das über die jeweiligen Key User konzernweit etabliert wird. Auch hinsichtlich der SSBI-Strategie hat sich SAC zwischenzeitlich als das passende Frontend für Murrelektronik erwiesen.

Nachdem im Rahmen der Implementierung vielfältige neue Anforderungen umgesetzt wurden, wird die Applikation derzeit mit Blick auf die Anwenderorientierung nachgeschärft. Wichtige Anliegen sind Rafael Theiss auch der Know-how-Aufbau im Umgang mit der Datenplattform in der gesamten Nutzergemeinde und die Sicherung der Datenqualität. Im nächsten Ausbauschritt soll das Data Warehouse dann um ein Planungstool ergänzt werden.

Mehr zur Murrelektronik GmbH: Murrelektronik ist ein führendes Unternehmen in der Entwicklung und Herstellung hochmoderner dezentraler Automatisierungstechnik für Maschinen und Anlagen. Das Unternehmen konzentriert sich dabei auf vier Kernbereiche: Stromversorgung, Schnittstellen, Anschlussleitungen und IO-Systeme. Innovative Produkte in herausragender Qualität, eine ausgeprägte Markt- und Kundenorientierung machen Murrelektronik einzigartig und verbessern die Maschinen und Anlagen der Kunden.

Mehr zu QUNIS StrategieberatungQUNIS Strategie

AT&S: Aufbau einer unternehmensweiten Data & Analytics-Plattform

Erstellt am: Montag, 12. Dezember 2022 von Anja Gorbach

Der weltweit tätige Hersteller von Leiterplatten AT&S baut schrittweise eine unternehmensweite Data & Analytics-Plattform auf. Grundlage ist eine ausgefeilte Datenstrategie, die den nachhaltigen Ausbau und Betrieb des zentralen Datenpools entsprechend den fachlichen
Anforderungen im Konzern sicherstellt.

QUNIS unterstützt uns auf allen Ebenen: Von der strategischen
und technologischen Beratung über die fachliche Konzeption
bis zur Implementierung samt Coaching und Koordination aller Stakeholder.


Ulrike Klein,
Manager Enterprise Data Management IT,
AT&S Austria Technologie & Systemtechnik

Strategische Analyseplattform, die systematisch mit ihren Use Cases mitwächst

Das High-Tech-Unternehmen AT&S will den Wert seiner weltweit anfallenden Daten besser ausschöpfen. Erklärtes Ziel der Unternehmensleitung ist es, dass AT&S sich zum konsequent datengetriebenen Unternehmen entwickelt. Nach einer internen Bestandsaufnahme der bereits vorhandenen BI-Lösungen, Dashboards und Kennzahlen kam man zum Schluss, dass es sich durchweg um Insellösungen und Datensilos mit begrenztem Ausbaupotenzial handelt.

Daher sollte eine von Grund auf neue Data & Analytics-Plattform für alle Standorte und Fachbereiche mit moderner Architektur und unternehmensweiter Organisation aufgesetzt werden. Den Projektverantwortlichen war klar: Der nachhaltige Aufbau und Betrieb in konzernweiten Standards erforderte eine umfassende Data & Analytics-Strategie.

Als Beratungs- und Implementierungspartner wurde QUNIS ausgewählt. Neben der herausragenden Kompetenz und Erfahrung fand die Projektleitung auch die individuelle Ansprache und pragmatische Vorgehensweise von QUNIS wichtig für die erfolgreiche Zusammenarbeit. Im Juni 2020 startete das Projekt mit einem gemeinsamen Analyseworkshop. Sehr konkret wurden hier bereits die wesentlichen Ziele und Anforderungen herausgearbeitet, die das weitere Vorgehen bestimmen:

  • In einer Konzeptphase sollten die Datenarchitektur, Technologien, Data Governance und die entsprechende Organisation mit Rollen und Verantwortlichkeiten in der IT und den Fachbereichen geklärt werden.
  • Ein neues Data Warehouse soll entstehen. Zur Integration von Datenquellen und Aufbau der Kennzahlen wurde eine Use-Case-getriebene Datenstrategie beschlossen; d.h. das strukturierte Datenmodell wächst systematisch mit den jeweiligen Data Marts der schrittweise umgesetzten Anwendungen.
  • Der erste Use Case ist der Bereich Yield im Rahmen des Qualitätsmanagements, der Schlüsselkennzahlen für die Produktionssteuerung liefert. Hierfür ist das neue Data Warehouse in der vorhandenen On-Premises-Umgebung des Microsoft SQL Servers die geeignete Lösung.
  • Das DWH soll später mit Cloud-basierten Technologien zum Data Lake erweitert werden können, um Advanced Analytics und operative Lösungen wie Predictive Maintenance mit Produktions- und Sensordaten umsetzen zu können.
  • Wichtig für die unternehmensweite Initiative ist ein Priorisierungs- und Eskalationskonzept, das die sichere Einordnung von Anforderungen und Kommunikation mit den Fachbereichen gewährleistet.
  • Als Best Practice für das neue DWH dient die QUNIS Automation Engine (QAE), ein toolgestützter Ansatz, der den Aufbau und Betrieb von Data-Warehouse-Lösungen inklusive BI- und Datenmanagement-Prozessen standardisiert und automatisiert.

Den Anfang macht das Qualitätsmanagement

Die Strategie wurde innerhalb von drei Monaten entwickelt und ausformuliert. Auf dieser Grundlage wurde das Fachkonzept der Yield-Kennzahlen samt technischer Anforderungen als erste Anwendung aufgesetzt. Die Yield-Werte, die in der Leiterplattenanfertigung den aus einem Fertigungsnutzen generierten Ertrag (brauchbarer Leiterplatten) angeben, sind für AT&S eine zentrale Performance-Stellschraube. Höhere Yield-Werte bedeuten eine höhere Produktionsausbeute bei geringeren Kosten. Durch ein NCC-Reporting (Non Conformance Costs) wurde zudem die Betrachtung der Kostenseite noch weiter verfeinert.

Die Implementierung nach dem QAE-Ansatz startete im November 2020 als Proof of Concept für das Data Warehouse. Der umfangreiche Yield-Bereich ist inzwischen als Beta-Version auf der Proof-of-Concept-Umgebung verfügbar, während das überschaubarere NCC-Reporting bereits im Live-Betrieb ist.

Als Frontend für das Rollout der Datenplattform ist Microsoft Power BI im Einsatz. QUNIS hatte das Projektteam hier bei der Auswahl einer geeigneten Frontend-Technologie unterstützt. Das Qualitätsmanagementreporting wurde inzwischen um ein Modul für das Supply Chain Management und eine operative BI-Anwendung mit Produktions- und Maschinendaten ergänzt.

Auch alle künftigen Module werden mithilfe eines strukturierten Anforderungsmanagements realisiert. Über ein Ticketing-System in der IT werden dazu Requests nach Aufwand und Nutzen gesichtet und priorisiert.

Agile Entwicklung und Rollout über die BI-Organisation

Die anfangs definierte Organisationsstruktur bewährt sich im Projektmanagement. Federführend ist das in der IT angesiedelte EDM-Team (Enterprise Data Management Team), das im Rahmen der unternehmensweiten Data Governance auch standardisierte Stamm-, Referenz und Metadaten etabliert. Zum EDM-Team gehören u.a. Rollen wie der Data Engineer, Solution Architect und Data Architects. Ansprechpartner in den Fachbereichen sind die Key- und Power User.

Als großer Vorteil erweist sich die agile Vorgehensweise. Im umfassenden Projekt ist die Realisierung in überschaubaren Sprints motivierend für das Team. Außerdem lässt sich die parallele Arbeit an mehreren Teilprojekten gut organisieren. Auch die Zusammenarbeit mit den Fachbereichen verläuft durch sprintweise Entwicklungsfortschritte und die gezielte Aufgabenverteilung an die jeweiligen Key User transparent und sicher.

Das EDM-Team berichtet direkt an die IT-Leitung und kann sich im konzernweiten Projekt auf den Rückhalt des Vorstands verlassen. QUNIS unterstützt von der strategischen und technologischen Beratung über die fachliche Konzeption bis zur Implementierung samt Coaching und Koordination aller Stakeholder.

Self-Service erfordert ein durchdachtes Backend

Mit den ersten Anwendungen werden bereits handfeste Vorteile sichtbar. Das Yield Management schafft Transparenz über Ausschussquoten, granular und konsolidiert über verschiedene Werke. Die NCC-Zahlen sind komplett neue Steuerungsinformationen für die Fachbereiche.

Erstmals ist zudem eine Self-Service-Informationsversorgung möglich, die Unabhängigkeit in die Fachbereiche bringt. Ulrike Klein hat jedoch vor allem das Gesamtbild im Blick. Ihr Team fokussiert sich auf den nachhaltigen Aufbau von Data Marts im Rahmen des unternehmensweiten Datenmanagements:

„Wir wollen gut dokumentierte Daten in Top-Qualität zur Verfügung stellen. Mit Zugriff auf ihre jeweiligen Data Marts und den Data Catalog können die Fachbereiche dann ihre eigenen Applikationen auf standardisierter Datengrundlage selbst aufbauen.“  

Skalierung auf Basis der tragfähigen Strategie

Die Data & Analytics-Plattform von AT&S befindet sich noch in der Anfangsphase. Mit der Umsetzung weiterer Use Cases entsteht Schritt für Schritt eine breite, verlässliche Datenbasis, mit Informationen zu ihrer Herkunft, Bedeutung und dem jeweiligen Data Owner im zentral verfügbaren Data Catalog.

Schon jetzt können auf dieser Basis kleinere Applikationen wie eine Balanced Scorecard sehr schnell nach Nutzerbedarf abgebildet werden. Diese „Quick Wins“ sind aber nicht das Ziel des EDM-Teams, das sich vornehmlich auf den systematischen Ausbau des Datenpools konzentriert. Jeder Use Case erfordert dabei eine sorgfältige Vorbereitung und auch eine kontinuierliche Weiterentwicklung der Datenkompetenz im Team.

Für dieses langfristig angelegte Datenprojekt sieht sich Ulrike Klein durch die umfassende Data & Analytics-Strategie gut gerüstet: „Die definierte Strategie gibt uns den Plan für den weiteren Ausbau vor. Wir müssen nicht jedes Mal neu entscheiden und können Fragen der Fachbereiche jederzeit beantworten.“

Die Architektur, die Infrastruktur, die Entwicklung auf Basis des strukturiertem Anforderungsmanagements und die professionelle Organisation sind gesetzte Grundpfeiler. Einzelne Bausteine wie Anwendungen, die Organisation oder die Governance können in diesem Grundgerüst durch einfache Skalierung wachsen. Auch Details wie beispielsweise das Staffing des EDM-Teams lassen sich auf dieser Grundlage gut planen.

Spätere Ausbaustufen wie der Einbezug neuer Cloud-Technologien sind durch die Strategie ebenfalls abgedeckt. Ulrike Klein sieht diese sichere Planungsgrundlage als zentralen Erfolgsfaktor für die nachhaltige Entwicklung von AT&S hin zum datengetriebenen Unternehmen.

Mehr zur AT & S Austria Technologie & Systemtechnik AG: AT&S ist einer der weltweit führenden Hersteller von hochwertigen Leiterplatten und IC-Substraten. AT&S industrialisiert zukunftsweisende Technologien für seine Kerngeschäfte Mobile Devices, Automotive, Industrial, Medical und Advanced Packaging. Als internationales Wachstumsunternehmen verfügt AT&S über eine globale Präsenz mit Produktionsstandorten in Österreich (Leoben, Fehring) sowie Werken in Indien (Nanjangud), China (Shanghai, Chongqing) und Korea (Ansan nahe Seoul).

Mehr zu QUNIS StrategieberatungQUNIS Strategie