Archiv für die Kategorie Datenmanagement

R-KOM: Automatisiertes BI-Reporting mit 360-Grad-Blick über alle Fachbereiche

Erstellt am: Dienstag, 18. März 2025 von Anja Gorbach

Als Telekommunikationsanbieter in Ostbayern ist R-KOM in den letzten Jahren kontinuierlich gewachsen und hat seine Geschäftsfelder erweitert. Mithilfe von QUNIS baut das Controlling ein automatisiertes BI-Reporting auf, das einen 360-Grad-Blick über alle Fachbereiche für die Unternehmenssteuerung liefert.

Wir wollten von QUNIS den Grundaufbau für das Data Warehouse bekommen, den Betrieb und weiteren Ausbau aber dann möglichst schnell selbst übernehmen.

Katharina Ergesi,
Controlling und BI, R-KOM GmbH

Data Warehouse als Basis für die datengetriebene Unternehmenssteuerung

Gehörten anfangs ausschließlich regionale Unternehmen zum Kundenkreis von R-KOM, versorgt der TK-Anbieter seit mehr als 15 Jahren auch Privatkunden mit Internet, Telefonie, TV und Datendiensten. Die Tochtergesellschaft der Stadt Regensburg baut zudem das Glasfasernetz im kommunalen Auftrag weiter aus.

Mit dem Wachstum sind auch die Anforderungen an das Controlling gestiegen. Die Entscheider im Unternehmen brauchen vertrauenswürdige Steuerungskennzahlen, die Transparenz über alle Bereiche schaffen.

Die Controller hatten das Reporting bislang in Form von Excel- und PowerPoint-Berichten aufbereitet und verteilt. Im Geschäftsalltag waren dabei vor allem der hohe manuelle Aufwand, der fehlende Single Point of Truth und der beschränkte Zugriff auf SAP-Daten problematisch. Eine moderne BI-Plattform mit zentralem Data Warehouse sollte hier Abhilfe schaffen.

Implementierung mit Best Practices

Da es bislang keine BI-Lösung gab, fand der Systemaufbau „auf der grünen Wiese“ statt. Mit QUNIS als Implementierungspartner ist R-KOM dabei direkt in die neuesten Technologien eingestiegen und hat ein hoch automatisiertes Data Warehouse auf Basis des Microsoft SQL Servers realisiert. Katharina Ergesi, zuständig für Controlling und BI bei R-KOM, formuliert den pragmatischen Anspruch des mittelständischen Unternehmens: Wir wollten von QUNIS den Grundaufbau für das Data Warehouse bekommen, den Betrieb und weiteren Ausbau aber dann möglichst schnell selbst übernehmen.“

Das Data Warehouse Framework von QUNIS, das Best Practices und vorgefertigte Funktionen in einem standardisierten Vorgehensmodell vereint, war dafür die ideale Implementierungsgrundlage. Das Framework spart Zeit und minimiert Risiken beim Aufbau von Data Warehouses mit modernsten Technologien.

Der hohe Standardisierungs- und Automatisierungsgrad vereinfacht zudem den Betrieb, die Administration und die Weiterentwicklung der IT-Architektur. Auch mit wenig Ressourceneinsatz kann das Controlling damit ein unternehmensweites Reporting bereitstellen und eigenständig ausbauen.

QUNIS hat die Implementierung der IT-Architektur übernommen, die automatisierten Ladeprozesse aus den Quellsystemen eingerichtet und die analysefähigen Datenmodelle aufgebaut. Gemeinsam mit dem Controlling wurden die Business-Logiken definiert und die Reports und Dashboards im Frontend Power BI gestaltet.

Die Implementierung startete im Oktober 2021 mit einer Anwendung für das Finanzcontrolling. Mit der Anbindung der SAP-Module FI/CO waren erste Ad-hoc-Reports schnell verfügbar. Der erste Rollout des SAP-Reportings erfolgte Ende 2022 mit einer App, in der die GuV und der Umsatz-Forecast vollständig dargestellt sind.

Anschließend wurden sukzessive Apps der Fachbereiche wie Vertrieb, Beschaffung, Service, Ausbau oder Technik umgesetzt und so der angestrebte 360-Blick auf das Geschäft realisiert. Die Erstimplementierung aller Apps war im Jahr 2024 abgeschlossen, seitdem erfolgt eine kontinuierliche Weiterentwicklung. Katharina Ergesi erklärt die Entwicklungsdynamik:

Der Ausbau des Reportings ist ein laufender rollierender Prozess, weil sich immer weitere Reports aus dem Erst-Projekt entwickeln.

Hoher Automatisierungsgrad

Die effiziente BI-Plattform ermöglicht dem mittelständischen Unternehmen detailliertes Reporting mit tagesaktuellen Daten. Zur Realisierung neuer Berichte und Analysen werden schrittweise weitere Datenquellen in das Data Warehouse integriert.

Inzwischen sind auch die SAP-Module MM und HCM angebunden. Aus weiteren operativen Systemen werden außerdem Forecast-Daten, Vertrags-, Umsatz- und Kundendaten, tagesaktuelle Callcenter-Daten sowie technische Daten eingespielt.

  • Manuelle Berichte werden nach ihrer Überprüfung und Bereinigung zunehmend in das Data Warehouse verlagert und im leistungsfähigen Frontend Power BI abgebildet. Power BI soll als zentrales Tool zur Unternehmenssteuerung von R-KOM etabliert werden.
  • Mithilfe steuerungsrelevanter KPIs wird dazu jeder Unternehmensbereich in übersichtlichen Dashboards abgebildet, um einen guten strategischen Überblick zu erhalten.
  • Von dieser Ebene aus werden schrittweise operative Detaildaten aus dem Tagesgeschäft ergänzt.

Neben dem Finanzreporting ist ein Vertriebsreporting in Betrieb, das die Umsatzentwicklung auf Basis von Vertragsanalysen zeigt. Weitere Applikationen sind ein Servicereporting mit Callcenter-Auswertungen sowie ein Technikreporting.

Derzeit greifen rund 40 Nutzer aus allen Fachbereichen auf die Berichte und Analysen zu. Außer dem Monatsreporting wird heute ein Managementreporting pro Quartal bereitgestellt. Mitarbeitende der operativen Bereiche erhalten außerdem zum Teil tagesaktuelle Informationen.

Zuverlässige Informationen für alle

Das Data Warehouse hat zahlreiche Verbesserungen auf allen Unternehmensebenen gebracht. Wichtige Kennzahlen stehen nun zeitnah für wesentlich mehr Konsumenten im System bereit. Damit hat sich die Transparenz über alle Unternehmensbereiche erhöht. Expertenwissen, das zuvor an einzelne Personen gebunden war oder in separaten Excel-Listen vorlag, wird geteilt und ist nun auch für neue Kolleginnen und Kollegen einfach verfügbar. Katharina Ergesi nennt Beispiele:

Vom IP-Traffic über Strom-Daten im Rechenzentrum, unsere Follower-Zahlen auf Social Media bis zu Vertriebs- und Finanzzahlen – wir haben überall tiefere Einblicke und einen besseren strategischen Überblick gewonnen.

Im gesamten Unternehmen unterstützen vertrauenswürdige Kennzahlen, deren Herkunft durch Drill-down im System nachvollziehbar ist, die Entscheidungsfindung. Durch den hohen Aktualitätsgrad der Informationen hat sich auch die Reaktionsfähigkeit erhöht. Im Tagesgeschäft ist beispielsweise die optimierte Zusammenarbeit mit dem Callcenter, die nun proaktiver gesteuert werden kann, ein erheblicher Vorteil.

Mit den Vorteilen des laufenden Reportings ist bei den Berichtsempfängern zudem das Bewusstsein für eine saubere Datenbasis als Voraussetzung für zuverlässige Kennzahlen gestiegen. Abgesehen von den bereinigten Daten im Data Warehouse profitiert davon auf Dauer auch die Datenqualität in den operativen Vorsystemen.

Einfacher Ausbau des Reportings

Auf Basis des skalierbaren Data Warehouse kann das Team von R-KOM nun selbst neue Auswertungen erstellen. So konnten die Controller ohne externe Unterstützung eine zentrale App zur Geovisualisierung des Ausbaugebietes mit Erschließungs-, Beschaltungs- und technologischen Daten aufbauen, inklusive Drill-down bis auf jeden Straßenzug.

Heute lautet die Devise der Controller,
die eigenständig neue Ideen umsetzen:
„Lass uns das mal in Power BI machen!“

Weitere Use Cases sind bereits in Pipeline. Die geplante Berichterstattung zum Ausbau des Glasfasernetzes wird künftig neue Datenquellen mit wesentlich höheren Datenmengen sowie neue Berichte erfordern. Geplant ist auch die Einbindung des Beschaffungsreportings und des Nachhaltigkeitsreportings in das Data Warehouse.

Mehr zur Regensburger Telekommunikationsgesellschaft mbH:  R-KOM ist ein kommunales Unternehmen der Stadt Regensburg und seit 1997 der regionale Telekommunikationsanbieter für Ostbayern. Das Unternehmen verfügt über eine Reihe von Stadtnetzen, um Ostbayern mit der weltweiten Datenautobahn zu verbinden. Die Netze bestehen aus Glasfaserkabeln für die Kommunikation in Lichtgeschwindigkeit .R-KOM bietet ihren Geschäfts- und Privatkunden das komplette Spektrum von modernsten Telefon- und Internetanschlüssen über die Standortvernetzung, das Rechenzentrum bis hin zum Kabelfernsehen. www.r-kom.de

Mehr zur QUNIS Implementierung

 

Transparente Aufgabendefinition als Schlüssel für einen effizienten Betriebssupport

Erstellt am: Donnerstag, 6. Februar 2025 von Monika Düsterhöft

Wartung und Support sind wesentliche Bestandteile einer erfolgreichen Data & Analytics-Lösung. Schon während der Implementierung sollte genau festgelegt werden, welches Support-Spektrum zur jeweiligen Analytics-Lösung passt und welche Anforderungen bestehen.

Professionelle Betriebsservices entlasten interne Teams und Budgets

Der Betriebssupport einer Analytics-Lösung ist ebenso einzigartig wie die Lösung selbst. In einer zunehmend komplexer werdenden Systemlandschaft muss deren Betrieb zudem eine Vielzahl von Aufgabenbereichen abdecken.

Für einen effektiven Support braucht es gut ausgebildete Support Engineers, die sich mit modernen IT-Architekturen, der Verwaltung von Cloud-Domänen und verschiedenen IT-Produkten vom Backend bis zum Frontend auskennen. Zudem sollten sie versiert im Umgang mit den Daten in den fachlichen Applikationen sein.

Das Vorhalten aller entsprechend spezialisierten Skills im eigenen Unternehmen ist jedoch oft nicht wirtschaftlich, da vor allem schwerwiegende Störungen des Systems selten auftreten und nicht den alltäglichen Betrieb ausmachen.

QUNIS Care & Run: Sicherheit durch maßgeschneiderte Unterstützung

Mit QUNIS Care & Run stellen wir als End-to-End-Expertenhaus sicher, dass bei unseren Kunden auch im Betrieb ihrer Data & Analytics-Plattform keine Lücke entsteht. Entscheidend dafür ist, dass das Servicepaket für den Betriebssupport genauso individuell gestaltet wird, wie die Analytics-Lösung selbst.

Die präzise und transparente Definition der Aufgabenbereiche bildet die Basis, damit Wartung und Support der Systemlandschaft kostenoptimiert und effizient funktionieren. Doch wie genau stellen wir fest, welche Aufgaben und Anforderungen für das maßgeschneiderte Supportpaket relevant sind?

Individuell zugeschnittene Betreuung zahlt sich aus

In einem Konfigurationsworkshop erarbeiten wir gemeinsam  Ziele und Anforderungen. Vor diesem Hintergrund wird die gesamte Data & Analytics-Landschaft systematisch durchleuchtet und die zugehörigen Aufgaben in einer Matrix detailliert definiert.

Dabei werden unter anderem folgende Kategorien betrachtet:

  • Infrastruktur
  • Konnektoren
  • Cloud-Komponenten
  • Frontend
  • Anwendungen

Die Applikationen selbst werden in Steckbriefen beschrieben, die Details zu Berichten, KPIs und Nutzerprofilen enthalten. Außerdem werden den Systemkomponenten spezifische Betreuungsaufgaben wie Monitoring, Patchmanagement, Operations und Reporting zugewiesen. Die Zeithorizonte für Service- und Standzeiten, Zusatzservices an Wochenenden sowie die zu überwachenden Metriken werden ebenfalls festgelegt.

Ein weiterer zentraler Punkt ist die Definition der Supportprozesse: Wie werden Anfragen priorisiert? Wer ist intern und extern verantwortlich? Wie gestalten sich die Abläufe vom 1st bis zum 3rd Level Support?

Vertrauensvolle Zusammenarbeit auf Basis klarer Vereinbarungen

Die komplexe Vielfalt der Systemkomponenten und Aufgabenbereiche wird durch eine Matrix-Darstellung übersichtlich zusammengefasst. Diese gibt allen Beteiligten einen klaren Überblick über das flexibel abgestimmte Servicepaket.

QUNIS und der Kunde legen auf dieser Grundlage die vertraglichen Regelungen fest und starten den Betriebsservice mit einem gemeinsamen Kick-off-Workshop. In der Praxis hat sich gezeigt, dass die Zusammenarbeit auf Basis klarer Vertragsbestimmungen und SLAs äußerst effizient, vertrauensvoll und gewinnbringend ist. Jede Partei kennt ihre Aufgaben und Verantwortungsbereiche, sodass auch dringende Supportfälle schnell und koordiniert bearbeitet werden.

Die Synergien, die aus dieser engen Zusammenarbeit entstehen, sind ein wesentlicher Erfolgsfaktor für den Betrieb und die Weiterentwicklung von Analytics-Lösungen. Die Kombination aus internen und externen Kompetenzen optimiert das Tagesgeschäft und ermöglicht schnelle, praxisorientierte Anpassungen, die das gesamte Analytics-Projekt voranbringen.

Mein Tipp: Lesen Sie im Praxisbericht von Melitta Single Portions wie das Unternehmen QUNIS Care & Run erfolgreich nutzt.  

Plusnet: Innovative Analytics mit Microsoft Fabric

Erstellt am: Donnerstag, 30. Januar 2025 von Anja Gorbach

Das Telekommunikationsunternehmen Plusnet gehört zu den ersten Anwendern der Analyseplattform Microsoft Fabric. Das Fazit nach der Implementierung ist positiv. Die Plattform hilft Plusnet bei der Etablierung einer stringenten Datenkultur und ermöglicht es den Fachbereichen, geschäftlichen Mehrwert aus ihren selbst verwalteten Datenprodukten zu generieren.

QUNIS hat das Analytics-Modell ganzheitlich auf unser Business hin zugeschnitten.

Britta Mörike,
Team-Leiterin Business Intelligence, Plusnet

Datengetriebener Lakehouse-Aufbau mit Microsoft Fabric

Plusnet liefert TK-Produkte und -Lösungen für mehr als 40.000 Geschäftskunden in Deutschland. Die Tochtergesellschaft der EnBW hat im Oktober 2022 ein neu zusammengestellten Business-Intelligence-Team aufgebaut. Damit einhergehend wurde eine neue Daten-Architektur gesucht.

Aufgrund vielfältiger Anforderungen im Bereich Reporting und Analyse stand schnell fest, dass ein zentraler Datenpool als Single Point of Truth (SPOT) benötigt wurde. Das zuständige Projektteam entschied sich, die Implementierung zusammen mit QUNIS anzugehen, weil die ganzheitliche Herangehensweise der Data & Analytics-Spezialisten überzeugte.

Mit QUNIS konnte das Team alle Themen von der Strategie und Methodik über Datenstrukturen, Data Governance, IT-Architektur bis zur Auswahl der richtigen Technologien bearbeiten. Die Konzeption orientierte sich dabei sehr individuell an der Geschäftstätigkeit und Zielsetzung von Plusnet, das Analytics-Modell wurde von QUNIS ganzheitlich auf das Business hin zugeschnitten.

Mit QUNIS den Schritt ins Neuland gewagt

Als passende Technologie für das Unternehmen wurde die Lake-zentrierte Analyseplattform Microsoft Fabric ermittelt, die alle Funktionen von der Datenintegration über Data Engineering, Reporting und Advanced Analytics bis zu Data Science in einer einheitlichen, kosteneffizienten Umgebung abdeckt.

Fabric kombiniert bewährte Azure-Datendienste inklusive Power BI in einer vorkonfigurierten Plattform und unterstützt einen hohen Grad an Self-Service bei der Entwicklung von Datenprodukten und analytischen Applikationen. Plusnet sah hier die Möglichkeit, den Fachbereichen viel Freiheit bei der Entwicklung ihrer Anwendungen auf zentraler Datenbasis einzuräumen und so eine optimale Wertschöpfung aus den Unternehmensdaten zu realisieren.

Zum Zeitpunkt der Entscheidung im Jahr 2023 war Fabric ein brandneues Produkt am Markt. Mit QUNIS als erfahrener Partner an der Seite wagte Plusnet den Schritt ins Neuland.

Metadatengetriebener Entwicklungsansatz

Mit Fabric kann Plusnet sein agiles Entwicklungskonzept umsetzen. Gestartet mit einem Grundgerüst an Strukturen und Daten wird die Analytics-Plattform durch die Realisierung der einzelnen Use Cases sukzessive ausgebaut.

  • Neu ist dabei vor allem der konsequente Aufbau des Lakehouse über die Metadaten, die unter der Verantwortung der jeweiligen fachlichen Data Owner stehen.
  • Die Fachbereiche verwalten ihre eigenen Datenprodukte und sind in enger Abstimmung mit dem Business-Intelligence Team, das die Metadaten im Data Dictionary in Excel einpflegt.
  • Das Data Dictionary wird in Fabric eingespielt und darüber werden die verschiedenen Schichten des Lakehouse automatisch aufgebaut.

Die verteilte Pflege des Data Dictionary erfordert laut Britta Mörike Disziplin, hat dafür aber auch erhebliche Vorteile:

Durch den metadatengetriebenen Ansatz werden ausschließlich Daten ins Lakehouse übernommen, die auch wirklich im Business gebraucht werden.

Transparente Datenprozesse

Im Rahmen der Governance werden Ownerschaften festgelegt. Durch die klaren Regeln und Verantwortlichkeiten entstehen im Lakehouse sauber geführte Datenwelten, in denen auch die Datenherkunft gut nachvollziehbar ist.

So lässt sich beispielsweise leicht klären, woher ein bestimmter Datensatz kommt oder was bei redundanten Informationen das führende System ist. Für das TÜV-zertifizierte Unternehmen Plusnet ist die transparente Datenverwaltung u.a. auch im Rahmen von Audits eine große Hilfe.

Für die Integration der Bewegungsdaten hat QUNIS diverse Vorsysteme an das Lakehouse angebunden. Ein CRM-System auf Oracle-Basis liefert Kunden- und Vertragsdaten. Finanz- und Vertriebsdaten stammen aus SAP, Salesforce, einem Billing-System und Sharepoint. Als nachgelagertes System wird eine Planungslösung aus dem Lakehouse beliefert.

Bei der Implementierung kamen Best-Practices-Ansätze aus der QUNIS Data Toolbox zum Einsatz, die individuell auf den Bedarf von Plusnet zugeschnitten wurden. Mit automatisierten Routinen sorgen sie für eine schnelle Umsetzung und einen dauerhaft effizienten Systembetrieb.

Schneller Launch neuer Use Cases

Die Analyseplattform ging mit Vertragsauswertungen zur Entwicklung der Bestandskunden als ersten Use Case an den Start. Der zweite Use Case war ein Performance Dashboard mit Umsatz- und Vertriebsanalysen auf Basis von Salesforce, darauf folgte die Finanzsicht mit der P&L-Darstellung von SAP-Daten.

Statt mit einzelnen Reports aus verschiedenen Quellsystemen zu arbeiten kann Plusnet in der durchgängigen Analyseumgebung nun beispielsweise Umsätze, Preise, Produkte und Verträge kombiniert auswerten und damit eine 360-Grad-Kundensicht herstellen, um auf dieser Basis den kompletten Vertriebsprozess zu begleiten und das Produktportfolio zu optimieren. Britta Mörike hebt außerdem die hohe Effizienzsteigerung durch die Automatisierung hervor:

Wir haben in vielfältigen Prozessen manuelle Aufwände um 80 Prozent reduziert. Manche Aufgaben dauern nur noch eine Stunde statt einem Tag.

Fabric eröffnet Fachanwendern neue Möglichkeiten, ihre datenorientierten Geschäftsprozesse zu gestalten. Plusnet nutzt diese Potenziale und schafft auch organisatorisch die entsprechenden Rahmenbedingungen für die „data-driven company“. Derzeit wird eine unternehmensweite Data Governance aufgebaut und implementiert.

So werden in wöchentlichen Meetings regelmäßig Fragen rund um die Datenorganisation besprochen, Data Ownerships festgelegt, fließende Übergänge hinsichtlich der Prozessverantwortung für Datenuploads, Datenmodelle oder das Anforderungsmanagement geklärt und das Know-how im Team stetig weiter ausgebaut.

Die Erfahrungen mit den ersten Use Cases zeigen, dass das innovative Entwicklungskonzept Früchte trägt: Aus den datengetriebenen Strukturen baut sich schrittweise ein nachhaltiges Datenmodell im Lakehouse auf.

Neue Anforderungen lassen sich mit dem standardisierten Vorgehen auf sauberer Datenbasis sehr schnell und sicher umsetzen. So hatten die Stakeholder beispielsweise nach der Präsentation der ersten Use Cases viele neue Ideen, die das Projektteam in kürzester Zeit realisieren konnte. Das Projektteam erlebt in der Praxis, dass auf Basis der konsistenten Datenprodukte vielfältige neue Anforderungen direkt bedienbar sind.

Mehr zu Plusnet: Die Plusnet GmbH, eine Tochtergesellschaft der EnBW, ist ein deutsches Telekommunikationsunternehmen mit Fokus auf Geschäftskunden. Plusnet betreibt eine eigene, bundesweite Netzinfrastruktur und verfügt über jahrzehntelange Erfahrung im Betrieb unterschiedlicher Breitband-Technologien. Auf Basis ihres umfassenden Know-hows stellt die Plusnet Gruppe mehr als 40.000 Geschäftskunden jeder Größenordnung zuverlässige und hochsichere Sprach- und Datendienste zur Verfügung. Seit 2021 treibt das Unternehmen den Umstieg auf die Zukunftstechnologie Glasfaser voran – durch eigenwirtschaftlichen Ausbau sowie bundesweite Netz-Kooperationen. Darüber hinaus agiert Plusnet als Vermittler zukunftssicherer Glasfasernetze: Über die Glasfaser-Plattform Netbridge können Partner eigene Netze besser auslasten oder zusätzliche Reichweite für eigene Services gewinnen. Das Unternehmen mit Sitz in Köln beschäftigt rund 500 Mitarbeiterinnen und Mitarbeiter an insgesamt zehn deutschen Standorten. www.plusnet.de

Mehr zu den Themen Data Governance: State of the Art-Organisationskonzept für zuverlässig konsistente Daten und Data Lakehouse: Modernes Fundament für flexible, skalierbare Data & Analytics-Lösungen.

 

W. & L. Jordan: Auf dem Weg zur unternehmensweiten Datenkultur

Erstellt am: Montag, 13. Januar 2025 von Anja Gorbach

Das Unternehmen W. & L. Jordan will mehr Erkenntnisse aus seinen Daten für die Unternehmenssteuerung generieren. Kompakte Workshops von QUNIS haben den Entscheidern im Unternehmen einen Überblick über moderne Analytics-Anwendungen gegeben und Möglichkeiten für erste Maßnahmen aufgezeigt.

Ich sehe QUNIS als Partner, der einen sehr
strategischen, langfristigen Ansatz zum strukturierten Umgang mit Daten verfolgt.

Patrick Adler,
Leiter Controlling, W & L Jordan

Zentrales Datenmanagement für die Unternehmenssteuerung

Das Familienunternehmen Jordan mit seiner Eigenmarke JOKA gehört mittlerweile zu den führenden Anbietern für Bodenbeläge, Türen, Holz und Holzwerkstoffe in Mitteleuropa. Bei rund 1.500 Mitarbeitenden und mehreren Tochtergesellschaften sah das Controlling eine Größenordnung erreicht, um ein zentrales Datenmanagement als Grundlage für die Unternehmenssteuerung im Konzern zu etablieren.

Gestartet wurde die Dateninitiative vom Leiter Controlling Patrick Adler. Er hatte QUNIS auf Veranstaltungen im Controlling-Umfeld kennengelernt und holte die Data & Analytics-Experten wegen ihres strategisch weitblickenden und zugleich pragmatischen Ansatzes mit großem Marktüberblick als Berater ins Haus.

Die Beratung durch QUNIS sollte den Entscheidern im Unternehmen einen Einblick in die Rahmenbedingungen einer unternehmensweiten Datenstrategie geben und mögliche Potenziale für Jordan ausloten.

Zunehmende Digitalisierung erfordert konzernweite Datenstrategie

Im Finanzbereich arbeitet Jordan bereits mit einem zentralen Datenpool. Das Controlling und die Prozesse im Kostenmanagement und Reporting wurden in den letzten Jahren neu aufgestellt. Dazu gehörte auch die Implementierung eines Data Warehouse für die interne Ergebnisberichterstattung (GuV) mit Power BI als Frontend.

Beim Aufbau des Data Warehouse traten allerdings Schwachstellen im Stammdatenmanagement zutage, die im Warenwirtschaftssystem zuvor nicht aufgefallen waren. Historisch gewachsene, nicht harmonisierte Prozesse führten zu strukturell mangelhaften Stammdaten. Da die Einführung weiterer datengetriebener Systeme geplant ist, sah der Controllingleiter Patrick Adler den Zeitpunkt für eine konzernweite Datenstrategie gekommen.

Sein Anliegen hinsichtlich der Zusammenarbeit mit QUNIS war, alle Datenthemen systemübergreifend zu durchdenken und im Unternehmen die klare Notwendigkeit einer Datenkultur aufzuzeigen. Eine wesentliche Frage war dabei, wie das Data Warehouse des Controllings fachübergreifend skaliert oder erweitert werden kann.

Kompakte Wissensvermittlung in drei Workshops

Die Beratung fand im Rahmen von drei Workshops statt, an denen neben dem Controlling und der Geschäftsführung auch die IT-Experten und die Vertreter der Fachabteilungen von Jordan teilnahmen.

  • Im ersten Workshop wurden die Themenblöcke von Data & Analytics im Überblick dargestellt und Querschnittsfunktionen wie Cloud-Services oder ein zentraler Data Catalogue besprochen.
  • Im zweiten Workshop ging es um IT-Themen wie IT-Architekturen oder Technologien.
  • Das Thema Governance stand im Mittelpunkt des dritten Workshops.

In einer Abschlusspräsentation zeigte QUNIS dann erste Handlungsfelder für Jordan auf und gab Empfehlungen zum Einstieg in das unternehmensweite Datenmanagement.

Innerhalb kürzester Zeit brachte QUNIS damit alle Stakeholder durch kompakte Informationen auf einen aktuellen Wissensstand zu Technologien, Tools und Organisationsmodellen.

Erkenntnisse mit hohem Praxisbezug

Patrick Adler hebt besonders die strukturierte und gut verständliche Darstellung auch für Nicht-Techniker hervor. Statt technischer Details stand die Business-Sicht von Jordan im Vordergrund. Ein Thema war beispielsweise, wie Datenobjekte im Rahmen der fachlichen Geschäftsprozesse definiert und gepflegt oder wie kausale Zusammenhänge hergestellt werden.

Wichtige Fragen für Jordan waren hier u. a., wie der 360-Grad-Blick auf Handwerker als Direktkunden und darüber hinaus auf den Endkunden hergestellt werden kann oder wie Daten aus dem Online-Shop für gezielte Kampagnen genutzt werden können. Mit diesen Ansätzen konnte QUNIS auch die Produkt- und Vertriebsmanager begeistern. Patrick Adler bestätigt:

Alle Workshops waren geprägt von sehr guter Zusammenarbeit.

Hinsichtlich der technologischen Basis waren die Bewertungskriterien für verschiedene IT-Architekturen hilfreich für das Team von Jordan. Wichtig war auch die Erkenntnis, dass organisatorische Grundlagen wie die Data Governance mit zugehörigen Rollenkonzepten entscheidende Erfolgsfaktoren von Analytics-Projekten sind.

Die umfangreiche Projekterfahrung von QUNIS liefert hier wertvolle Hinweise aus der Praxis.  Ein Beispiel ist die prozess- und abteilungsübergreifende Entstehung und Nutzung von Daten, die zur Folge hat, dass ein datenorientierter Zuschnitt von Rollen und Gremien für Datenaufgaben sich nicht unbedingt mit der klassischen funktionalen oder regionalen Organisationsstruktur deckt.

Diese Querschnittsfunktion entlang der Datenprozesse ist bei geplanten organisatorischen Maßnahmen unbedingt zu beachten.

Veränderungsprozesse sind angestoßen

Die Workshops haben die Herausforderungen der datengetriebenen Transformation einer Organisation umrissen und damit die Erwartungen des Controllingleiters erfüllt. Laut Patrick Adler war die Beratung ein Augenöffner für den strategischen Ansatz zum Umgang mit Daten:

Nicht nur ein Tool ist entscheidend, sondern die am Geschäftsmodell ausgerichtete strukturierte Verwendung von Daten, von der operativen Ebene bis hin zur Unternehmenssteuerung. Grundlage dafür ist das Verständnis einer Data & Analytics-Plattform als orchestriertes Zusammenspiel mehrerer Tools für unterschiedliche Unternehmensanforderungen.

Die Workshops haben bei Jordan die hohe Bedeutung der Datenorientierung aufgezeigt und interne Veränderungsprozesse angestoßen. Auch die Tatsache, dass Vorbehalte gegenüber dem Cloud-Betrieb abgebaut werden konnten, war ein entscheidender Schritt nach vorne.

Patrick Adler hält fest: „Die Frage ist jetzt nicht mehr, ob eine Data & Analytics-Plattform benötigt wird, sondern nur wie und zu welchem Zeitpunkt.

Die Empfehlungen aus den Workshops befinden sich derzeit noch in der internen Bewertung, um sie mit weiteren Digitalisierungsprojekten in Einklang zu bringen.“ Patrick Adler wird den internen Aufbau von Know-how währenddessen weiter vorantreiben. Sein Fazit lautet:

QUNIS ist für mich Ansprechpartner Nummer eins,
wenn es darum geht, die nächsten Schritte zu gehen.

Mehr zur Jordan Gruppe: Die W. & L. Jordan GmbH gehört zu den führenden Anbietern von Bodenbelägen, Türen, Holz, Holzwerkstoffen, Sonnenschutz und Wohnstoffen für den gehobenen Wohn- und Objektbereich. Als zuverlässiger Partner bietet Jordan seinen Kunden aus Handwerk und Fachhandel das Komplettsortiment im Bereich Inneneinrichtung. Mit seinen Marken JOKA und INKU (für Österreich) steht W. & L. Jordan international für Produkte der Innenausstattung, die modernes Design, Funktionalität und Nachhaltigkeit vereinen. www.joka.de

Mehr zur QUNIS Strategie

Deutsche Unternehmen müssen bei D&A-Plattformen aufholen

Erstellt am: Mittwoch, 8. Januar 2025 von Anja Gorbach

Laut der neuesten Lünendonk-Studie 2024 zum Markt für Data & Analytics (D&A) Services in Deutschland erkennen Unternehmen zunehmend, dass datengetriebenes Arbeiten der Schlüssel für ihre digitale Transformation und langfristige Wettbewerbsfähigkeit ist.

Beim Aufbau der dafür notwendigen Datenplattform tun sich viele jedoch noch schwer.

Investitionsfokus auf D&A-Projekte

Rund 88 Prozent der befragten Unternehmen möchten sich zu einem datengetriebenen Unternehmen wandeln, um Entscheidungen auf Basis von Daten und Vorhersagemodellen zu treffen und ihre Geschäftsprozesse zu optimieren.

Ein Drittel der Unternehmen hat bereits ein dediziertes Budget für Data & Analytics und KI-Projekte bereitgestellt. Wenn es jedoch um die Implementierung und den Ausbau von D&A-Plattformen geht haben viele Unternehmen noch hohen Nachholbedarf. Insbesondere der Bereich der unternehmensweiten Datenplattformen steht für viele noch am Anfang.

Denn obwohl 95 Prozent der Befragten den Aufbau einer funktionsübergreifenden Datenplattform als Voraussetzung für eine datengetriebene Organisation sehen, haben erst 29 Prozent eine konsistente, unternehmensweite Plattform implementiert.

Der Rest, ganze 71 Prozent, kämpft nach wie vor damit, Datensilos aufzulösen und Daten aus unterschiedlichen Quellen zusammenzuführen, um beispielsweise die gewünschte 360-Grad Kundensicht herzustellen. Eine zentrale Datenbasis und moderne Lösungen für das Datenmanagement stehen daher im Fokus der Investitionen.

Ansätze wie Data Visualization und Self-Service-BI gewinnen zudem immer mehr an Bedeutung, da sie auch Nutzer ohne Spezialwissen dabei unterstützen, ihre benötigten Daten selbst auszuwerten und datengetriebene Entscheidungen zu treffen.

Organisation im Umbruch

Unternehmen stellen sich nicht nur technologisch, sondern zunehmend auch organisatorisch hinsichtlich einer neuen Datenkultur in der Organisation auf. Ein wesentliches Ziel der Anpassungen ist die Steigerung der Datenqualität.

Nur 9 Prozent der befragten Unternehmen beurteilen ihre Daten als aktuell, vollständig und konsistent. Data Governance und standardisierte Prozesse für Datenpflege und Qualitätsprüfungen sollen hier Abhilfe schaffen.

66 Prozent der Unternehmen haben bereits funktionsübergreifende Teams für Datenprojekte etabliert, in vielen Organisationen arbeiten Fachabteilungen und IT jedoch noch separat am Thema Daten.

Kompetente D&A-Dienstleister gefragt

Es gibt viel zu tun und das Thema D&A ist komplex. Zugleich bekommen die Unternehmen den Mangel an IT-Fachkräften zu spüren. Die Nachfrage nach D&A-Dienstleistern ist daher hoch. Die Unternehmen suchen sich leistungsfähige strategische Beratungs- und Implementierungspartner.

Bevorzugt werden Dienstleister mit Full-Service-Angebot, die die gesamte Wertschöpfungskette von Data Strategy über Data Engineering bis hin zu Data Operations abdecken. Als Pluspunkt zählen Technologiepartnerschaften mit den etablierten Softwareherstellern. 89 Prozent der Kunden sehen den Full-Service als wesentliches Auswahlkriterium. 

QUNIS wird von Lünendonk als Herausforderer und ausgewiesener Experte gelistet und positioniert sich als führender D&A-Spezialist und End-to-End-Dienstleister in Übereinstimmung mit den Marktentwicklungen. Basierend auf langjähriger Projekterfahrung setzen wir die Data & Analytics-Projekte unserer Kunden ganzheitlich um und begleiten sie von der Strategie über die Identifikation der Handlungsfelder bis zur Implementierung und effektiven Verankerung in ihrer Organisation.

Der Aufbau von Open Lakehouse-Architekturen ist dabei zentral. Damit ermöglichen wir es Unternehmen, ihre Daten in einer flexiblen, skalierbaren und offenen Umgebung zu speichern und zu verarbeiten. Sie profitieren von der Effizienz eines Data Lakes und der Struktur eines Data Warehouse – eine ideale Grundlage für die Nutzung von Echtzeitdaten und den Aufbau einer datengestützten Entscheidungsfindung.

Der Weg zur datengetriebenen Zukunft

Die Lünendonk-Studie 2024 zeigt deutlich: Der Markt für Data & Analytics ist ein wachsender, aber auch herausfordernder Bereich. Unternehmen müssen sich jetzt mit der richtigen Datenstrategie und einer durchdachten Plattformlösung aufstellen, um die Potenziale datengetriebenen Arbeitens auszuschöpfen. QUNIS ist bestens positioniert, um Unternehmen als kompetenter Partner bei diesem Transformationsprozess zu unterstützen – von der Strategie bis zur operativen Umsetzung.

Die vollständige Studie ist auf der Website von Lünendonk verfügbar.

Mein Tipp: Sie wollen mehr zum Thema Data Lakehouse erfahren? Holen Sie sich direkt unseren kostenfreien Quick Guide inklusive Selbstcheck  

Data Mesh als soziotechnischer Ansatz zur Erstellung einer dezentralen Datenarchitektur

Erstellt am: Mittwoch, 20. März 2024 von chaydl

An die Datenauswertung im Unternehmen werden heute immer größere Anforderungen gestellt. Das zentral angesiedelte BI Competence Center, das bislang die Entwicklung und das Datenmanagement rund um ein Data Warehouse erledigt hat, kommt damit aber immer mehr an seine Grenzen. Das Prinzip des Data Mesh bietet hier einen passenden Lösungsansatz.

Data Mesh macht Analytics agiler

Data Mesh stellt die Daten als Wertschöpfungsfaktor in den Mittelpunkt der Architekturkonzeption. Daten sollen als „Datenprodukte“ prozess- und systemübergreifend im Unternehmen zur Verfügung gestellt werden.

Die Grundidee besteht darin, Daten als Asset für die Organisation zu begreifen und Business Usern hochwertige Datenprodukte für ihre Zwecke zugänglich zu machen, damit sie diese optimal nutzen können. Diesen Ansatz verfolgt auch die Self-Service BI bereits seit Jahren.

Neu ist bei Data Mesh allerdings die konsequente Delegation der Verantwortung und Kompetenzen in die dezentrale Organisation:

  • Entwicklungsteams erhalten die Verantwortung für die Entwicklung und den Betrieb von Datenprodukten ihrer fachlichen Domäne.
  • Die Verlagerung in fachlich geschnittenen Domänenteams löst das Engpass-Problem eines einzelnen zentralen Analytic-Teams.
  • Zugleich vervielfacht sie die Entwicklungsressourcen, erhöht damit das mögliche Umsetzungstempo neuer Use Cases und gewährleistet darüber hinaus die geforderte fachliche Expertise in der jeweiligen Domäne.

Die Dateninfrastruktur für die Domänenteams wird in Form einer Datenplattform nach dem Self-Service-Gedanken bereitgestellt. Im Gegensatz zur klassischen Data-Warehouse-Architektur mit zentralisierten Datenströmen handelt es sich hier um eine domänenorientierte dezentrale Architektur für analytische Daten.

Die Definition von Data Mesh zielt eher auf die Governance und Organisation des datengetriebenen Unternehmens ab als auf technologische Aspekte. Es gibt aber eine Kernarchitektur, die sich zur Umsetzung von Data Mesh besonders eignet, das Data Lakehouse.

Data Lakehouse unterstützt Data Mesh

Das Data Lakehouse unterstützt die dezentrale Arbeit mit Datenprodukten. Durch die Trennung von Storage und Computing bietet es eine hohe Flexibilität zur Einrichtung verschiedener Domänen mit jeweils eigenen Datenprodukten auf einem gemeinsamen Datenlayer. Ein heterogener Technologie-Stack greift dabei über Open Table Format auf Daten aus verschiedenen Quellen zu und bereitet sie für Use Cases wie BI, ML, Data Science oder Data Engineering in diversen Domänen auf.

Unter Berücksichtigung einer stringenten Access Control lassen sich die Datenquellen auf diese Weise verschiedenen Teams für ihre Auswertungen zugänglich machen. Datensilos werden vermieden und domänenübergreifende Datenabfragen unterstützt. Das verteilte Computing ermöglicht es zudem, unvorhergesehene Lastspitzen aus anderen Domänen abzufangen.

Reifegrad der dezentralen Governance als Erfolgsfaktor

Gemäß Definition basiert Data Mesh auf den vier Grundprinzipien Domain Ownership, Data Products, Self-Service und Federated Governance. Die verteilte Governance ist dabei der wesentliche Erfolgsfaktor für die Etablierung von Data Mesh. Im Rahmen der Governance legen die beteiligten Teams gemeinsame Standards und Regeln fest, um ihre Zusammenarbeit, die Harmonisierung der Daten und Sicherheitsanforderungen zu gewährleisten.

Aufgaben wie das Qualitätsmanagement und die Klassifikation von Daten, Security, Schnittstellen-Verwaltung oder die Definition und Verwaltung von Datenprodukten sind über die gesamte Organisation verteilt. Die Verantwortlichkeiten müssen hier klar geregelt sein.

QUNIS hat dafür ein dezidiertes Rollenmodell entwickelt, das sich seit Jahren in Data & Analytics-Projekten bewährt.

  • Das Rollenmodell legt unter anderem das Ownership für Domänen, Datenprodukte oder Datenobjekte wie „Kunden“, „Artikel“ oder „Partner“ fest.
  • Datenexperten wie Data Owner, Data Steward und das Data Governance Board arbeiten dabei mit Funktionen eines BI- oder erweiterten Analytics-Rollenmodells zusammen.
  • Dazu gehören zum Beispiel die Rollen End User, Power User, Solution Architect, Data Engineer mit DataOps, Data Architect sowie Data Scientist mit MLOps.

Über das Rollenmodell kann der Data-Mesh-Gedanke bis hin zu den DevOps etabliert werden. Die Verankerung und Durchsetzung der Rollen und einer starken Governance sind die Voraussetzung dafür, dass die verschiedenen Teams orchestriert zusammenarbeiten, qualitativ hochwertige Datenprodukte geliefert werden und der weitgehende Self-Service im Rahmen zuverlässiger Standards funktioniert.

Die Umsetzung von Data Mesh steht und fällt mit dem Reifegrad dieser Datenorganisation. Diese Organisation ist funktionsübergreifend und deckt sich damit nicht unbedingt mit der üblichen Einteilung in Geschäfts- oder Fachbereichen. Daher ist die Mitwirkung des Management Boards bei der Kontrolle und Etablierung der datengesteuerten Organisation und Architektur unbedingt notwendig.

Data Mesh setzt sich durch

Unternehmen verstehen, dass Daten immer mehr zur Wertschöpfung beitragen. Die kluge Nutzung und Auswertung der Daten bringen den entscheidenden Wettbewerbsvorteil. Für größere Konzerne und auch für viele mittelständische Unternehmen ist erweiterte Analytics daher inzwischen selbstverständlich. Data Mesh bietet die Möglichkeit, sich in diesem Bereich agiler aufzustellen.

QUNIS sieht daher derzeit eine große Dynamik und viel Kraft am Markt, das verteilte Organisations- und Architekturkonzept im Unternehmen umzusetzen. In den Projekten zeigt sich, dass das Data Lakehouse hierbei eine große Hilfe ist, weil die Technologie das flexible Splitten von Datenräumen erlaubt und die Verteilung von Verantwortung für Datenprodukte unterstützt.

Mein Tipp: Wenn Sie mehr über Data Mesh wissen wollen, folgen Sie uns auf LinkedIn und Xing oder abonnieren Sie einfach unseren Newsletter. Oder kontaktieren Sie uns und schreiben Sie mir direkt über KONTAKT ich freue mich über den Austausch mit Ihnen! 

Digitale Innovation braucht eine Datenstrategie

Erstellt am: Montag, 11. März 2024 von Anja Gorbach

Unternehmen investieren massiv in Digitalisierungsprojekte und die datengetriebene Wertschöpfung. Neue ERP-Systeme, Prozessvereinheitlichung oder die Ertüchtigung der internen IT-Infrastruktur stehen hier auf der Agenda. Dazu kommen immer mehr innovative Use Cases wie AI- und ML-Anwendungen, Bilderkennungsverfahren oder IoT-Plattformen. Als Cloud-Lösungen sind mächtige Speicher- und Analysesysteme selbst für mittelständische Unternehmen erschwinglich und kommen dort auch rege zum Einsatz.

Ohne ein fortgeschrittenes Datenmanagement werden die digitalen Innovationen jedoch nicht funktionieren, denn nach wie vor gilt die alte Weisheit: Die neuen Technologien können die Erwartungen nur erfüllen, wenn die Datenbasis stimmt. Und hier liegt in der Unternehmenspraxis oft das Problem.

Unkoordinierte Dateninitiativen kosten Geld und gefährden die Wertschöpfung

Im Zusammenhang mit der Systemadministration sind meist auch Datenmanagement-Initiativen etabliert. Diese laufen aber oft unkoordiniert im Unternehmen nebeneinander – und jede einzelne Disziplin für sich ist eine Mammutaufgabe.

Stamm- und Metadatenmanagement, Schnittstellen-Verwaltung, Datenqualität, Initiativen rund um BI und ML sind verschiedenste Ansätze, in denen sich einzelne Teams um ihr jeweiliges Datenthema kümmern.

  • So setzt man beispielsweise das Stammdatenmanagement oft nur Tool-basiert auf.
  • Oder es kommt vor, dass in der IT eine MDM-Implementierung läuft und parallel eine unternehmensweite Data-Governance-Initiative gestartet wird.
  • Oder eine ERP-Migration von SAP R/3 auf S/4 läuft unabgestimmt mit der Data & Analytics-Welt.

Entscheidungen im Rahmen von nicht abgestimmten Einzelinitiativen verursachen jedoch unnötige Kosten und gefährden die unternehmensweite Wertschöpfung von Daten. Da hilft nur eins: die unternehmensspezifischen Ziele des Datenmanagements zu definieren und die Umsetzung dementsprechend zu planen.

Es gilt, eine umfassende Datenstrategie zu entwickeln

Die Ziele des Datenmanagements sollten sich an der Unternehmensstrategie ausrichten. In diesem Rahmen können Dateninitiativen dann sinnvoll priorisiert und eingeordnet werden, so dass Transparenz geschaffen wird und alle Maßnahmen auf ein gemeinsames Ziel hinauslaufen. QUNIS hat ein Framework für die Datenstrategie entwickelt, die mit den folgenden drei Säulen bei der Entwicklung einer ausbalancierten Strategie hilft:

  • Scope
  • Architektur & Technologie
  • Organisation & Data Governance

Scope

Hier werden die datenorientierten Ziele des Unternehmens abgesteckt. Ansatzpunkte sind dabei datengestützte Prozessabläufe, Informationsbedarfe sowie digitale Produkte und Services des Unternehmens. Die Ziele, die derzeit in den Projekten am häufigsten genannt werden, sind effiziente Prozessketten, verlässliche Auswertungen durch hohe Datenqualität, Automatisierung im Datenmanagement oder die Entwicklung wettbewerbsfähiger Produkte und Services auf Basis hochwertiger Daten.

Empfehlung: Lassen Sie den ermittelten Scope vom Management bestätigen. Die Umsetzung der Strategie wird Kapazitäten erfordern und organisatorische Veränderungen bis in die operative Prozessebene mit sich bringen. Das Committent der Unternehmensleitung ist daher unabdingbar für die erfolgreiche Umsetzung.

Architektur & Technologie

Hier werden die Themenblöcke Stamm- und Metadatenmanagement, Backbone & Middle Layer sowie der Bereich Data & Analytics diskutiert. Besonders beim Stamm- und Metadatenmanagement gibt es immer wieder gewaltige Überraschungen beim Start der strukturierten Analyse. Die Fragen, wie man an bestimmte Daten herankommt, wer die Datenhoheit hat oder wo die Lücken in der Datenpflege liegen, können viele Unternehmen nicht klar beantworten. Von unternehmensweiter Transparenz sind die meisten Organisationen hier weit entfernt.

Im Bereich Backbone & Middle Layer geht es um Infrastruktur- und Technologie-Entscheidungen zur Verknüpfung von Systemen zu durchgehenden Datenplattformen. Ein wichtiger Themenblock in einer Datenstrategie ist natürlich der Bereich Data & Analytics mit seiner originären Aufgabe, Daten zu Analysezwecken in einer zentralen Plattform zu sammeln, aufzubereiten und zu verteilen.

Data & Analytics-Plattformen verarbeiten heute nicht mehr nur strukturierte Daten in klassischen BI-Analysen, sondern auch IoT-, GPS- oder Webdaten. Der Output können Reports zur internen Steuerung oder als Service für Partner, Lieferanten oder Kunden sein, aber auch Daten zur Speisung von ML-Cases und weiteren Systemen.

Organisation & Governance

Um eine standardisierte und skalierbare Data & Analytics-Plattform aufzubauen, ist die Etablierung einer strukturierten Data Governance zum geregelten Umgang mit den verschiedensten Datenformaten unverzichtbar. Data Governance versteht sich hier als integraler Bestandteil einer ganzheitlichen Datenstrategie, der den organisatorischen Handlungsrahmen für Einzeldisziplinen des Datenmanagements stellt. Wesentlicher Baustein ist das klassische Rollenmodell mit den Funktionen Data Owner und Data Steward auf operativer Ebene sowie den Leitungsfunktionen Data Board auf Teilkonzern-Ebene und dem Head of Global Data Governance auf Konzernebene.

In diesem Themenbereich liegt wahrscheinlich die höchste Sprengkraft, wenn das Datenmanagement in der Organisation verankert wird. Der Hauptgrund ist, dass die datenorientierte Organisation nicht der klassischen Linienorganisation der Fachbereiche entspricht. Der Einsatz von Business-Daten endet nicht an der Abteilungsgrenze von Sales, Finance oder HR. Die Daten werden vielmehr bereichsübergreifend in End-to-End-digitalisierten Prozessen genutzt und sollten daher auch von crossfunktional angesiedelten Datenexperten in einer Enterprise-Organisation verwaltet werden.

In einer mittleren bis großen Organisation lassen sich dabei heute nicht mehr alle Datenprozesse von einem einzigen zentralen Bereich stemmen. Datenexperten müssen stattdessen im gesamten Unternehmen verteilt sein und eng mit den Fachbereichen zusammenarbeiten. Deren Fachexpertise ist unbedingt nötig, um Daten hinsichtlich ihrer Wertschöpfung im Business und aus legaler Sicht korrekt zu beurteilen und sie optimal im Geschäftsprozess einzusetzen. Tatsächlich kann man bei vielen Unternehmen derzeit beobachten, dass vorhandene zentralisierte BI- oder Governance-Organisationen aufgebrochen werden, um sie breiter im Unternehmen anzulegen.

Orchestrierte Umsetzung auf Basis der Datenstrategie

Die operative Verankerung dieser Querschnittsfunktionen erfordert Durchsetzungskraft und Schulungen im gesamten Unternehmen, um ein unternehmensweites Bewusstsein für Daten als Wertschöpfungsfaktur aufzubauen und die nötige Akzeptanz für die datengetriebene Organisation im Tagesgeschäft zu erreichen. Hier geht es um nichts weniger als um einen echten Kulturwandel mit Blick auf die Daten, der am besten durch ein gezieltes Change Management begleitet wird.

Die datengetriebene Organisation ist nicht von heute auf morgen zu erreichen und Widerstände im Unternehmen sind absehbar. Die Datenstrategie ist jedoch ein sicheres Gerüst, zudem gibt sie die Roadmap für die schrittweise Umsetzung vor.

Im Rahmen der Datenstrategie können Unternehmen kleine Projekte angehen, in überschaubaren Schritten immer wieder Win-Effekte erzeugen und Mehrwerte liefern. Einzelinitiativen laufen auf dieser Basis orchestriert und ohne Redundanzen im Rahmen des entworfenen Big Picture.

Mein Tipp: Wenn Sie mehr über Datengetriebene Wertschöpfung und Datenstrategie wissen wollen, folgen Sie uns auf LinkedIn und Xing oder abonnieren Sie einfach unseren Newsletter. Oder kontaktieren Sie uns und schreiben Sie mir direkt über KONTAKT ich freue mich über den Austausch mit Ihnen! 

Danone: Sell-Out-Applikation in Lakehouse-Architektur

Erstellt am: Montag, 5. Februar 2024 von Anja Gorbach

Danone gehört zu den führenden Lebensmittelherstellern weltweit. Eine globale Plattform für Data & Analytics hilft bei der operativen und strategischen Steuerung des Konzerns. Für den Bereich Danone D-A-CH hat QUNIS eine Sell-Out-Applikation realisiert, die sich nahtlos in die zentrale Datenplattform einfügt.

Wir waren uns sicher, dass QUNIS den Use Case in selbstständiger Arbeit erfolgreich abliefert.

Tobias Riedner,
Head of IT  Data & Analytics, Danone Deutschland GmbH

Data Journey bis 2025

Danone verfolgt eine konsequente Digitalisierungsstrategie. Im Jahr 2020 hat das Unternehmen eine auf fünf Jahre angelegte Initiative zu den Themen Cloud, Data Products und Data Driven Decisions gestartet und in diesem Rahmen eine zentrale Datenplattform für Data Sourcing und Provisioning aufgebaut. Seit dem Rolling Out der „One Source“-Plattform im Jahr 2022 werden kontinuierlich neue Use Cases aufgesetzt.

Die benötigten Datenprodukte für die Anwendungen werden vom Bereich IT Data & Analytics zur Verfügung gestellt und gewartet. Für die Umsetzung einer Sell-Out-Applikation hat das IT-Team QUNIS als Implementierungspartner hinzugezogen. Die internen Core DevOp Teams, die unternehmensweit Datenprodukte bereitstellen, hatten zu diesem Zeitpunkt nicht die nötigen Kapazitäten für diesen strategisch wichtigen Use Case. Als zentrales Steuerungsinstrument für den Bereich Danone D-A-CH wurde der Sell Out Use Case jedoch dringend benötigt.

Use Case an QUNIS delegiert

QUNIS war bei Danone bereits seit Jahren als projekterfahrener Experte für Data & Analytics bekannt. Für Tobias Riedner, Head of IT Data & Analytics der Danone Deutschland GmbH, war daher klar, dass er sich auf QUNIS als kompetenten Implementierungspartner verlassen kann: „Wir waren uns sicher, dass QUNIS den Use Case in selbstständiger Arbeit erfolgreich abliefert.“

Im Projekt galt es, den spezifischen Use Case im Rahmen der vorgegebenen globalen Referenzarchitektur umzusetzen. Die One-Source-Datenplattform von Danone ist ein Data Lakehouse auf der Basis von Microsoft Azure, mit vielfältigen Vorsystemen, mit Databricks und Snowflake Datenspeichern und Power BI als Frontend für die Berichtsempfänger.

Für Tobias Riedner war wichtig, dass QUNIS in dieser Technologieumgebung eine große Expertise und umfangreiche Projekterfahrung mitbringt. Aber auch die Tatsache, dass QUNIS zuvor bereits eine ähnliche Anwendung mit anderer Technologie umgesetzt hatte, sprach für eine schnelle und sichere Implementierung.

Wichtige Steuerungskennzahlen

Der Sell Out Use Case ist eine klassische BI-Anwendung, allerdings fachlich und hinsichtlich des Datenmanagements sehr komplex. Danone vertreibt seine Produkte fast ausschließlich als B2B-Händler an den Einzelhandel. Der Verkaufspreis an Händler wie Aldi oder ReWe wird als „Sell In“ geführt. Zu welchem „Sell-Out“-Preis der jeweilige Einzelhändler die Produkte an die Konsumenten abgibt, ist für Danone eine wesentliche Information für die Preissteuerung. Aus der Marge zwischen Sell In und Sell Out, oder der Sell-Out-Nachfrage für das Produkt, ergeben sich Hinweise zur Preissensitivität der Endkunden, die wiederum Auswirkungen auf die eigene Preisgestaltung und darüber hinaus auch auf die Produktions- und Lagersteuerung oder auf Marketingaktionen haben.

Datenmanagement automatisiert

Danone erhält für diese Analyse Flat-Files von den Einzelhändlern, die vor der Neuimplementierung manuell gesammelt und aufbereitet wurden. Die Prüfung und Zusammenführung der Daten war zuvor entsprechend aufwändig und fehleranfällig. Wegen des hohen Aufwands war zudem nur eine monatliche Aktualisierung möglich.

Die Data Engineers von QUNIS haben das Datenmanagement neu aufgesetzt. Die teilautomatisiert gesammelten Dateien der Händler werden nun intern vollautomatisch verarbeitet, in das Data Lakehouse integriert und zur Auswertung bereitgestellt. Eine wesentliche Herausforderung im Projekt war dabei die Harmonisierung von Hunderten angelieferter Excel- und Textfiles, u. a. auch mit unterschiedlichen Berichtszeiträumen der Händler.

© Burda Food Agency / Katrin Winner

Leistungsstarke Datenmodelle

Bei der Datenmodellierung war die fachliche Expertise von QUNIS gefragt. Die performanten Datenmodelle ermöglichen schnelle und flexible Auswertungen für unterschiedliche Fachbereiche. Das Datenprodukt wird für die Abteilung Price Revenue Growth Management (PRCM) bereitgestellt, die diese wiederum für Reporting und Analyse in verschiedenen Fachbereichen aufbereitet. Im Rahmen des PRCM-Prozesses können nun Bereiche wie Sales, Key Account Management oder Produktion ihre Fragen zur Preissensibilität der Endkunden mit flexibler Sicht auf die Verkäufe, Preise, Händler oder Regionen beantworten, Produktionsmengen steuern oder Lieferungen zu Händlern oder in bestimmte Regionen präzise terminieren. Tobias Riedner fasst zusammen: 

 Die Sell-Out-Applikation ist für unsere Unternehmenssteuerung unverzichtbar. Dank QUNIS sind die aktuellen Kennzahlen heute auf Knopfdruck verfügbar.


Kompetenter Implementierungspartner

QUNIS wurde bei Danone vor allem als Experte für Data Engineering eingesetzt. Wichtig ist dabei jedoch auch der Blick für das Big Picture der globalen Datenplattform. Die Architektur der Sell-Out-Lösung fügt sich nahtlos in die Gesamtarchitektur ein, kann im Rahmen der standardisierten Technologieumgebung beliebig ausgebaut werden und lässt sich zugleich an die ständig weiterentwickelte Datenplattform anpassen.

Die Zusammenarbeit mit QUNIS war großartig. Bei Bedarf werde ich jederzeit wieder darauf zurückgreifen.

Mehr zu Danone: Danone ist einer der führenden Hersteller von Lebensmitteln und medizinischer Ernährung in der D-A-CH-Region, der in vier Geschäftsbereichen tätig ist: Milchfrische, pflanzenbasierte Produkte, natürliches Mineralwasser und Erfrischungsgetränke sowie frühkindliche und medizinische Nahrung. Mit rund 2.300 Mitarbeitern an sieben Standorten sowie zwei international relevanten Werken produziert Danone D-A-CH über 1.000 unterschiedliche Produkte. Das Portfolio umfasst führende internationale und lokale Marken wie Actimel, Activia, Alpro, Aptamil, Volvic, evian, Fruchtzwerge, Nutrini, Fortimel und Neocate. Weltweit ist Danone mit mehr als 96.000 Mitarbeitenden in über 55 Ländern Marktführer in den Bereichen Dairy & Plant Based Products, Spezialized Nutrition und Waters. Die Danone Produkte sind in mehr als 120 Ländern erhältlich. Weitere Informationen: www.danone.de

Kostenfreies Whitepaper QUNIS Quick Guide to Open Lakehouse

Mehr zur QUNIS Implementierung

Massive Parallelität und das Lakehouse

Erstellt am: Mittwoch, 27. September 2023 von Anja Gorbach

Hinter einer massiv parallelen Architektur steckt das Prinzip, dass Daten nicht mehr nur auf einer Maschine liegen, sondern auf beliebig vielen.

Die Idee dahinter: Wollen mehrere Klienten auf die selben Daten zugreifen, werden die Daten entsprechend repliziert. Eine aktuelle massiv parallele Architektur ist das Lakehouse. Es verteilt die Daten nicht nur auf mehreren Maschinen, sondern erlaubt auch den direkten Zugriff auf die Daten. Voraussetzung dafür ist, dass die Klienten ihre eigene Rechenleistung beitragen. 

Jeder bringt seine Rechenleistung mit

In einem massiv parallelen System gibt es statt einer Datenbank, über die die gesamte Arbeit komplett mit teurer Rechenleistung abgewickelt wird, nur noch einen Data Lake als reinen und äußerst kostengünstigen Speicherplatz. In dieser neuen Architektur kann jeder Klient selbst in einem zentralen Register nach seinen Daten suchen und bringt die jeweils für die Abfrage notwendige Rechenleitung einfach mit. Daher verkraftet es das System sogar, wenn mehrere hundert Data Scientisten gleichzeitig darauf zugreifen.

In einem solchen Lakehouse können zudem problemlos polystrukturierte Daten gespeichert werden. Es stellt darüber hinaus mithilfe von Analytischen Tabellenformaten wie beispielsweise Apache Iceberg durchgängig sicher, dass diese stets konsistent sind. Auch wenn mehrere Klienten gleichzeitig auf dieselben Daten zugreifen, sie lesen oder ändern, besteht somit keine Gefahr eines korrupten Datenbestands. Zum Vergleich: Dies konnte der Bibliothekar nur garantieren, indem er darauf achtete, dass erst der eine liest und danach erst der andere eine Änderung vornimmt.

Für den Fall, dass ein Anwender nicht in der Lage ist, eigene Rechenleistung mitzubringen, oder Unterstützung für die Datenabfrage braucht, gibt es Dienste wie der des QUNIS-Partners Dremio. Sie stellen über eine Data Lake Engine bereits fertige Cluster zur Verfügung. Darüber kann beispielsweise ein Controller in seiner gewohnten Umgebung und auf einer anwenderfreundlichen Oberfläche so arbeiten, als würde er direkt auf die Datenbank zugreifen. Da diese Struktur ebenfalls massiv parallel aufgebaut ist, sind auch hier mehrere Zugriffe gleichzeitig möglich, ohne dass es zu Konflikten kommen kann.

Aus homogen wird heterogen

Die massive Parallelität geht unbestritten mit einer gewissen Komplexität einher. Vorher war die Welt homogen und dadurch relativ einfach: Es gab eine Lösung, eine Technologie, eine Datenbank und darüber ließen sich alle Probleme lösen. In massiv parallelen Strukturen hingegen muss sich jeder selbst um den Data Lake kümmern und zudem jedes Mal eigene Rechenleistung beisteuern.

Das kann man natürlich grundsätzlich als Nachteil ansehen. Heterogenität und Offenheit für unterschiedliche Technologien bieten aber auch Vorteile, wenn etwa mehrere Anwender im Zugriff auf dieselbe Datenbank problemlos völlig verschiedene Programmiersprachen nutzen können. In modernen datengetriebenen Unternehmen, in denen möglichst jeder Mitarbeiter mit Daten arbeiten soll, die in großer Zahl vorliegen, kommt man an einer solch hochskalierbaren Architektur ohnehin kaum mehr vorbei.

Die Cloud macht‘s erschwinglich 

Massiv parallele Datenarchitekturen und Datenbanken gibt es übrigens schon seit den 1990er Jahren. Allerdings handelte es sich damals noch um rein proprietäre und dadurch sehr teure Technologien. Als Gamechanger zeigte sich die Mitte der 2010er Jahre die Entwicklung nichtproprietärer Technologien mit offeneren Architekturen. Jedoch waren diese für die meisten Unternehmen damals noch nicht so wichtig, weil häufig nur eine kleine Abteilung überhaupt mit Daten gearbeitet hat und auch die Datenmenge noch nicht annähernd so hoch war wie heute.

In den letzten Jahren hat sich dies enorm gewandelt: Mittlerweile will nahezu jeder Unternehmensbereich permanent Zugriff auf alle Daten sowie eigene Datenprodukte erstellen, selbstständig veröffentlichen und mit anderen teilen. Durch den stetig steigenden Bedarf waren die alten Architekturen daher ab einem gewissen Punkt nicht mehr tragfähig. Mit der Ablösung der teuren proprietären Systeme durch moderne Cloud-Architekturen, ist die Einstiegshürde naturgemäß deutlich niedriger.

So kann man zum Beispiel über ein Cloud-basiertes Pay-as-you-go-Modell sehr komfortabel und dazu kostengünstig mächtige Technologien nutzen und muss nicht erst Millionen-Euro-Beträge in technologisch aufgerüstete Serverschränke investieren. Stattdessen greifen die Anwender einfach on-demand auf die Daten zu, wenn sie sie brauchen, fahren dann entsprechend die Rechenleistung hoch und zahlen auch nur genau dafür.

Mag die massive Parallelität als Konzept relativ statisch sein, ist doch der Markt überaus dynamisch. Das Konzept wird in allen Bereichen kontinuierlich weiterentwickelt – so entstehen immer wieder neue Angebote und damit spannende Möglichkeiten, die es bislang nicht gab und die die Unternehmen in Zeiten von Big Data gewinnbringend nutzen können.

Data Lakehouse mit dem Modern Data Stack

Auch SENEC als einer der führenden Solarstromspeicheranbieter in Deutschland setzt auf einen Modern Data Stack und hat zusammen mit QUNIS ein Data Lakehouse aufgesetzt.

  • Die IT-Architektur ist ein Data Lakehouse auf Basis von Azure Databricks, das Elemente eines Data Warehouse mit einem Data Lake in der zentralen Plattform kombiniert. Die mit einer Staging und Cleansing Area, dem Core und einem Data Mart angelegte Lakehouse-Architektur ist in der Lage, Funktionen von Streaming Analytics, BI und maschinellem Lernen auf einer einzigen Plattform bereitzustellen.
  • Als Datenquellen sind u.a. eine Time Series Datenbank, eine Log-Datenbank, diverse relationale Datenbanken, SharePoint und klassische Business Systeme wie ERP, CRM usw. eingebunden. Zur Integration und Orchestrierung der Daten sind die Open-Source-Lösungen Airbyte und Airflow auf Kubernetes im Einsatz, zur Transformation von Daten im Lakehouse die Open-Source-Software dbt. Mit der kontinuierlichen Umsetzung neuer Use Cases werden schrittweise weitere Datenquellen angebunden. Die Anwender greifen über Microsoft Power BI auf die aufbereiteten Daten zu.
  • Power BI ist als strategisches Frontend für alle User im Einsatz. Das vielseitige Frontend unterstützt und visualisiert verschiedenste Use Cases in den Bereichen Unternehmens- und Marktinformationen sowie Produkt- und Qualitätskontrolle. Derzeit arbeiten von rund 550 Mitarbeitenden in Leipzig ca. 150 Konsumenten und Power User mit der BI-Lösung. Die Anzahl von aktuell 10 Designern soll kontinuierlich erhöht werden.

Mein Tipp: Wenn Sie mehr über Data Lakehouse und Parallele Architekturen wissen wollen, folgen Sie uns auf LinkedIn und Xing oder abonnieren Sie einfach unseren Newsletter. Oder kontaktieren Sie uns und schreiben Sie mir direkt über KONTAKT ich freue mich über den Austausch mit Ihnen! 

MEDIA Central Group: Moderne Prozesse und neue Geschäftsmodelle

Erstellt am: Dienstag, 20. Juni 2023 von Anja Gorbach

Die MEDIA Central Group ist der ganzheitliche Lösungsanbieter für 360°-Angebotskommunikation. Auf Basis branchenweit einzigartiger Daten, eigener Expertise in der Datenanalyse sowie eines spezialisierten Netzwerks bietet die Firmengruppe maßgeschneiderte Lösungen für die cross-mediale Angebotskommunikation. Zusammen mit QUNIS etabliert die MEDIA Central Group eine gruppenweite Datenplattform, die immer mehr datengetriebene Entscheidungen, optimierte Prozesse und innovative Geschäftsmodell ermöglicht.

Statt im extrem dynamischen Technologieumfeld selbst lange Lernkurven
oder mögliche Sackgassen in Kauf zu nehmen, nutzen wir die langjährige
Projekterfahrung und den tiefen Einblick in die Produktstrategien der
Softwarehersteller, die QUNIS uns bietet.

 

Rafael de Brito
Head of Corporate IT
MEDIA Central Group

QUNIS begleitet die digitale Transformation

Als Spezialist für haptische Angebotskommunikation steuert MEDIA Central über 15 Milliarden Prospekte jährlich, dazu kommen Anzeigen, Print-Mailings, Out-of-Home- und Radio/TV-Werbung sowie immer mehr digitale Kanäle. Das Kunden-Portfolio umfasst mehr als 100 international tätige Unternehmen aller Branchen, darunter den Großteil des deutschen Einzelhandels. Die gezielte Auswahl der passenden Kanäle, der Werbeformen, Reichweiten und Zeitpunkte basiert zunehmend auf automatisierten Analysen und datengetriebenen Entscheidungen. Mit der Offerista Group, dem europaweit führenden Experten für digitale Angebotskommunikation, dem Data-Science-Spezialisten Yagora und der europaweit führenden Drive-to-Store Technologieplattform ShopFully sind dabei in den letzten Jahren drei ausgewiesene Digitalisierungsexperten zur Unternehmensgruppe gestoßen.

Die konsequent vorangetriebene digitale Transformation ist der wesentliche Erfolgsfaktor der wachsenden Unternehmensgruppe. Rafael de Brito, Head of Corporate IT der MEDIA Central Group, sieht darin zugleich auch eine zentrale Herausforderung:

Den Wandel zum datengetriebenen Unternehmen gezielt, effizient und mit nachhaltigem Erfolg zu steuern, erfordert in der dynamischen Branche des Unternehmens und bei rapider technologischer Entwicklung einen soliden strategischen Plan – und darüber hinaus die kompetente Beurteilung neuer Situationen, die sich zwangsläufig im disruptiven Markt- und Technologie-Umfeld immer wieder ergeben.

Organisationale Ambidextrie als Leitfaden der Transformation

Das Schlüsselwort der erfolgreichen digitalen Transformation lautet für Rafael de Brito „Organisationale Ambidextrie“: die Fähigkeit von Organisationen, gleichzeitig effizient und flexibel zu sein. Im betriebswirtschaftlichen Umfeld ist damit die Balance zwischen effizienter Nutzung des Bestehenden (Exploitation) und der Erkundung von Neuem (Exploration) gemeint.

Vorhandene Systeme und Prozesse zu vernachlässigen und sich kopflos in neue Technologien und Methoden zu stürzen, kann natürlich nicht der richtige Weg sein. Im komplexen und dynamischen Entwicklungsumfeld immer den Überblick zu behalten, richtungsweisende Entscheidungen zu treffen und diese dann kompakt umzusetzen, ist jedoch für die internen IT- und Digitalisierungsexperten neben ihrem Tagesgeschäft schier unmöglich.

Gerade weil die MEDIA Central Group hoch spezialisierte Digitalisierungsexperten und Data Scientists im Haus hat, können diese die Situation gut beurteilen und wissen, an welcher Stelle man sich komplementäres Know-how von außen dazu holen sollte, weil in diesem Falle „buy“ statt „make“ effektiver und ökonomischer ist. Die MEDIA Central Group setzt daher auf die Zusammenarbeit mit QUNIS. Der Spezialist für Data & Analytics begleitet die digitale Transformation des Unternehmens seit dem Jahr 2018 als Beratungs- und Implementierungspartner.

Rafael de Brito erklärt: „Statt im extrem dynamischen Technologieumfeld selbst lange Lernkurven oder mögliche Sackgassen in Kauf zu nehmen, nutzen wir die langjährige Projekterfahrung und den tiefen Einblick in die Produktstrategien der Softwarehersteller, die QUNIS uns bietet. Das bedeutet für uns strategisch gut untermauerte Projekte, effektive Implementierung und Best Practices für sichere Projekterfolge.“ Sein anschaulicher Schluss lautet: „So wie wir die Firmenfahrzeuge unserer Außendienstmitarbeiter weder selber bauen noch reparieren, so handhaben wir es auch mit dem Data Warehouse. Unsere Kernkompetenz liegt darin, die Technik zu nutzen, nicht das Rad neu zu erfinden.“

Komplettbegleitung in allen Fragen von Data & Analytics

QUNIS kam vor allem als Partner für die Infrastruktur und Prozesse eines gruppenweiten Data Warehouse ins Spiel, das nach allen Richtungen offen und skalierbar für beliebige Datenquellen und Use Cases angelegt wurde. Heute schätzt Rafael de Brito die umfassende Begleitung auf allen Ebenen von Data & Analytics: von der Strategie, dem DWH-Ausbau, BI- und Reporting mit Auswahl, Design und Schulung des Frontends, Anbindung von Datenquellen samt Schnittstellenprogrammierung bis hin zum smarten Aufbau von Datenmodellen aus wirtschaftlicher Sicht. Besonders effizient er die Zusammenarbeit durch die strukturierte und direkte Kommunikation:

„Wir nutzen QUNIS als verlängerte Werkbank. Für das Projektmanagement und die Abwicklung von Anforderungen müssen wir kaum Zeit und Ressourcen aufbringen, da verlassen wir uns auf unsere vorausschauende QUNIS-Beraterin.“ Auch den Wissenstransfer bei der Erstellung von Reports und der Nutzung des DWH nennt Rafael de Brito als Vorteil der Zusammenarbeit. So kann sich das interne Team schnell eigenes Know-how aneignen und im Unternehmen weitergeben.

Im Bereich des eingesetzten Frontends Power BI beispielsweise hat MEDIA Central heute eigene Experten für den Berichtsaufbau, profitiert aber weiterhin von der Beratung der QUNIS-Spezialisten und nimmt nach Bedarf sehr individuelle Schulungen für ausgewählte Nutzergruppen in Anspruch. Derzeit klärt das Projektteam zudem gemeinsam die Frage, ob die Datenmodellierung in Data Marts oder Data Sets die bessere Alternative für künftige Auswertungen in Power BI ist.

Immer mehr Daten erschließen

Eine wichtige Aufgabe von QUNS ist die kontinuierliche Einbindung interner und externer Datenquellen in die zentrale Plattform. Das betrifft zum einen verschiedene Themen- und Fachbereiche, die in den Datenpool eingegliedert werden. Aber auch bei der Integration neuer Gesellschaften in die wachsende Firmengruppe verfolgt die MEDIA Central Group das Ziel, dass die vorhandenen Systemlandschaften bestehen bleiben und die benötigten Daten in die zentrale Plattform überspielen. Also kein Umbau der wachsenden heterogenen Systemlandschaft, sondern ein neu entstehender zentraler Datenlayer, der Informationen aus diversen Quellen integriert und harmonisiert zur Auswertung – auch wiederum für die neuen Gesellschaften – bereitstellt. Den Kern-Anwendungsbereich bilden dabei die gruppenübergreifenden Finanzauswertungen.

So ist eine schnelle Eingliederung in die Firmengruppe möglich, ohne den laufenden Systembetrieb neu hinzukommender Gesellschaften zu stören. QUNIS übernimmt die Schnittstellenintegration, die Definition der Aufbereitung der Daten und die Edition der Lade- und Qualitätsprüfungsprozesse beim Datenload. Für das Finanzreporting und erweiterte Analysen in alle operativen Bereiche wurden bisher u.a. diverse ERP-Systeme der Tochtergesellschaften, das FiBu-System, ein DMS, das Geoinformationssystem, QS/QM-Daten sowie zugekaufte Marktdaten angeschlossen.

Gemeinsam die Komplexität und Dynamik erfolgreich meistern

In enger Zusammenarbeit sorgt das Projektteam für den kontinuierlichen Ausbau der Datenplattform und die organisatorische Verankerung der damit zusammenhängenden Prozesse. Für neue Datenquellen und Use Cases ist die skalierbare Daten- und Systemarchitektur dabei jederzeit offen. Rafael de Brito bringt den entscheidenden Mehrwert der Data & Analytics-Plattform auf den Punkt:

„Wir wollen einen Datenschatz aufbauen und neue Insights generieren, von denen sowohl unsere internen Prozesse und Geschäftsmodelle als auch unsere Kunden und Lieferanten profitieren.“

Für die Kunden bedeutet mehr Wissen ein sehr gezieltes Marketing mit genauen Erfolgskontrollen. Das gilt auch für die analogen Werbeformen wie die klassischen Papier-Prospekte. Umfangreiche Datenanalysen sorgen dafür, dass die logistische Steuerung der Prospekte punktgenau mithilfe von Geo-soziologischen und -ökonomische Analysen oder finanziellen Erfolgskontrollen erfolgt. Die Ergebnisse samt Umsatzanalysen können die Kunden u.a. in einem Qualitätsportal nachvollziehen.

Erfolgsgesteuerte selektive Werbung statt mit der Gießkanne, budget- und ressourcenschonend sowie transparent bis hin zu den Kunden und Lieferanten – die smarte Prospektsteuerung ist nur ein Beispiel für optimierte Angebote durch „data driven decisions“. Die MEDIA Central Group wird ihre datengetriebenen Geschäftsmodelle gezielt und kreativ weiter ausbauen. Dass QUNIS dafür der richtige Beratungs- und Implementierungspartner ist, steht für Rafael de Brito fest: QUNIS trägt wesentlich dazu bei, dass wir die Komplexität und Dynamik der digitalen Transformation der MEDIA Central Group erfolgreich meistern.“

Mehr zu MEDIA Central Group: Starke Marken für starke Kommunikationslösungen: Die MEDIA Central Group ist der ganzheitliche Lösungsanbieter für 360°-Angebotskommunikation. Auf Basis branchenweit einzigartiger Geo-Daten und der eigenen Expertise in der Datenanalyse erkennt die MEDIA Central Group übergeordnete Zusammenhänge und bietet Kunden maßgeschneiderte Empfehlungen für erfolgreiche Handelskommunikation. Die MEDIA Central Group versteht sich als Reichweitenmanager und bringt die Werbebotschaft ihrer Kunden zur richtigen Zeit zur richtigen Zielgruppe.

Die Gruppe vereint unter ihrem Dach den marktführenden Spezialisten für haptische Angebotskommunikation MEDIA Central, die europaweit führende Drive-to-Store Technologieplattform ShopFully, die europaweit führenden Experten für digitale Angebotskommunikation Offerista Group, die Data-Science-Experten für den Moment der Kaufentscheidung Yagora sowie die Auslandsgesellschaften MC Tschechien und MC Polen. Als Marktführer in der unadressierten Haushaltswerbung steuert MEDIA Central jährlich über 15 Milliarden Prospekte. Die Offerista Group ist Europas größtes Netzwerk für digitales Handelsmarketing und bündelt im eigenen Native Network über 1.400 Plattformen und Reichweitenpartner. Als Experten für den Moment der Kaufentscheidung analysiert und optimiert die Yagora Maßnahmen im Bereich Shopper Marketing und ermöglicht so die Steigerung der POS-Performance. Die Gruppe ist mit über 900 Mitarbeitenden an 21 Standorten vertreten und betreut heute Kunden in über 30 Ländern aus allen Branchen. Mehr Informationen: . https://corporate.media-central.de/

Mehr zu QUNIS StrategieberatungQUNIS Strategie