Archiv für die Kategorie Datenmanagement

Herausforderung SAP BW-Migration – Strategie vor Technologie

Erstellt am: Mittwoch, 18. Juni 2025 von Monika Düsterhöft

Am strategischen Scheideweg

Unternehmen mit gewachsenen SAP BW Landschaften stehen vor einer großen Aufgabe. Auf der einen Seite bewegt sich die SAP-Roadmap vehement in Richtung Cloud, Self-Service und Offenheit. Auf der anderen Seite nähert sich das Wartungsende der klassischen BW-Systeme. Die Frage, die sie nun bewegt: Wohin migriere ich am besten meine BI-Landschaft?

Wer hier nun nach der einen, richtigen Antwort sucht, dem müssen wir sagen: Es gibt nicht die eine Lösung. Und auch die Vorstellung, man könne SAP BW einfach „ablösen“, greift zu kurz.

Der Ausgangspunkt ist nie neutral!

Die Art und Weise, wie ein Unternehmen in den letzten Jahren mit Daten gearbeitet hat, prägt alles – von der Modelllogik über die Rollenverteilung bis hin zu Entscheidungswegen und Lernkurven.

Ein Betrieb mit stark IT-gesteuerter BI, in dem Datenhoheit und Systemstabilität im Vordergrund stehen, benötigt etwas völlig anderes als ein Unternehmen, das bereits hybride Self-Service-Strukturen in der Cloud etabliert hat. Wer sich aktuell in einer Phase der Reorganisation, eines M&A-Prozesses oder einer grundsätzlichen Systemmodernisierung befindet, muss andere Optionen prüfen als ein Unternehmen mit stabil laufendem BW/4HANA.

Deshalb gilt: Wer eine tragfähige Migrationsentscheidung treffen will, darf nicht mit der Technologie beginnen – sondern mit der strategischen Standortbestimmung. Es gibt nicht den einen goldenen Weg. Es gibt vier.

Ob man seine bestehende BW-Logik weiterführen, mit Cloud-Komponenten anreichern, die neue SAP Business Data Cloud integrieren oder sich ganz von SAP als Architekturrahmen lösen möchte – alle Optionen haben ihre Berechtigung. Aber sie haben unterschiedliche Voraussetzungen. Und unterschiedliche Konsequenzen.

Weg 1 | Stabilität durch Weiterentwicklung – SAP BW/4HANA On Premise

Unternehmen, die ihre bestehende BW-Logik bewahren, aber technologisch modernisieren möchten, fahren mit SAP BW/4HANA On Premise einen konservativen, aber bewährten Weg. Bestehende Modelle lassen sich migrieren, die Datenhoheit bleibt gewahrt – und über ein PCE-Modell ist langfristig auch eine Cloud-Anbindung denkbar. Dieser Weg setzt jedoch technisches Housekeeping voraus: Altlasten, veraltete Objekte und redundante Datenflüsse müssen zuvor bereinigt werden – eine Aufgabe, die in vielen Fällen aufwendiger ist als die Migration selbst.

Weg 2 |  Cloud-nativ und offen – SAP Datasphere

Mit SAP Datasphere stellt SAP eine moderne Plattform für Datenvirtualisierung, Self-Service und offene Integration bereit. Anders als bei BW/4HANA geht es hier nicht um eine Migration im klassischen Sinne, sondern um einen konzeptionellen Neustart. Klassische BW-Komponenten wie InfoProvider oder Transformationen lassen sich nicht übertragen, sondern müssen neu modelliert werden – mit Fokus auf SQL-basierte Modellierung, ELT-Logik und Data-Mesh-Prinzipien. Wer diesen Weg wählt, braucht nicht nur technisches Know-how, sondern auch organisatorische Veränderungsbereitschaft.

Weg 3 | Hybrid mit Perspektive – SAP Business Data Cloud (BDC)

Die SAP Business Data Cloud (BDC) bietet einen evolutionären Migrationspfad: Bestehende BW-Systeme lassen sich einbinden, ihre Modelle als Data Products weiterverwenden oder über Semantic Onboarding in die BDC-Plattform überführen. So entsteht eine Brücke zwischen vertrauter BW-Welt und moderner SAP-Datenarchitektur. Voraussetzung dafür ist der Betrieb des BW-Systems in der Private Cloud Edition (PCE) – inklusive technischer Modernisierung, etwa der Ablösung von 3.x-Komponenten und veralteten Strukturen.

Weg 4 | Der strategische Neustart – Open Lakehouse auf einem Non-SAP-Stack

Einige Unternehmen nutzen die Gelegenheit, nicht nur zu migrieren, sondern sich datenarchitektonisch neu aufzustellen. Der Aufbau eines Open Lakehouse auf einem Non-SAP-Stack bietet maximale Freiheit – etwa auf Basis von Plattformen wie Databricks, Snowflake oder Google BigQuery. Hier geht es nicht darum, bestehende BW-Modelle zu übertragen, sondern neue Standards für Architektur, Governance und Analytics zu etablieren. Der Preis für diese Freiheit ist hoch: Die Neuaufstellung betrifft nicht nur Technologien, sondern auch Rollen, Prozesse und Zuständigkeiten. Ohne klare Strategie und echtes Change Management ist dieser Weg nicht gangbar.

Am Anfang steht immer die Standortbestimmung! 

Was alle vier Wege gemeinsam haben: Sie verlangen Vorbereitung – aber jeweils auf ganz unterschiedliche Art. Umso wichtiger ist es, nicht mit der Technologie zu beginnen, sondern mit einer ehrlichen Standortbestimmung:

  • Wie sieht die aktuelle Systemlandschaft aus?
  • Welche Kompetenzen sind vorhanden?
  • Welche Anforderungen haben Fachbereiche und Management?
  • Und wie offen ist das Unternehmen wirklich für Veränderung?

Wer diese Fragen strukturiert beantwortet, schafft die Grundlage für eine tragfähige Migrationsentscheidung – technisch wie organisatorisch.

Unser Tipp: Wir haben alle vier Wege in einem  QUNIS Whitepaper: Vier Optionen der SAP BW-Migration systematisch gegenübergestellt, mit Voraussetzungen, Chancen und Risiken sowie Bewertungskriterien, Architekturprinzipien und konkreten Handlungsempfehlungen. Einfach kostenfrei downloaden.

 

SAP Business Data Cloud – Einordnung, Überblick, Empfehlungen

Erstellt am: Dienstag, 8. April 2025 von Monika Düsterhöft

SAP hat auf die wachsenden Anforderungen an Datenarchitekturen, regulatorische Compliance und datengetriebene Innovationen mit der Einführung der SAP Business Data Cloud (BDC) reagiert, einer Plattform, die bestehende SAP-Komponenten bündelt, strategisch erweitert und konsequent auf moderne Datenverarbeitung ausrichtet.

Die BDC versteht sich nicht als Einzelprodukt, sondern als Weiterentwicklung des SAP-Analytics-Ökosystems. Sie kombiniert Datenintegration, Governance, Storage, semantische Modellierung und Analytik mit zukunftsweisenden Technologien wie generativer Künstlicher Intelligenz.

Databricks in SAP

Besonders bemerkenswert ist die Integration von Databricks Compute als OEM-Komponente, ein Paradigmenwechsel in der SAP-Welt. Statt also auf proprietäre Eigenlösungen zu setzen, öffnet sich SAP erstmals einem führenden Drittanbieter im Bereich Data Engineering und Machine Learning. Die Integration erfolgt nativ innerhalb der BDC, inklusive SAP-seitiger Abrechnung, Security-Management und Governance.

Für viele Unternehmen ergibt sich daraus die Möglichkeit, performante ML-Workflows innerhalb ihrer SAP-Landschaft umzusetzen – mit vertrauter Benutzerführung, eingebettet in bestehende Prozesse. Technisch basiert die Einbindung auf einer Subset-Architektur: Nicht alle Funktionen von Databricks sind enthalten, aber zentrale Komponenten stehen zur Verfügung. Zu beachten ist, dass die Integration in der Praxis noch auf bestimmte SAP-Use Cases abgestimmt ist.

Fraglich bleibt aktuell etwa, wie offen SAP Databricks gegenüber externem Storage sein wird und inwieweit Drittsysteme wie Tableau oder Power BI auf SAP Databricks zugreifen können. Klar ist: Auch Bestandskunden mit eigener Databricks-Umgebung werden durch Delta Sharing in das BDC-Ökosystem eingebunden werden können.

Unity Catalog als Governance-Fundament

Ein wichtiger Governance-Baustein ist der Unity Catalog von Databricks, der auch in der BDC verfügbar sein wird. Er bietet unternehmensweite Metadatenverwaltung mit fein granularer Rechtevergabe, Policy Enforcement und Audit-Funktionalitäten. Offen bleibt, wie weitreichend die Verknüpfung mit dem SAP-eigenen BDC-Katalog erfolgt, insbesondere im Hinblick auf Rollen- und Berechtigungskonzepte.

Neuer Storage Layer und Delta Sharing

Einen weiteren Eckpfeiler der BDC stellt der neue Storage Layer dar, der auf dem SAP HANA Data Lake in Kombination mit Delta-Formaten basiert. Dies steigert die Verarbeitungseffizienz und ermöglicht durch Delta Sharing Zero-Copy-Datenintegration innerhalb des SAP-Ökosystems. Dieses Prinzip spart Speicher, reduziert Latenz und stärkt die Datenkonsistenz über Systemgrenzen hinweg. Die zugrundeliegende Technologie basiert auf Open-Source-Standards (delta.io) und wurde erfolgreich in modernen Data-Lakehouse-Architekturen etabliert.

Datenprodukte als zentrales Architekturprinzip

Zentral im Architekturmodell der BDC stehen sogenannte Datenprodukte. Sie dienen als definierte, semantisch beschriebene Datenpakete, die für bestimmte Anwendungsfälle bereitgestellt werden – mit klaren Rollen, Zuständigkeiten und Zugriffskonzepten. Anders als frühere Ansätze wie Business Content im BW oder Marketplace-Objekte in der Datasphere sollen Datenprodukte nun auf stabiler technischer Basis und mit starker Einbettung in SAP-Prozesse bereitgestellt werden.

Typische Merkmale eines Datenprodukts sind:

  • Es enthält strukturierte Datensätze, bestehend aus Stamm- und Bewegungsdaten.
  • Es wird von einem Produzenten erstellt und gepflegt, idealerweise aus dem zuständigen Fachbereich.
  • Es ist für Lesezugriffe optimiert und systemisch geschützt (Read-only).
  • Es nutzt das Open Resource Discovery (ORD)-Protokoll zur semantischen Beschreibung.
  • Es bleibt über die gesamte Kette hinweg nachvollziehbar und versionierbar.

Datenprodukte können in der BDC über einen Katalog bereitgestellt und von Konsumenten für Reporting, Analyse oder Machine Learning genutzt werden. Ebenfalls können von der SAP ausgelieferte Datenprodukte mit eigenerstellten Produkten kombiniert werden. Die Governance liegt in der Hand definierter Owner, die aus der jeweiligen Domäne stammen. So entsteht eine dezentrale, aber standardisierte Struktur – ganz im Sinne eines Data-Mesh-Ansatzes.

SAP Joule: KI trifft Business-Kontext

Im Bereich der Künstlichen Intelligenz beschreitet SAP mit Joule einen innovativen Weg. Joule ist ein generativer KI-Assistent, der nahtlos in die SAP Business Suite integriert wurde. Er beschränkt sich nicht auf die reine Beantwortung von Anfragen, sondern agiert proaktiv mit maßgeschneiderten Empfehlungen, automatischer Berichterstellung und der Automatisierung von Arbeitsabläufen.

Über das Joule Studio können Fachabteilungen ohne Programmierkenntnisse eigene KI-Agenten entwickeln, die präzise auf ihre spezifischen Anforderungen zugeschnitten sind. Die Datenprodukte aus der Business Data Cloud (BDC) bilden dabei die fundamentale Datenbasis – ein Ansatz, der die Relevanz und Qualität der KI-generierten Ergebnisse entscheidend verbessert.

Auswirkungen auf bestehende SAP-Landschaften

Für Unternehmen, die bereits SAP-Komponenten wie Datasphere, SAP Analytics Cloud oder SAP BW einsetzen, wirft die Einführung der BDC berechtigte Fragen auf. Klar ist: Datasphere und SAC werden künftig in der BDC aufgehen – sowohl technologisch als auch lizenzrechtlich. Für Kunden mit BW 7.5 on HANA ergeben sich neue Wege:

SAP ermöglicht die Migration in die Private Cloud (BW PCE) mit Support bis 2030. Zusätzlich führt SAP den Data Product Generator ein, mit dem bestehende BW-Datenmodelle als vollwertige BDC-Datenprodukte bereitgestellt werden können – inklusive Einbindung in den Object Store der Datasphere. Dies schafft erstmals eine Brücke zwischen bestehenden SAP-Systemen und der neuen Plattform.

BDC als strategischer Wendepunkt

Die SAP Business Data Cloud steht damit nicht nur für eine technische Neuausrichtung, sondern für einen Architektur- und Kulturwandel. Statt verteilter Tools und Speziallösungen tritt ein konsistentes, offenes Ökosystem, das auf Kooperation, Standardisierung und Erweiterbarkeit setzt. Governance, Datenqualität und KI-Integration sind nicht länger nachgelagerte Themen, sondern zentrale Designprinzipien. Mit der angekündigten globalen Verfügbarkeit ab April 2025 wird die BDC zu einem relevanten Faktor für alle Unternehmen, die ihre Datenstrategie neu ausrichten wollen – sei es aus technologischen, regulatorischen oder geschäftsstrategischen Gründen.

Wir bei QUNIS begleiten diese Entwicklung aus der Perspektive technischer Architekturen wie Data Lakehouses sowie Governance-Modelle und operativer Umsetzung. Wir stehen als Sparringspartner zur Verfügung, wenn es darum geht, den individuellen Reifegrad zu bewerten, Transformationspfade zu definieren und konkrete Maßnahmen für den Übergang in die SAP Business Data Cloud zu gestalten.

Mein Tipp: In unserem  Live Talk mit Lukas Diener und Philipp Schlechter erfahren Sie mehr zur SAP BDC. Einfach direkt holen und reinhören oder unser ausführliches Whitepaper zur SAP BDC downloaden.

R-KOM: Automatisiertes BI-Reporting mit 360-Grad-Blick über alle Fachbereiche

Erstellt am: Dienstag, 18. März 2025 von Anja Gorbach

Als Telekommunikationsanbieter in Ostbayern ist R-KOM in den letzten Jahren kontinuierlich gewachsen und hat seine Geschäftsfelder erweitert. Mithilfe von QUNIS baut das Controlling ein automatisiertes BI-Reporting auf, das einen 360-Grad-Blick über alle Fachbereiche für die Unternehmenssteuerung liefert.

Wir wollten von QUNIS den Grundaufbau für das Data Warehouse bekommen, den Betrieb und weiteren Ausbau aber dann möglichst schnell selbst übernehmen.

Katharina Ergesi,
Controlling und BI, R-KOM GmbH

Data Warehouse als Basis für die datengetriebene Unternehmenssteuerung

Gehörten anfangs ausschließlich regionale Unternehmen zum Kundenkreis von R-KOM, versorgt der TK-Anbieter seit mehr als 15 Jahren auch Privatkunden mit Internet, Telefonie, TV und Datendiensten. Die Tochtergesellschaft der Stadt Regensburg baut zudem das Glasfasernetz im kommunalen Auftrag weiter aus.

Mit dem Wachstum sind auch die Anforderungen an das Controlling gestiegen. Die Entscheider im Unternehmen brauchen vertrauenswürdige Steuerungskennzahlen, die Transparenz über alle Bereiche schaffen.

Die Controller hatten das Reporting bislang in Form von Excel- und PowerPoint-Berichten aufbereitet und verteilt. Im Geschäftsalltag waren dabei vor allem der hohe manuelle Aufwand, der fehlende Single Point of Truth und der beschränkte Zugriff auf SAP-Daten problematisch. Eine moderne BI-Plattform mit zentralem Data Warehouse sollte hier Abhilfe schaffen.

Implementierung mit Best Practices

Da es bislang keine BI-Lösung gab, fand der Systemaufbau „auf der grünen Wiese“ statt. Mit QUNIS als Implementierungspartner ist R-KOM dabei direkt in die neuesten Technologien eingestiegen und hat ein hoch automatisiertes Data Warehouse auf Basis des Microsoft SQL Servers realisiert. Katharina Ergesi, zuständig für Controlling und BI bei R-KOM, formuliert den pragmatischen Anspruch des mittelständischen Unternehmens: Wir wollten von QUNIS den Grundaufbau für das Data Warehouse bekommen, den Betrieb und weiteren Ausbau aber dann möglichst schnell selbst übernehmen.“

Das Data Warehouse Framework von QUNIS, das Best Practices und vorgefertigte Funktionen in einem standardisierten Vorgehensmodell vereint, war dafür die ideale Implementierungsgrundlage. Das Framework spart Zeit und minimiert Risiken beim Aufbau von Data Warehouses mit modernsten Technologien.

Der hohe Standardisierungs- und Automatisierungsgrad vereinfacht zudem den Betrieb, die Administration und die Weiterentwicklung der IT-Architektur. Auch mit wenig Ressourceneinsatz kann das Controlling damit ein unternehmensweites Reporting bereitstellen und eigenständig ausbauen.

QUNIS hat die Implementierung der IT-Architektur übernommen, die automatisierten Ladeprozesse aus den Quellsystemen eingerichtet und die analysefähigen Datenmodelle aufgebaut. Gemeinsam mit dem Controlling wurden die Business-Logiken definiert und die Reports und Dashboards im Frontend Power BI gestaltet.

Die Implementierung startete im Oktober 2021 mit einer Anwendung für das Finanzcontrolling. Mit der Anbindung der SAP-Module FI/CO waren erste Ad-hoc-Reports schnell verfügbar. Der erste Rollout des SAP-Reportings erfolgte Ende 2022 mit einer App, in der die GuV und der Umsatz-Forecast vollständig dargestellt sind.

Anschließend wurden sukzessive Apps der Fachbereiche wie Vertrieb, Beschaffung, Service, Ausbau oder Technik umgesetzt und so der angestrebte 360-Blick auf das Geschäft realisiert. Die Erstimplementierung aller Apps war im Jahr 2024 abgeschlossen, seitdem erfolgt eine kontinuierliche Weiterentwicklung. Katharina Ergesi erklärt die Entwicklungsdynamik:

Der Ausbau des Reportings ist ein laufender rollierender Prozess, weil sich immer weitere Reports aus dem Erst-Projekt entwickeln.

Hoher Automatisierungsgrad

Die effiziente BI-Plattform ermöglicht dem mittelständischen Unternehmen detailliertes Reporting mit tagesaktuellen Daten. Zur Realisierung neuer Berichte und Analysen werden schrittweise weitere Datenquellen in das Data Warehouse integriert.

Inzwischen sind auch die SAP-Module MM und HCM angebunden. Aus weiteren operativen Systemen werden außerdem Forecast-Daten, Vertrags-, Umsatz- und Kundendaten, tagesaktuelle Callcenter-Daten sowie technische Daten eingespielt.

  • Manuelle Berichte werden nach ihrer Überprüfung und Bereinigung zunehmend in das Data Warehouse verlagert und im leistungsfähigen Frontend Power BI abgebildet. Power BI soll als zentrales Tool zur Unternehmenssteuerung von R-KOM etabliert werden.
  • Mithilfe steuerungsrelevanter KPIs wird dazu jeder Unternehmensbereich in übersichtlichen Dashboards abgebildet, um einen guten strategischen Überblick zu erhalten.
  • Von dieser Ebene aus werden schrittweise operative Detaildaten aus dem Tagesgeschäft ergänzt.

Neben dem Finanzreporting ist ein Vertriebsreporting in Betrieb, das die Umsatzentwicklung auf Basis von Vertragsanalysen zeigt. Weitere Applikationen sind ein Servicereporting mit Callcenter-Auswertungen sowie ein Technikreporting.

Derzeit greifen rund 40 Nutzer aus allen Fachbereichen auf die Berichte und Analysen zu. Außer dem Monatsreporting wird heute ein Managementreporting pro Quartal bereitgestellt. Mitarbeitende der operativen Bereiche erhalten außerdem zum Teil tagesaktuelle Informationen.

Zuverlässige Informationen für alle

Das Data Warehouse hat zahlreiche Verbesserungen auf allen Unternehmensebenen gebracht. Wichtige Kennzahlen stehen nun zeitnah für wesentlich mehr Konsumenten im System bereit. Damit hat sich die Transparenz über alle Unternehmensbereiche erhöht. Expertenwissen, das zuvor an einzelne Personen gebunden war oder in separaten Excel-Listen vorlag, wird geteilt und ist nun auch für neue Kolleginnen und Kollegen einfach verfügbar. Katharina Ergesi nennt Beispiele:

Vom IP-Traffic über Strom-Daten im Rechenzentrum, unsere Follower-Zahlen auf Social Media bis zu Vertriebs- und Finanzzahlen – wir haben überall tiefere Einblicke und einen besseren strategischen Überblick gewonnen.

Im gesamten Unternehmen unterstützen vertrauenswürdige Kennzahlen, deren Herkunft durch Drill-down im System nachvollziehbar ist, die Entscheidungsfindung. Durch den hohen Aktualitätsgrad der Informationen hat sich auch die Reaktionsfähigkeit erhöht. Im Tagesgeschäft ist beispielsweise die optimierte Zusammenarbeit mit dem Callcenter, die nun proaktiver gesteuert werden kann, ein erheblicher Vorteil.

Mit den Vorteilen des laufenden Reportings ist bei den Berichtsempfängern zudem das Bewusstsein für eine saubere Datenbasis als Voraussetzung für zuverlässige Kennzahlen gestiegen. Abgesehen von den bereinigten Daten im Data Warehouse profitiert davon auf Dauer auch die Datenqualität in den operativen Vorsystemen.

Einfacher Ausbau des Reportings

Auf Basis des skalierbaren Data Warehouse kann das Team von R-KOM nun selbst neue Auswertungen erstellen. So konnten die Controller ohne externe Unterstützung eine zentrale App zur Geovisualisierung des Ausbaugebietes mit Erschließungs-, Beschaltungs- und technologischen Daten aufbauen, inklusive Drill-down bis auf jeden Straßenzug.

Heute lautet die Devise der Controller,
die eigenständig neue Ideen umsetzen:
„Lass uns das mal in Power BI machen!“

Weitere Use Cases sind bereits in Pipeline. Die geplante Berichterstattung zum Ausbau des Glasfasernetzes wird künftig neue Datenquellen mit wesentlich höheren Datenmengen sowie neue Berichte erfordern. Geplant ist auch die Einbindung des Beschaffungsreportings und des Nachhaltigkeitsreportings in das Data Warehouse.

Mehr zur Regensburger Telekommunikationsgesellschaft mbH:  R-KOM ist ein kommunales Unternehmen der Stadt Regensburg und seit 1997 der regionale Telekommunikationsanbieter für Ostbayern. Das Unternehmen verfügt über eine Reihe von Stadtnetzen, um Ostbayern mit der weltweiten Datenautobahn zu verbinden. Die Netze bestehen aus Glasfaserkabeln für die Kommunikation in Lichtgeschwindigkeit .R-KOM bietet ihren Geschäfts- und Privatkunden das komplette Spektrum von modernsten Telefon- und Internetanschlüssen über die Standortvernetzung, das Rechenzentrum bis hin zum Kabelfernsehen. www.r-kom.de

Mehr zur QUNIS Implementierung

 

Transparente Aufgabendefinition als Schlüssel für einen effizienten Betriebssupport

Erstellt am: Donnerstag, 6. Februar 2025 von Monika Düsterhöft

Wartung und Support sind wesentliche Bestandteile einer erfolgreichen Data & Analytics-Lösung. Schon während der Implementierung sollte genau festgelegt werden, welches Support-Spektrum zur jeweiligen Analytics-Lösung passt und welche Anforderungen bestehen.

Professionelle Betriebsservices entlasten interne Teams und Budgets

Der Betriebssupport einer Analytics-Lösung ist ebenso einzigartig wie die Lösung selbst. In einer zunehmend komplexer werdenden Systemlandschaft muss deren Betrieb zudem eine Vielzahl von Aufgabenbereichen abdecken.

Für einen effektiven Support braucht es gut ausgebildete Support Engineers, die sich mit modernen IT-Architekturen, der Verwaltung von Cloud-Domänen und verschiedenen IT-Produkten vom Backend bis zum Frontend auskennen. Zudem sollten sie versiert im Umgang mit den Daten in den fachlichen Applikationen sein.

Das Vorhalten aller entsprechend spezialisierten Skills im eigenen Unternehmen ist jedoch oft nicht wirtschaftlich, da vor allem schwerwiegende Störungen des Systems selten auftreten und nicht den alltäglichen Betrieb ausmachen.

QUNIS Care & Run: Sicherheit durch maßgeschneiderte Unterstützung

Mit QUNIS Care & Run stellen wir als End-to-End-Expertenhaus sicher, dass bei unseren Kunden auch im Betrieb ihrer Data & Analytics-Plattform keine Lücke entsteht. Entscheidend dafür ist, dass das Servicepaket für den Betriebssupport genauso individuell gestaltet wird, wie die Analytics-Lösung selbst.

Die präzise und transparente Definition der Aufgabenbereiche bildet die Basis, damit Wartung und Support der Systemlandschaft kostenoptimiert und effizient funktionieren. Doch wie genau stellen wir fest, welche Aufgaben und Anforderungen für das maßgeschneiderte Supportpaket relevant sind?

Individuell zugeschnittene Betreuung zahlt sich aus

In einem Konfigurationsworkshop erarbeiten wir gemeinsam  Ziele und Anforderungen. Vor diesem Hintergrund wird die gesamte Data & Analytics-Landschaft systematisch durchleuchtet und die zugehörigen Aufgaben in einer Matrix detailliert definiert.

Dabei werden unter anderem folgende Kategorien betrachtet:

  • Infrastruktur
  • Konnektoren
  • Cloud-Komponenten
  • Frontend
  • Anwendungen

Die Applikationen selbst werden in Steckbriefen beschrieben, die Details zu Berichten, KPIs und Nutzerprofilen enthalten. Außerdem werden den Systemkomponenten spezifische Betreuungsaufgaben wie Monitoring, Patchmanagement, Operations und Reporting zugewiesen. Die Zeithorizonte für Service- und Standzeiten, Zusatzservices an Wochenenden sowie die zu überwachenden Metriken werden ebenfalls festgelegt.

Ein weiterer zentraler Punkt ist die Definition der Supportprozesse: Wie werden Anfragen priorisiert? Wer ist intern und extern verantwortlich? Wie gestalten sich die Abläufe vom 1st bis zum 3rd Level Support?

Vertrauensvolle Zusammenarbeit auf Basis klarer Vereinbarungen

Die komplexe Vielfalt der Systemkomponenten und Aufgabenbereiche wird durch eine Matrix-Darstellung übersichtlich zusammengefasst. Diese gibt allen Beteiligten einen klaren Überblick über das flexibel abgestimmte Servicepaket.

QUNIS und der Kunde legen auf dieser Grundlage die vertraglichen Regelungen fest und starten den Betriebsservice mit einem gemeinsamen Kick-off-Workshop. In der Praxis hat sich gezeigt, dass die Zusammenarbeit auf Basis klarer Vertragsbestimmungen und SLAs äußerst effizient, vertrauensvoll und gewinnbringend ist. Jede Partei kennt ihre Aufgaben und Verantwortungsbereiche, sodass auch dringende Supportfälle schnell und koordiniert bearbeitet werden.

Die Synergien, die aus dieser engen Zusammenarbeit entstehen, sind ein wesentlicher Erfolgsfaktor für den Betrieb und die Weiterentwicklung von Analytics-Lösungen. Die Kombination aus internen und externen Kompetenzen optimiert das Tagesgeschäft und ermöglicht schnelle, praxisorientierte Anpassungen, die das gesamte Analytics-Projekt voranbringen.

Mein Tipp: Lesen Sie im Praxisbericht von Melitta Single Portions wie das Unternehmen QUNIS Care & Run erfolgreich nutzt.  

Plusnet: Innovative Analytics mit Microsoft Fabric

Erstellt am: Donnerstag, 30. Januar 2025 von Anja Gorbach

Das Telekommunikationsunternehmen Plusnet gehört zu den ersten Anwendern der Analyseplattform Microsoft Fabric. Das Fazit nach der Implementierung ist positiv. Die Plattform hilft Plusnet bei der Etablierung einer stringenten Datenkultur und ermöglicht es den Fachbereichen, geschäftlichen Mehrwert aus ihren selbst verwalteten Datenprodukten zu generieren.

QUNIS hat das Analytics-Modell ganzheitlich auf unser Business hin zugeschnitten.

Britta Mörike,
Team-Leiterin Business Intelligence, Plusnet

Datengetriebener Lakehouse-Aufbau mit Microsoft Fabric

Plusnet liefert TK-Produkte und -Lösungen für mehr als 40.000 Geschäftskunden in Deutschland. Die Tochtergesellschaft der EnBW hat im Oktober 2022 ein neu zusammengestellten Business-Intelligence-Team aufgebaut. Damit einhergehend wurde eine neue Daten-Architektur gesucht.

Aufgrund vielfältiger Anforderungen im Bereich Reporting und Analyse stand schnell fest, dass ein zentraler Datenpool als Single Point of Truth (SPOT) benötigt wurde. Das zuständige Projektteam entschied sich, die Implementierung zusammen mit QUNIS anzugehen, weil die ganzheitliche Herangehensweise der Data & Analytics-Spezialisten überzeugte.

Mit QUNIS konnte das Team alle Themen von der Strategie und Methodik über Datenstrukturen, Data Governance, IT-Architektur bis zur Auswahl der richtigen Technologien bearbeiten. Die Konzeption orientierte sich dabei sehr individuell an der Geschäftstätigkeit und Zielsetzung von Plusnet, das Analytics-Modell wurde von QUNIS ganzheitlich auf das Business hin zugeschnitten.

Mit QUNIS den Schritt ins Neuland gewagt

Als passende Technologie für das Unternehmen wurde die Lake-zentrierte Analyseplattform Microsoft Fabric ermittelt, die alle Funktionen von der Datenintegration über Data Engineering, Reporting und Advanced Analytics bis zu Data Science in einer einheitlichen, kosteneffizienten Umgebung abdeckt.

Fabric kombiniert bewährte Azure-Datendienste inklusive Power BI in einer vorkonfigurierten Plattform und unterstützt einen hohen Grad an Self-Service bei der Entwicklung von Datenprodukten und analytischen Applikationen. Plusnet sah hier die Möglichkeit, den Fachbereichen viel Freiheit bei der Entwicklung ihrer Anwendungen auf zentraler Datenbasis einzuräumen und so eine optimale Wertschöpfung aus den Unternehmensdaten zu realisieren.

Zum Zeitpunkt der Entscheidung im Jahr 2023 war Fabric ein brandneues Produkt am Markt. Mit QUNIS als erfahrener Partner an der Seite wagte Plusnet den Schritt ins Neuland.

Metadatengetriebener Entwicklungsansatz

Mit Fabric kann Plusnet sein agiles Entwicklungskonzept umsetzen. Gestartet mit einem Grundgerüst an Strukturen und Daten wird die Analytics-Plattform durch die Realisierung der einzelnen Use Cases sukzessive ausgebaut.

  • Neu ist dabei vor allem der konsequente Aufbau des Lakehouse über die Metadaten, die unter der Verantwortung der jeweiligen fachlichen Data Owner stehen.
  • Die Fachbereiche verwalten ihre eigenen Datenprodukte und sind in enger Abstimmung mit dem Business-Intelligence Team, das die Metadaten im Data Dictionary in Excel einpflegt.
  • Das Data Dictionary wird in Fabric eingespielt und darüber werden die verschiedenen Schichten des Lakehouse automatisch aufgebaut.

Die verteilte Pflege des Data Dictionary erfordert laut Britta Mörike Disziplin, hat dafür aber auch erhebliche Vorteile:

Durch den metadatengetriebenen Ansatz werden ausschließlich Daten ins Lakehouse übernommen, die auch wirklich im Business gebraucht werden.

Transparente Datenprozesse

Im Rahmen der Governance werden Ownerschaften festgelegt. Durch die klaren Regeln und Verantwortlichkeiten entstehen im Lakehouse sauber geführte Datenwelten, in denen auch die Datenherkunft gut nachvollziehbar ist.

So lässt sich beispielsweise leicht klären, woher ein bestimmter Datensatz kommt oder was bei redundanten Informationen das führende System ist. Für das TÜV-zertifizierte Unternehmen Plusnet ist die transparente Datenverwaltung u.a. auch im Rahmen von Audits eine große Hilfe.

Für die Integration der Bewegungsdaten hat QUNIS diverse Vorsysteme an das Lakehouse angebunden. Ein CRM-System auf Oracle-Basis liefert Kunden- und Vertragsdaten. Finanz- und Vertriebsdaten stammen aus SAP, Salesforce, einem Billing-System und Sharepoint. Als nachgelagertes System wird eine Planungslösung aus dem Lakehouse beliefert.

Bei der Implementierung kamen Best-Practices-Ansätze aus der QUNIS Data Toolbox zum Einsatz, die individuell auf den Bedarf von Plusnet zugeschnitten wurden. Mit automatisierten Routinen sorgen sie für eine schnelle Umsetzung und einen dauerhaft effizienten Systembetrieb.

Schneller Launch neuer Use Cases

Die Analyseplattform ging mit Vertragsauswertungen zur Entwicklung der Bestandskunden als ersten Use Case an den Start. Der zweite Use Case war ein Performance Dashboard mit Umsatz- und Vertriebsanalysen auf Basis von Salesforce, darauf folgte die Finanzsicht mit der P&L-Darstellung von SAP-Daten.

Statt mit einzelnen Reports aus verschiedenen Quellsystemen zu arbeiten kann Plusnet in der durchgängigen Analyseumgebung nun beispielsweise Umsätze, Preise, Produkte und Verträge kombiniert auswerten und damit eine 360-Grad-Kundensicht herstellen, um auf dieser Basis den kompletten Vertriebsprozess zu begleiten und das Produktportfolio zu optimieren. Britta Mörike hebt außerdem die hohe Effizienzsteigerung durch die Automatisierung hervor:

Wir haben in vielfältigen Prozessen manuelle Aufwände um 80 Prozent reduziert. Manche Aufgaben dauern nur noch eine Stunde statt einem Tag.

Fabric eröffnet Fachanwendern neue Möglichkeiten, ihre datenorientierten Geschäftsprozesse zu gestalten. Plusnet nutzt diese Potenziale und schafft auch organisatorisch die entsprechenden Rahmenbedingungen für die „data-driven company“. Derzeit wird eine unternehmensweite Data Governance aufgebaut und implementiert.

So werden in wöchentlichen Meetings regelmäßig Fragen rund um die Datenorganisation besprochen, Data Ownerships festgelegt, fließende Übergänge hinsichtlich der Prozessverantwortung für Datenuploads, Datenmodelle oder das Anforderungsmanagement geklärt und das Know-how im Team stetig weiter ausgebaut.

Die Erfahrungen mit den ersten Use Cases zeigen, dass das innovative Entwicklungskonzept Früchte trägt: Aus den datengetriebenen Strukturen baut sich schrittweise ein nachhaltiges Datenmodell im Lakehouse auf.

Neue Anforderungen lassen sich mit dem standardisierten Vorgehen auf sauberer Datenbasis sehr schnell und sicher umsetzen. So hatten die Stakeholder beispielsweise nach der Präsentation der ersten Use Cases viele neue Ideen, die das Projektteam in kürzester Zeit realisieren konnte. Das Projektteam erlebt in der Praxis, dass auf Basis der konsistenten Datenprodukte vielfältige neue Anforderungen direkt bedienbar sind.

Mehr zu Plusnet: Die Plusnet GmbH, eine Tochtergesellschaft der EnBW, ist ein deutsches Telekommunikationsunternehmen mit Fokus auf Geschäftskunden. Plusnet betreibt eine eigene, bundesweite Netzinfrastruktur und verfügt über jahrzehntelange Erfahrung im Betrieb unterschiedlicher Breitband-Technologien. Auf Basis ihres umfassenden Know-hows stellt die Plusnet Gruppe mehr als 40.000 Geschäftskunden jeder Größenordnung zuverlässige und hochsichere Sprach- und Datendienste zur Verfügung. Seit 2021 treibt das Unternehmen den Umstieg auf die Zukunftstechnologie Glasfaser voran – durch eigenwirtschaftlichen Ausbau sowie bundesweite Netz-Kooperationen. Darüber hinaus agiert Plusnet als Vermittler zukunftssicherer Glasfasernetze: Über die Glasfaser-Plattform Netbridge können Partner eigene Netze besser auslasten oder zusätzliche Reichweite für eigene Services gewinnen. Das Unternehmen mit Sitz in Köln beschäftigt rund 500 Mitarbeiterinnen und Mitarbeiter an insgesamt zehn deutschen Standorten. www.plusnet.de

Mehr zu den Themen Data Governance: State of the Art-Organisationskonzept für zuverlässig konsistente Daten und Data Lakehouse: Modernes Fundament für flexible, skalierbare Data & Analytics-Lösungen.

 

W. & L. Jordan: Auf dem Weg zur unternehmensweiten Datenkultur

Erstellt am: Montag, 13. Januar 2025 von Anja Gorbach

Das Unternehmen W. & L. Jordan will mehr Erkenntnisse aus seinen Daten für die Unternehmenssteuerung generieren. Kompakte Workshops von QUNIS haben den Entscheidern im Unternehmen einen Überblick über moderne Analytics-Anwendungen gegeben und Möglichkeiten für erste Maßnahmen aufgezeigt.

Ich sehe QUNIS als Partner, der einen sehr
strategischen, langfristigen Ansatz zum strukturierten Umgang mit Daten verfolgt.

Patrick Adler,
Leiter Controlling, W & L Jordan

Zentrales Datenmanagement für die Unternehmenssteuerung

Das Familienunternehmen Jordan mit seiner Eigenmarke JOKA gehört mittlerweile zu den führenden Anbietern für Bodenbeläge, Türen, Holz und Holzwerkstoffe in Mitteleuropa. Bei rund 1.500 Mitarbeitenden und mehreren Tochtergesellschaften sah das Controlling eine Größenordnung erreicht, um ein zentrales Datenmanagement als Grundlage für die Unternehmenssteuerung im Konzern zu etablieren.

Gestartet wurde die Dateninitiative vom Leiter Controlling Patrick Adler. Er hatte QUNIS auf Veranstaltungen im Controlling-Umfeld kennengelernt und holte die Data & Analytics-Experten wegen ihres strategisch weitblickenden und zugleich pragmatischen Ansatzes mit großem Marktüberblick als Berater ins Haus.

Die Beratung durch QUNIS sollte den Entscheidern im Unternehmen einen Einblick in die Rahmenbedingungen einer unternehmensweiten Datenstrategie geben und mögliche Potenziale für Jordan ausloten.

Zunehmende Digitalisierung erfordert konzernweite Datenstrategie

Im Finanzbereich arbeitet Jordan bereits mit einem zentralen Datenpool. Das Controlling und die Prozesse im Kostenmanagement und Reporting wurden in den letzten Jahren neu aufgestellt. Dazu gehörte auch die Implementierung eines Data Warehouse für die interne Ergebnisberichterstattung (GuV) mit Power BI als Frontend.

Beim Aufbau des Data Warehouse traten allerdings Schwachstellen im Stammdatenmanagement zutage, die im Warenwirtschaftssystem zuvor nicht aufgefallen waren. Historisch gewachsene, nicht harmonisierte Prozesse führten zu strukturell mangelhaften Stammdaten. Da die Einführung weiterer datengetriebener Systeme geplant ist, sah der Controllingleiter Patrick Adler den Zeitpunkt für eine konzernweite Datenstrategie gekommen.

Sein Anliegen hinsichtlich der Zusammenarbeit mit QUNIS war, alle Datenthemen systemübergreifend zu durchdenken und im Unternehmen die klare Notwendigkeit einer Datenkultur aufzuzeigen. Eine wesentliche Frage war dabei, wie das Data Warehouse des Controllings fachübergreifend skaliert oder erweitert werden kann.

Kompakte Wissensvermittlung in drei Workshops

Die Beratung fand im Rahmen von drei Workshops statt, an denen neben dem Controlling und der Geschäftsführung auch die IT-Experten und die Vertreter der Fachabteilungen von Jordan teilnahmen.

  • Im ersten Workshop wurden die Themenblöcke von Data & Analytics im Überblick dargestellt und Querschnittsfunktionen wie Cloud-Services oder ein zentraler Data Catalogue besprochen.
  • Im zweiten Workshop ging es um IT-Themen wie IT-Architekturen oder Technologien.
  • Das Thema Governance stand im Mittelpunkt des dritten Workshops.

In einer Abschlusspräsentation zeigte QUNIS dann erste Handlungsfelder für Jordan auf und gab Empfehlungen zum Einstieg in das unternehmensweite Datenmanagement.

Innerhalb kürzester Zeit brachte QUNIS damit alle Stakeholder durch kompakte Informationen auf einen aktuellen Wissensstand zu Technologien, Tools und Organisationsmodellen.

Erkenntnisse mit hohem Praxisbezug

Patrick Adler hebt besonders die strukturierte und gut verständliche Darstellung auch für Nicht-Techniker hervor. Statt technischer Details stand die Business-Sicht von Jordan im Vordergrund. Ein Thema war beispielsweise, wie Datenobjekte im Rahmen der fachlichen Geschäftsprozesse definiert und gepflegt oder wie kausale Zusammenhänge hergestellt werden.

Wichtige Fragen für Jordan waren hier u. a., wie der 360-Grad-Blick auf Handwerker als Direktkunden und darüber hinaus auf den Endkunden hergestellt werden kann oder wie Daten aus dem Online-Shop für gezielte Kampagnen genutzt werden können. Mit diesen Ansätzen konnte QUNIS auch die Produkt- und Vertriebsmanager begeistern. Patrick Adler bestätigt:

Alle Workshops waren geprägt von sehr guter Zusammenarbeit.

Hinsichtlich der technologischen Basis waren die Bewertungskriterien für verschiedene IT-Architekturen hilfreich für das Team von Jordan. Wichtig war auch die Erkenntnis, dass organisatorische Grundlagen wie die Data Governance mit zugehörigen Rollenkonzepten entscheidende Erfolgsfaktoren von Analytics-Projekten sind.

Die umfangreiche Projekterfahrung von QUNIS liefert hier wertvolle Hinweise aus der Praxis.  Ein Beispiel ist die prozess- und abteilungsübergreifende Entstehung und Nutzung von Daten, die zur Folge hat, dass ein datenorientierter Zuschnitt von Rollen und Gremien für Datenaufgaben sich nicht unbedingt mit der klassischen funktionalen oder regionalen Organisationsstruktur deckt.

Diese Querschnittsfunktion entlang der Datenprozesse ist bei geplanten organisatorischen Maßnahmen unbedingt zu beachten.

Veränderungsprozesse sind angestoßen

Die Workshops haben die Herausforderungen der datengetriebenen Transformation einer Organisation umrissen und damit die Erwartungen des Controllingleiters erfüllt. Laut Patrick Adler war die Beratung ein Augenöffner für den strategischen Ansatz zum Umgang mit Daten:

Nicht nur ein Tool ist entscheidend, sondern die am Geschäftsmodell ausgerichtete strukturierte Verwendung von Daten, von der operativen Ebene bis hin zur Unternehmenssteuerung. Grundlage dafür ist das Verständnis einer Data & Analytics-Plattform als orchestriertes Zusammenspiel mehrerer Tools für unterschiedliche Unternehmensanforderungen.

Die Workshops haben bei Jordan die hohe Bedeutung der Datenorientierung aufgezeigt und interne Veränderungsprozesse angestoßen. Auch die Tatsache, dass Vorbehalte gegenüber dem Cloud-Betrieb abgebaut werden konnten, war ein entscheidender Schritt nach vorne.

Patrick Adler hält fest: „Die Frage ist jetzt nicht mehr, ob eine Data & Analytics-Plattform benötigt wird, sondern nur wie und zu welchem Zeitpunkt.

Die Empfehlungen aus den Workshops befinden sich derzeit noch in der internen Bewertung, um sie mit weiteren Digitalisierungsprojekten in Einklang zu bringen.“ Patrick Adler wird den internen Aufbau von Know-how währenddessen weiter vorantreiben. Sein Fazit lautet:

QUNIS ist für mich Ansprechpartner Nummer eins,
wenn es darum geht, die nächsten Schritte zu gehen.

Mehr zur Jordan Gruppe: Die W. & L. Jordan GmbH gehört zu den führenden Anbietern von Bodenbelägen, Türen, Holz, Holzwerkstoffen, Sonnenschutz und Wohnstoffen für den gehobenen Wohn- und Objektbereich. Als zuverlässiger Partner bietet Jordan seinen Kunden aus Handwerk und Fachhandel das Komplettsortiment im Bereich Inneneinrichtung. Mit seinen Marken JOKA und INKU (für Österreich) steht W. & L. Jordan international für Produkte der Innenausstattung, die modernes Design, Funktionalität und Nachhaltigkeit vereinen. www.joka.de

Mehr zur QUNIS Strategie

Deutsche Unternehmen müssen bei D&A-Plattformen aufholen

Erstellt am: Mittwoch, 8. Januar 2025 von Anja Gorbach

Laut der neuesten Lünendonk-Studie 2024 zum Markt für Data & Analytics (D&A) Services in Deutschland erkennen Unternehmen zunehmend, dass datengetriebenes Arbeiten der Schlüssel für ihre digitale Transformation und langfristige Wettbewerbsfähigkeit ist.

Beim Aufbau der dafür notwendigen Datenplattform tun sich viele jedoch noch schwer.

Investitionsfokus auf D&A-Projekte

Rund 88 Prozent der befragten Unternehmen möchten sich zu einem datengetriebenen Unternehmen wandeln, um Entscheidungen auf Basis von Daten und Vorhersagemodellen zu treffen und ihre Geschäftsprozesse zu optimieren.

Ein Drittel der Unternehmen hat bereits ein dediziertes Budget für Data & Analytics und KI-Projekte bereitgestellt. Wenn es jedoch um die Implementierung und den Ausbau von D&A-Plattformen geht haben viele Unternehmen noch hohen Nachholbedarf. Insbesondere der Bereich der unternehmensweiten Datenplattformen steht für viele noch am Anfang.

Denn obwohl 95 Prozent der Befragten den Aufbau einer funktionsübergreifenden Datenplattform als Voraussetzung für eine datengetriebene Organisation sehen, haben erst 29 Prozent eine konsistente, unternehmensweite Plattform implementiert.

Der Rest, ganze 71 Prozent, kämpft nach wie vor damit, Datensilos aufzulösen und Daten aus unterschiedlichen Quellen zusammenzuführen, um beispielsweise die gewünschte 360-Grad Kundensicht herzustellen. Eine zentrale Datenbasis und moderne Lösungen für das Datenmanagement stehen daher im Fokus der Investitionen.

Ansätze wie Data Visualization und Self-Service-BI gewinnen zudem immer mehr an Bedeutung, da sie auch Nutzer ohne Spezialwissen dabei unterstützen, ihre benötigten Daten selbst auszuwerten und datengetriebene Entscheidungen zu treffen.

Organisation im Umbruch

Unternehmen stellen sich nicht nur technologisch, sondern zunehmend auch organisatorisch hinsichtlich einer neuen Datenkultur in der Organisation auf. Ein wesentliches Ziel der Anpassungen ist die Steigerung der Datenqualität.

Nur 9 Prozent der befragten Unternehmen beurteilen ihre Daten als aktuell, vollständig und konsistent. Data Governance und standardisierte Prozesse für Datenpflege und Qualitätsprüfungen sollen hier Abhilfe schaffen.

66 Prozent der Unternehmen haben bereits funktionsübergreifende Teams für Datenprojekte etabliert, in vielen Organisationen arbeiten Fachabteilungen und IT jedoch noch separat am Thema Daten.

Kompetente D&A-Dienstleister gefragt

Es gibt viel zu tun und das Thema D&A ist komplex. Zugleich bekommen die Unternehmen den Mangel an IT-Fachkräften zu spüren. Die Nachfrage nach D&A-Dienstleistern ist daher hoch. Die Unternehmen suchen sich leistungsfähige strategische Beratungs- und Implementierungspartner.

Bevorzugt werden Dienstleister mit Full-Service-Angebot, die die gesamte Wertschöpfungskette von Data Strategy über Data Engineering bis hin zu Data Operations abdecken. Als Pluspunkt zählen Technologiepartnerschaften mit den etablierten Softwareherstellern. 89 Prozent der Kunden sehen den Full-Service als wesentliches Auswahlkriterium. 

QUNIS wird von Lünendonk als Herausforderer und ausgewiesener Experte gelistet und positioniert sich als führender D&A-Spezialist und End-to-End-Dienstleister in Übereinstimmung mit den Marktentwicklungen. Basierend auf langjähriger Projekterfahrung setzen wir die Data & Analytics-Projekte unserer Kunden ganzheitlich um und begleiten sie von der Strategie über die Identifikation der Handlungsfelder bis zur Implementierung und effektiven Verankerung in ihrer Organisation.

Der Aufbau von Open Lakehouse-Architekturen ist dabei zentral. Damit ermöglichen wir es Unternehmen, ihre Daten in einer flexiblen, skalierbaren und offenen Umgebung zu speichern und zu verarbeiten. Sie profitieren von der Effizienz eines Data Lakes und der Struktur eines Data Warehouse – eine ideale Grundlage für die Nutzung von Echtzeitdaten und den Aufbau einer datengestützten Entscheidungsfindung.

Der Weg zur datengetriebenen Zukunft

Die Lünendonk-Studie 2024 zeigt deutlich: Der Markt für Data & Analytics ist ein wachsender, aber auch herausfordernder Bereich. Unternehmen müssen sich jetzt mit der richtigen Datenstrategie und einer durchdachten Plattformlösung aufstellen, um die Potenziale datengetriebenen Arbeitens auszuschöpfen. QUNIS ist bestens positioniert, um Unternehmen als kompetenter Partner bei diesem Transformationsprozess zu unterstützen – von der Strategie bis zur operativen Umsetzung.

Die vollständige Studie ist auf der Website von Lünendonk verfügbar.

Mein Tipp: Sie wollen mehr zum Thema Data Lakehouse erfahren? Holen Sie sich direkt unseren kostenfreien Quick Guide inklusive Selbstcheck  

Data Mesh als soziotechnischer Ansatz zur Erstellung einer dezentralen Datenarchitektur

Erstellt am: Mittwoch, 20. März 2024 von chaydl

An die Datenauswertung im Unternehmen werden heute immer größere Anforderungen gestellt. Das zentral angesiedelte BI Competence Center, das bislang die Entwicklung und das Datenmanagement rund um ein Data Warehouse erledigt hat, kommt damit aber immer mehr an seine Grenzen. Das Prinzip des Data Mesh bietet hier einen passenden Lösungsansatz.

Data Mesh macht Analytics agiler

Data Mesh stellt die Daten als Wertschöpfungsfaktor in den Mittelpunkt der Architekturkonzeption. Daten sollen als „Datenprodukte“ prozess- und systemübergreifend im Unternehmen zur Verfügung gestellt werden.

Die Grundidee besteht darin, Daten als Asset für die Organisation zu begreifen und Business Usern hochwertige Datenprodukte für ihre Zwecke zugänglich zu machen, damit sie diese optimal nutzen können. Diesen Ansatz verfolgt auch die Self-Service BI bereits seit Jahren.

Neu ist bei Data Mesh allerdings die konsequente Delegation der Verantwortung und Kompetenzen in die dezentrale Organisation:

  • Entwicklungsteams erhalten die Verantwortung für die Entwicklung und den Betrieb von Datenprodukten ihrer fachlichen Domäne.
  • Die Verlagerung in fachlich geschnittenen Domänenteams löst das Engpass-Problem eines einzelnen zentralen Analytic-Teams.
  • Zugleich vervielfacht sie die Entwicklungsressourcen, erhöht damit das mögliche Umsetzungstempo neuer Use Cases und gewährleistet darüber hinaus die geforderte fachliche Expertise in der jeweiligen Domäne.

Die Dateninfrastruktur für die Domänenteams wird in Form einer Datenplattform nach dem Self-Service-Gedanken bereitgestellt. Im Gegensatz zur klassischen Data-Warehouse-Architektur mit zentralisierten Datenströmen handelt es sich hier um eine domänenorientierte dezentrale Architektur für analytische Daten.

Die Definition von Data Mesh zielt eher auf die Governance und Organisation des datengetriebenen Unternehmens ab als auf technologische Aspekte. Es gibt aber eine Kernarchitektur, die sich zur Umsetzung von Data Mesh besonders eignet, das Data Lakehouse.

Data Lakehouse unterstützt Data Mesh

Das Data Lakehouse unterstützt die dezentrale Arbeit mit Datenprodukten. Durch die Trennung von Storage und Computing bietet es eine hohe Flexibilität zur Einrichtung verschiedener Domänen mit jeweils eigenen Datenprodukten auf einem gemeinsamen Datenlayer. Ein heterogener Technologie-Stack greift dabei über Open Table Format auf Daten aus verschiedenen Quellen zu und bereitet sie für Use Cases wie BI, ML, Data Science oder Data Engineering in diversen Domänen auf.

Unter Berücksichtigung einer stringenten Access Control lassen sich die Datenquellen auf diese Weise verschiedenen Teams für ihre Auswertungen zugänglich machen. Datensilos werden vermieden und domänenübergreifende Datenabfragen unterstützt. Das verteilte Computing ermöglicht es zudem, unvorhergesehene Lastspitzen aus anderen Domänen abzufangen.

Reifegrad der dezentralen Governance als Erfolgsfaktor

Gemäß Definition basiert Data Mesh auf den vier Grundprinzipien Domain Ownership, Data Products, Self-Service und Federated Governance. Die verteilte Governance ist dabei der wesentliche Erfolgsfaktor für die Etablierung von Data Mesh. Im Rahmen der Governance legen die beteiligten Teams gemeinsame Standards und Regeln fest, um ihre Zusammenarbeit, die Harmonisierung der Daten und Sicherheitsanforderungen zu gewährleisten.

Aufgaben wie das Qualitätsmanagement und die Klassifikation von Daten, Security, Schnittstellen-Verwaltung oder die Definition und Verwaltung von Datenprodukten sind über die gesamte Organisation verteilt. Die Verantwortlichkeiten müssen hier klar geregelt sein.

QUNIS hat dafür ein dezidiertes Rollenmodell entwickelt, das sich seit Jahren in Data & Analytics-Projekten bewährt.

  • Das Rollenmodell legt unter anderem das Ownership für Domänen, Datenprodukte oder Datenobjekte wie „Kunden“, „Artikel“ oder „Partner“ fest.
  • Datenexperten wie Data Owner, Data Steward und das Data Governance Board arbeiten dabei mit Funktionen eines BI- oder erweiterten Analytics-Rollenmodells zusammen.
  • Dazu gehören zum Beispiel die Rollen End User, Power User, Solution Architect, Data Engineer mit DataOps, Data Architect sowie Data Scientist mit MLOps.

Über das Rollenmodell kann der Data-Mesh-Gedanke bis hin zu den DevOps etabliert werden. Die Verankerung und Durchsetzung der Rollen und einer starken Governance sind die Voraussetzung dafür, dass die verschiedenen Teams orchestriert zusammenarbeiten, qualitativ hochwertige Datenprodukte geliefert werden und der weitgehende Self-Service im Rahmen zuverlässiger Standards funktioniert.

Die Umsetzung von Data Mesh steht und fällt mit dem Reifegrad dieser Datenorganisation. Diese Organisation ist funktionsübergreifend und deckt sich damit nicht unbedingt mit der üblichen Einteilung in Geschäfts- oder Fachbereichen. Daher ist die Mitwirkung des Management Boards bei der Kontrolle und Etablierung der datengesteuerten Organisation und Architektur unbedingt notwendig.

Data Mesh setzt sich durch

Unternehmen verstehen, dass Daten immer mehr zur Wertschöpfung beitragen. Die kluge Nutzung und Auswertung der Daten bringen den entscheidenden Wettbewerbsvorteil. Für größere Konzerne und auch für viele mittelständische Unternehmen ist erweiterte Analytics daher inzwischen selbstverständlich. Data Mesh bietet die Möglichkeit, sich in diesem Bereich agiler aufzustellen.

QUNIS sieht daher derzeit eine große Dynamik und viel Kraft am Markt, das verteilte Organisations- und Architekturkonzept im Unternehmen umzusetzen. In den Projekten zeigt sich, dass das Data Lakehouse hierbei eine große Hilfe ist, weil die Technologie das flexible Splitten von Datenräumen erlaubt und die Verteilung von Verantwortung für Datenprodukte unterstützt.

Mein Tipp: Wenn Sie mehr über Data Mesh wissen wollen, folgen Sie uns auf LinkedIn und Xing oder abonnieren Sie einfach unseren Newsletter. Oder kontaktieren Sie uns und schreiben Sie mir direkt über KONTAKT ich freue mich über den Austausch mit Ihnen! 

Digitale Innovation braucht eine Datenstrategie

Erstellt am: Montag, 11. März 2024 von Anja Gorbach

Unternehmen investieren massiv in Digitalisierungsprojekte und die datengetriebene Wertschöpfung. Neue ERP-Systeme, Prozessvereinheitlichung oder die Ertüchtigung der internen IT-Infrastruktur stehen hier auf der Agenda. Dazu kommen immer mehr innovative Use Cases wie AI- und ML-Anwendungen, Bilderkennungsverfahren oder IoT-Plattformen. Als Cloud-Lösungen sind mächtige Speicher- und Analysesysteme selbst für mittelständische Unternehmen erschwinglich und kommen dort auch rege zum Einsatz.

Ohne ein fortgeschrittenes Datenmanagement werden die digitalen Innovationen jedoch nicht funktionieren, denn nach wie vor gilt die alte Weisheit: Die neuen Technologien können die Erwartungen nur erfüllen, wenn die Datenbasis stimmt. Und hier liegt in der Unternehmenspraxis oft das Problem.

Unkoordinierte Dateninitiativen kosten Geld und gefährden die Wertschöpfung

Im Zusammenhang mit der Systemadministration sind meist auch Datenmanagement-Initiativen etabliert. Diese laufen aber oft unkoordiniert im Unternehmen nebeneinander – und jede einzelne Disziplin für sich ist eine Mammutaufgabe.

Stamm- und Metadatenmanagement, Schnittstellen-Verwaltung, Datenqualität, Initiativen rund um BI und ML sind verschiedenste Ansätze, in denen sich einzelne Teams um ihr jeweiliges Datenthema kümmern.

  • So setzt man beispielsweise das Stammdatenmanagement oft nur Tool-basiert auf.
  • Oder es kommt vor, dass in der IT eine MDM-Implementierung läuft und parallel eine unternehmensweite Data-Governance-Initiative gestartet wird.
  • Oder eine ERP-Migration von SAP R/3 auf S/4 läuft unabgestimmt mit der Data & Analytics-Welt.

Entscheidungen im Rahmen von nicht abgestimmten Einzelinitiativen verursachen jedoch unnötige Kosten und gefährden die unternehmensweite Wertschöpfung von Daten. Da hilft nur eins: die unternehmensspezifischen Ziele des Datenmanagements zu definieren und die Umsetzung dementsprechend zu planen.

Es gilt, eine umfassende Datenstrategie zu entwickeln

Die Ziele des Datenmanagements sollten sich an der Unternehmensstrategie ausrichten. In diesem Rahmen können Dateninitiativen dann sinnvoll priorisiert und eingeordnet werden, so dass Transparenz geschaffen wird und alle Maßnahmen auf ein gemeinsames Ziel hinauslaufen. QUNIS hat ein Framework für die Datenstrategie entwickelt, die mit den folgenden drei Säulen bei der Entwicklung einer ausbalancierten Strategie hilft:

  • Scope
  • Architektur & Technologie
  • Organisation & Data Governance

Scope

Hier werden die datenorientierten Ziele des Unternehmens abgesteckt. Ansatzpunkte sind dabei datengestützte Prozessabläufe, Informationsbedarfe sowie digitale Produkte und Services des Unternehmens. Die Ziele, die derzeit in den Projekten am häufigsten genannt werden, sind effiziente Prozessketten, verlässliche Auswertungen durch hohe Datenqualität, Automatisierung im Datenmanagement oder die Entwicklung wettbewerbsfähiger Produkte und Services auf Basis hochwertiger Daten.

Empfehlung: Lassen Sie den ermittelten Scope vom Management bestätigen. Die Umsetzung der Strategie wird Kapazitäten erfordern und organisatorische Veränderungen bis in die operative Prozessebene mit sich bringen. Das Committent der Unternehmensleitung ist daher unabdingbar für die erfolgreiche Umsetzung.

Architektur & Technologie

Hier werden die Themenblöcke Stamm- und Metadatenmanagement, Backbone & Middle Layer sowie der Bereich Data & Analytics diskutiert. Besonders beim Stamm- und Metadatenmanagement gibt es immer wieder gewaltige Überraschungen beim Start der strukturierten Analyse. Die Fragen, wie man an bestimmte Daten herankommt, wer die Datenhoheit hat oder wo die Lücken in der Datenpflege liegen, können viele Unternehmen nicht klar beantworten. Von unternehmensweiter Transparenz sind die meisten Organisationen hier weit entfernt.

Im Bereich Backbone & Middle Layer geht es um Infrastruktur- und Technologie-Entscheidungen zur Verknüpfung von Systemen zu durchgehenden Datenplattformen. Ein wichtiger Themenblock in einer Datenstrategie ist natürlich der Bereich Data & Analytics mit seiner originären Aufgabe, Daten zu Analysezwecken in einer zentralen Plattform zu sammeln, aufzubereiten und zu verteilen.

Data & Analytics-Plattformen verarbeiten heute nicht mehr nur strukturierte Daten in klassischen BI-Analysen, sondern auch IoT-, GPS- oder Webdaten. Der Output können Reports zur internen Steuerung oder als Service für Partner, Lieferanten oder Kunden sein, aber auch Daten zur Speisung von ML-Cases und weiteren Systemen.

Organisation & Governance

Um eine standardisierte und skalierbare Data & Analytics-Plattform aufzubauen, ist die Etablierung einer strukturierten Data Governance zum geregelten Umgang mit den verschiedensten Datenformaten unverzichtbar. Data Governance versteht sich hier als integraler Bestandteil einer ganzheitlichen Datenstrategie, der den organisatorischen Handlungsrahmen für Einzeldisziplinen des Datenmanagements stellt. Wesentlicher Baustein ist das klassische Rollenmodell mit den Funktionen Data Owner und Data Steward auf operativer Ebene sowie den Leitungsfunktionen Data Board auf Teilkonzern-Ebene und dem Head of Global Data Governance auf Konzernebene.

In diesem Themenbereich liegt wahrscheinlich die höchste Sprengkraft, wenn das Datenmanagement in der Organisation verankert wird. Der Hauptgrund ist, dass die datenorientierte Organisation nicht der klassischen Linienorganisation der Fachbereiche entspricht. Der Einsatz von Business-Daten endet nicht an der Abteilungsgrenze von Sales, Finance oder HR. Die Daten werden vielmehr bereichsübergreifend in End-to-End-digitalisierten Prozessen genutzt und sollten daher auch von crossfunktional angesiedelten Datenexperten in einer Enterprise-Organisation verwaltet werden.

In einer mittleren bis großen Organisation lassen sich dabei heute nicht mehr alle Datenprozesse von einem einzigen zentralen Bereich stemmen. Datenexperten müssen stattdessen im gesamten Unternehmen verteilt sein und eng mit den Fachbereichen zusammenarbeiten. Deren Fachexpertise ist unbedingt nötig, um Daten hinsichtlich ihrer Wertschöpfung im Business und aus legaler Sicht korrekt zu beurteilen und sie optimal im Geschäftsprozess einzusetzen. Tatsächlich kann man bei vielen Unternehmen derzeit beobachten, dass vorhandene zentralisierte BI- oder Governance-Organisationen aufgebrochen werden, um sie breiter im Unternehmen anzulegen.

Orchestrierte Umsetzung auf Basis der Datenstrategie

Die operative Verankerung dieser Querschnittsfunktionen erfordert Durchsetzungskraft und Schulungen im gesamten Unternehmen, um ein unternehmensweites Bewusstsein für Daten als Wertschöpfungsfaktur aufzubauen und die nötige Akzeptanz für die datengetriebene Organisation im Tagesgeschäft zu erreichen. Hier geht es um nichts weniger als um einen echten Kulturwandel mit Blick auf die Daten, der am besten durch ein gezieltes Change Management begleitet wird.

Die datengetriebene Organisation ist nicht von heute auf morgen zu erreichen und Widerstände im Unternehmen sind absehbar. Die Datenstrategie ist jedoch ein sicheres Gerüst, zudem gibt sie die Roadmap für die schrittweise Umsetzung vor.

Im Rahmen der Datenstrategie können Unternehmen kleine Projekte angehen, in überschaubaren Schritten immer wieder Win-Effekte erzeugen und Mehrwerte liefern. Einzelinitiativen laufen auf dieser Basis orchestriert und ohne Redundanzen im Rahmen des entworfenen Big Picture.

Mein Tipp: Wenn Sie mehr über Datengetriebene Wertschöpfung und Datenstrategie wissen wollen, folgen Sie uns auf LinkedIn und Xing oder abonnieren Sie einfach unseren Newsletter. Oder kontaktieren Sie uns und schreiben Sie mir direkt über KONTAKT ich freue mich über den Austausch mit Ihnen! 

Danone: Sell-Out-Applikation in Lakehouse-Architektur

Erstellt am: Montag, 5. Februar 2024 von Anja Gorbach

Danone gehört zu den führenden Lebensmittelherstellern weltweit. Eine globale Plattform für Data & Analytics hilft bei der operativen und strategischen Steuerung des Konzerns. Für den Bereich Danone D-A-CH hat QUNIS eine Sell-Out-Applikation realisiert, die sich nahtlos in die zentrale Datenplattform einfügt.

Wir waren uns sicher, dass QUNIS den Use Case in selbstständiger Arbeit erfolgreich abliefert.

Tobias Riedner,
Head of IT  Data & Analytics, Danone Deutschland GmbH

Data Journey bis 2025

Danone verfolgt eine konsequente Digitalisierungsstrategie. Im Jahr 2020 hat das Unternehmen eine auf fünf Jahre angelegte Initiative zu den Themen Cloud, Data Products und Data Driven Decisions gestartet und in diesem Rahmen eine zentrale Datenplattform für Data Sourcing und Provisioning aufgebaut. Seit dem Rolling Out der „One Source“-Plattform im Jahr 2022 werden kontinuierlich neue Use Cases aufgesetzt.

Die benötigten Datenprodukte für die Anwendungen werden vom Bereich IT Data & Analytics zur Verfügung gestellt und gewartet. Für die Umsetzung einer Sell-Out-Applikation hat das IT-Team QUNIS als Implementierungspartner hinzugezogen. Die internen Core DevOp Teams, die unternehmensweit Datenprodukte bereitstellen, hatten zu diesem Zeitpunkt nicht die nötigen Kapazitäten für diesen strategisch wichtigen Use Case. Als zentrales Steuerungsinstrument für den Bereich Danone D-A-CH wurde der Sell Out Use Case jedoch dringend benötigt.

Use Case an QUNIS delegiert

QUNIS war bei Danone bereits seit Jahren als projekterfahrener Experte für Data & Analytics bekannt. Für Tobias Riedner, Head of IT Data & Analytics der Danone Deutschland GmbH, war daher klar, dass er sich auf QUNIS als kompetenten Implementierungspartner verlassen kann: „Wir waren uns sicher, dass QUNIS den Use Case in selbstständiger Arbeit erfolgreich abliefert.“

Im Projekt galt es, den spezifischen Use Case im Rahmen der vorgegebenen globalen Referenzarchitektur umzusetzen. Die One-Source-Datenplattform von Danone ist ein Data Lakehouse auf der Basis von Microsoft Azure, mit vielfältigen Vorsystemen, mit Databricks und Snowflake Datenspeichern und Power BI als Frontend für die Berichtsempfänger.

Für Tobias Riedner war wichtig, dass QUNIS in dieser Technologieumgebung eine große Expertise und umfangreiche Projekterfahrung mitbringt. Aber auch die Tatsache, dass QUNIS zuvor bereits eine ähnliche Anwendung mit anderer Technologie umgesetzt hatte, sprach für eine schnelle und sichere Implementierung.

Wichtige Steuerungskennzahlen

Der Sell Out Use Case ist eine klassische BI-Anwendung, allerdings fachlich und hinsichtlich des Datenmanagements sehr komplex. Danone vertreibt seine Produkte fast ausschließlich als B2B-Händler an den Einzelhandel. Der Verkaufspreis an Händler wie Aldi oder ReWe wird als „Sell In“ geführt. Zu welchem „Sell-Out“-Preis der jeweilige Einzelhändler die Produkte an die Konsumenten abgibt, ist für Danone eine wesentliche Information für die Preissteuerung. Aus der Marge zwischen Sell In und Sell Out, oder der Sell-Out-Nachfrage für das Produkt, ergeben sich Hinweise zur Preissensitivität der Endkunden, die wiederum Auswirkungen auf die eigene Preisgestaltung und darüber hinaus auch auf die Produktions- und Lagersteuerung oder auf Marketingaktionen haben.

Datenmanagement automatisiert

Danone erhält für diese Analyse Flat-Files von den Einzelhändlern, die vor der Neuimplementierung manuell gesammelt und aufbereitet wurden. Die Prüfung und Zusammenführung der Daten war zuvor entsprechend aufwändig und fehleranfällig. Wegen des hohen Aufwands war zudem nur eine monatliche Aktualisierung möglich.

Die Data Engineers von QUNIS haben das Datenmanagement neu aufgesetzt. Die teilautomatisiert gesammelten Dateien der Händler werden nun intern vollautomatisch verarbeitet, in das Data Lakehouse integriert und zur Auswertung bereitgestellt. Eine wesentliche Herausforderung im Projekt war dabei die Harmonisierung von Hunderten angelieferter Excel- und Textfiles, u. a. auch mit unterschiedlichen Berichtszeiträumen der Händler.

© Burda Food Agency / Katrin Winner

Leistungsstarke Datenmodelle

Bei der Datenmodellierung war die fachliche Expertise von QUNIS gefragt. Die performanten Datenmodelle ermöglichen schnelle und flexible Auswertungen für unterschiedliche Fachbereiche. Das Datenprodukt wird für die Abteilung Price Revenue Growth Management (PRCM) bereitgestellt, die diese wiederum für Reporting und Analyse in verschiedenen Fachbereichen aufbereitet. Im Rahmen des PRCM-Prozesses können nun Bereiche wie Sales, Key Account Management oder Produktion ihre Fragen zur Preissensibilität der Endkunden mit flexibler Sicht auf die Verkäufe, Preise, Händler oder Regionen beantworten, Produktionsmengen steuern oder Lieferungen zu Händlern oder in bestimmte Regionen präzise terminieren. Tobias Riedner fasst zusammen: 

 Die Sell-Out-Applikation ist für unsere Unternehmenssteuerung unverzichtbar. Dank QUNIS sind die aktuellen Kennzahlen heute auf Knopfdruck verfügbar.


Kompetenter Implementierungspartner

QUNIS wurde bei Danone vor allem als Experte für Data Engineering eingesetzt. Wichtig ist dabei jedoch auch der Blick für das Big Picture der globalen Datenplattform. Die Architektur der Sell-Out-Lösung fügt sich nahtlos in die Gesamtarchitektur ein, kann im Rahmen der standardisierten Technologieumgebung beliebig ausgebaut werden und lässt sich zugleich an die ständig weiterentwickelte Datenplattform anpassen.

Die Zusammenarbeit mit QUNIS war großartig. Bei Bedarf werde ich jederzeit wieder darauf zurückgreifen.

Mehr zu Danone: Danone ist einer der führenden Hersteller von Lebensmitteln und medizinischer Ernährung in der D-A-CH-Region, der in vier Geschäftsbereichen tätig ist: Milchfrische, pflanzenbasierte Produkte, natürliches Mineralwasser und Erfrischungsgetränke sowie frühkindliche und medizinische Nahrung. Mit rund 2.300 Mitarbeitern an sieben Standorten sowie zwei international relevanten Werken produziert Danone D-A-CH über 1.000 unterschiedliche Produkte. Das Portfolio umfasst führende internationale und lokale Marken wie Actimel, Activia, Alpro, Aptamil, Volvic, evian, Fruchtzwerge, Nutrini, Fortimel und Neocate. Weltweit ist Danone mit mehr als 96.000 Mitarbeitenden in über 55 Ländern Marktführer in den Bereichen Dairy & Plant Based Products, Spezialized Nutrition und Waters. Die Danone Produkte sind in mehr als 120 Ländern erhältlich. Weitere Informationen: www.danone.de

Kostenfreies Whitepaper QUNIS Quick Guide to Open Lakehouse

Mehr zur QUNIS Implementierung