Archiv für die Kategorie Self Service BI

R-KOM: Automatisiertes BI-Reporting mit 360-Grad-Blick über alle Fachbereiche

Erstellt am: Dienstag, 18. März 2025 von Anja Gorbach

Als Telekommunikationsanbieter in Ostbayern ist R-KOM in den letzten Jahren kontinuierlich gewachsen und hat seine Geschäftsfelder erweitert. Mithilfe von QUNIS baut das Controlling ein automatisiertes BI-Reporting auf, das einen 360-Grad-Blick über alle Fachbereiche für die Unternehmenssteuerung liefert.

Wir wollten von QUNIS den Grundaufbau für das Data Warehouse bekommen, den Betrieb und weiteren Ausbau aber dann möglichst schnell selbst übernehmen.

Katharina Ergesi,
Controlling und BI, R-KOM GmbH

Data Warehouse als Basis für die datengetriebene Unternehmenssteuerung

Gehörten anfangs ausschließlich regionale Unternehmen zum Kundenkreis von R-KOM, versorgt der TK-Anbieter seit mehr als 15 Jahren auch Privatkunden mit Internet, Telefonie, TV und Datendiensten. Die Tochtergesellschaft der Stadt Regensburg baut zudem das Glasfasernetz im kommunalen Auftrag weiter aus.

Mit dem Wachstum sind auch die Anforderungen an das Controlling gestiegen. Die Entscheider im Unternehmen brauchen vertrauenswürdige Steuerungskennzahlen, die Transparenz über alle Bereiche schaffen.

Die Controller hatten das Reporting bislang in Form von Excel- und PowerPoint-Berichten aufbereitet und verteilt. Im Geschäftsalltag waren dabei vor allem der hohe manuelle Aufwand, der fehlende Single Point of Truth und der beschränkte Zugriff auf SAP-Daten problematisch. Eine moderne BI-Plattform mit zentralem Data Warehouse sollte hier Abhilfe schaffen.

Implementierung mit Best Practices

Da es bislang keine BI-Lösung gab, fand der Systemaufbau „auf der grünen Wiese“ statt. Mit QUNIS als Implementierungspartner ist R-KOM dabei direkt in die neuesten Technologien eingestiegen und hat ein hoch automatisiertes Data Warehouse auf Basis des Microsoft SQL Servers realisiert. Katharina Ergesi, zuständig für Controlling und BI bei R-KOM, formuliert den pragmatischen Anspruch des mittelständischen Unternehmens: Wir wollten von QUNIS den Grundaufbau für das Data Warehouse bekommen, den Betrieb und weiteren Ausbau aber dann möglichst schnell selbst übernehmen.“

Das Data Warehouse Framework von QUNIS, das Best Practices und vorgefertigte Funktionen in einem standardisierten Vorgehensmodell vereint, war dafür die ideale Implementierungsgrundlage. Das Framework spart Zeit und minimiert Risiken beim Aufbau von Data Warehouses mit modernsten Technologien.

Der hohe Standardisierungs- und Automatisierungsgrad vereinfacht zudem den Betrieb, die Administration und die Weiterentwicklung der IT-Architektur. Auch mit wenig Ressourceneinsatz kann das Controlling damit ein unternehmensweites Reporting bereitstellen und eigenständig ausbauen.

QUNIS hat die Implementierung der IT-Architektur übernommen, die automatisierten Ladeprozesse aus den Quellsystemen eingerichtet und die analysefähigen Datenmodelle aufgebaut. Gemeinsam mit dem Controlling wurden die Business-Logiken definiert und die Reports und Dashboards im Frontend Power BI gestaltet.

Die Implementierung startete im Oktober 2021 mit einer Anwendung für das Finanzcontrolling. Mit der Anbindung der SAP-Module FI/CO waren erste Ad-hoc-Reports schnell verfügbar. Der erste Rollout des SAP-Reportings erfolgte Ende 2022 mit einer App, in der die GuV und der Umsatz-Forecast vollständig dargestellt sind.

Anschließend wurden sukzessive Apps der Fachbereiche wie Vertrieb, Beschaffung, Service, Ausbau oder Technik umgesetzt und so der angestrebte 360-Blick auf das Geschäft realisiert. Die Erstimplementierung aller Apps war im Jahr 2024 abgeschlossen, seitdem erfolgt eine kontinuierliche Weiterentwicklung. Katharina Ergesi erklärt die Entwicklungsdynamik:

Der Ausbau des Reportings ist ein laufender rollierender Prozess, weil sich immer weitere Reports aus dem Erst-Projekt entwickeln.

Hoher Automatisierungsgrad

Die effiziente BI-Plattform ermöglicht dem mittelständischen Unternehmen detailliertes Reporting mit tagesaktuellen Daten. Zur Realisierung neuer Berichte und Analysen werden schrittweise weitere Datenquellen in das Data Warehouse integriert.

Inzwischen sind auch die SAP-Module MM und HCM angebunden. Aus weiteren operativen Systemen werden außerdem Forecast-Daten, Vertrags-, Umsatz- und Kundendaten, tagesaktuelle Callcenter-Daten sowie technische Daten eingespielt.

  • Manuelle Berichte werden nach ihrer Überprüfung und Bereinigung zunehmend in das Data Warehouse verlagert und im leistungsfähigen Frontend Power BI abgebildet. Power BI soll als zentrales Tool zur Unternehmenssteuerung von R-KOM etabliert werden.
  • Mithilfe steuerungsrelevanter KPIs wird dazu jeder Unternehmensbereich in übersichtlichen Dashboards abgebildet, um einen guten strategischen Überblick zu erhalten.
  • Von dieser Ebene aus werden schrittweise operative Detaildaten aus dem Tagesgeschäft ergänzt.

Neben dem Finanzreporting ist ein Vertriebsreporting in Betrieb, das die Umsatzentwicklung auf Basis von Vertragsanalysen zeigt. Weitere Applikationen sind ein Servicereporting mit Callcenter-Auswertungen sowie ein Technikreporting.

Derzeit greifen rund 40 Nutzer aus allen Fachbereichen auf die Berichte und Analysen zu. Außer dem Monatsreporting wird heute ein Managementreporting pro Quartal bereitgestellt. Mitarbeitende der operativen Bereiche erhalten außerdem zum Teil tagesaktuelle Informationen.

Zuverlässige Informationen für alle

Das Data Warehouse hat zahlreiche Verbesserungen auf allen Unternehmensebenen gebracht. Wichtige Kennzahlen stehen nun zeitnah für wesentlich mehr Konsumenten im System bereit. Damit hat sich die Transparenz über alle Unternehmensbereiche erhöht. Expertenwissen, das zuvor an einzelne Personen gebunden war oder in separaten Excel-Listen vorlag, wird geteilt und ist nun auch für neue Kolleginnen und Kollegen einfach verfügbar. Katharina Ergesi nennt Beispiele:

Vom IP-Traffic über Strom-Daten im Rechenzentrum, unsere Follower-Zahlen auf Social Media bis zu Vertriebs- und Finanzzahlen – wir haben überall tiefere Einblicke und einen besseren strategischen Überblick gewonnen.

Im gesamten Unternehmen unterstützen vertrauenswürdige Kennzahlen, deren Herkunft durch Drill-down im System nachvollziehbar ist, die Entscheidungsfindung. Durch den hohen Aktualitätsgrad der Informationen hat sich auch die Reaktionsfähigkeit erhöht. Im Tagesgeschäft ist beispielsweise die optimierte Zusammenarbeit mit dem Callcenter, die nun proaktiver gesteuert werden kann, ein erheblicher Vorteil.

Mit den Vorteilen des laufenden Reportings ist bei den Berichtsempfängern zudem das Bewusstsein für eine saubere Datenbasis als Voraussetzung für zuverlässige Kennzahlen gestiegen. Abgesehen von den bereinigten Daten im Data Warehouse profitiert davon auf Dauer auch die Datenqualität in den operativen Vorsystemen.

Einfacher Ausbau des Reportings

Auf Basis des skalierbaren Data Warehouse kann das Team von R-KOM nun selbst neue Auswertungen erstellen. So konnten die Controller ohne externe Unterstützung eine zentrale App zur Geovisualisierung des Ausbaugebietes mit Erschließungs-, Beschaltungs- und technologischen Daten aufbauen, inklusive Drill-down bis auf jeden Straßenzug.

Heute lautet die Devise der Controller,
die eigenständig neue Ideen umsetzen:
„Lass uns das mal in Power BI machen!“

Weitere Use Cases sind bereits in Pipeline. Die geplante Berichterstattung zum Ausbau des Glasfasernetzes wird künftig neue Datenquellen mit wesentlich höheren Datenmengen sowie neue Berichte erfordern. Geplant ist auch die Einbindung des Beschaffungsreportings und des Nachhaltigkeitsreportings in das Data Warehouse.

Mehr zur Regensburger Telekommunikationsgesellschaft mbH:  R-KOM ist ein kommunales Unternehmen der Stadt Regensburg und seit 1997 der regionale Telekommunikationsanbieter für Ostbayern. Das Unternehmen verfügt über eine Reihe von Stadtnetzen, um Ostbayern mit der weltweiten Datenautobahn zu verbinden. Die Netze bestehen aus Glasfaserkabeln für die Kommunikation in Lichtgeschwindigkeit .R-KOM bietet ihren Geschäfts- und Privatkunden das komplette Spektrum von modernsten Telefon- und Internetanschlüssen über die Standortvernetzung, das Rechenzentrum bis hin zum Kabelfernsehen. www.r-kom.de

Mehr zur QUNIS Implementierung

 

Plusnet: Innovative Analytics mit Microsoft Fabric

Erstellt am: Donnerstag, 30. Januar 2025 von Anja Gorbach

Das Telekommunikationsunternehmen Plusnet gehört zu den ersten Anwendern der Analyseplattform Microsoft Fabric. Das Fazit nach der Implementierung ist positiv. Die Plattform hilft Plusnet bei der Etablierung einer stringenten Datenkultur und ermöglicht es den Fachbereichen, geschäftlichen Mehrwert aus ihren selbst verwalteten Datenprodukten zu generieren.

QUNIS hat das Analytics-Modell ganzheitlich auf unser Business hin zugeschnitten.

Britta Mörike,
Team-Leiterin Business Intelligence, Plusnet

Datengetriebener Lakehouse-Aufbau mit Microsoft Fabric

Plusnet liefert TK-Produkte und -Lösungen für mehr als 40.000 Geschäftskunden in Deutschland. Die Tochtergesellschaft der EnBW hat im Oktober 2022 ein neu zusammengestellten Business-Intelligence-Team aufgebaut. Damit einhergehend wurde eine neue Daten-Architektur gesucht.

Aufgrund vielfältiger Anforderungen im Bereich Reporting und Analyse stand schnell fest, dass ein zentraler Datenpool als Single Point of Truth (SPOT) benötigt wurde. Das zuständige Projektteam entschied sich, die Implementierung zusammen mit QUNIS anzugehen, weil die ganzheitliche Herangehensweise der Data & Analytics-Spezialisten überzeugte.

Mit QUNIS konnte das Team alle Themen von der Strategie und Methodik über Datenstrukturen, Data Governance, IT-Architektur bis zur Auswahl der richtigen Technologien bearbeiten. Die Konzeption orientierte sich dabei sehr individuell an der Geschäftstätigkeit und Zielsetzung von Plusnet, das Analytics-Modell wurde von QUNIS ganzheitlich auf das Business hin zugeschnitten.

Mit QUNIS den Schritt ins Neuland gewagt

Als passende Technologie für das Unternehmen wurde die Lake-zentrierte Analyseplattform Microsoft Fabric ermittelt, die alle Funktionen von der Datenintegration über Data Engineering, Reporting und Advanced Analytics bis zu Data Science in einer einheitlichen, kosteneffizienten Umgebung abdeckt.

Fabric kombiniert bewährte Azure-Datendienste inklusive Power BI in einer vorkonfigurierten Plattform und unterstützt einen hohen Grad an Self-Service bei der Entwicklung von Datenprodukten und analytischen Applikationen. Plusnet sah hier die Möglichkeit, den Fachbereichen viel Freiheit bei der Entwicklung ihrer Anwendungen auf zentraler Datenbasis einzuräumen und so eine optimale Wertschöpfung aus den Unternehmensdaten zu realisieren.

Zum Zeitpunkt der Entscheidung im Jahr 2023 war Fabric ein brandneues Produkt am Markt. Mit QUNIS als erfahrener Partner an der Seite wagte Plusnet den Schritt ins Neuland.

Metadatengetriebener Entwicklungsansatz

Mit Fabric kann Plusnet sein agiles Entwicklungskonzept umsetzen. Gestartet mit einem Grundgerüst an Strukturen und Daten wird die Analytics-Plattform durch die Realisierung der einzelnen Use Cases sukzessive ausgebaut.

  • Neu ist dabei vor allem der konsequente Aufbau des Lakehouse über die Metadaten, die unter der Verantwortung der jeweiligen fachlichen Data Owner stehen.
  • Die Fachbereiche verwalten ihre eigenen Datenprodukte und sind in enger Abstimmung mit dem Business-Intelligence Team, das die Metadaten im Data Dictionary in Excel einpflegt.
  • Das Data Dictionary wird in Fabric eingespielt und darüber werden die verschiedenen Schichten des Lakehouse automatisch aufgebaut.

Die verteilte Pflege des Data Dictionary erfordert laut Britta Mörike Disziplin, hat dafür aber auch erhebliche Vorteile:

Durch den metadatengetriebenen Ansatz werden ausschließlich Daten ins Lakehouse übernommen, die auch wirklich im Business gebraucht werden.

Transparente Datenprozesse

Im Rahmen der Governance werden Ownerschaften festgelegt. Durch die klaren Regeln und Verantwortlichkeiten entstehen im Lakehouse sauber geführte Datenwelten, in denen auch die Datenherkunft gut nachvollziehbar ist.

So lässt sich beispielsweise leicht klären, woher ein bestimmter Datensatz kommt oder was bei redundanten Informationen das führende System ist. Für das TÜV-zertifizierte Unternehmen Plusnet ist die transparente Datenverwaltung u.a. auch im Rahmen von Audits eine große Hilfe.

Für die Integration der Bewegungsdaten hat QUNIS diverse Vorsysteme an das Lakehouse angebunden. Ein CRM-System auf Oracle-Basis liefert Kunden- und Vertragsdaten. Finanz- und Vertriebsdaten stammen aus SAP, Salesforce, einem Billing-System und Sharepoint. Als nachgelagertes System wird eine Planungslösung aus dem Lakehouse beliefert.

Bei der Implementierung kamen Best-Practices-Ansätze aus der QUNIS Data Toolbox zum Einsatz, die individuell auf den Bedarf von Plusnet zugeschnitten wurden. Mit automatisierten Routinen sorgen sie für eine schnelle Umsetzung und einen dauerhaft effizienten Systembetrieb.

Schneller Launch neuer Use Cases

Die Analyseplattform ging mit Vertragsauswertungen zur Entwicklung der Bestandskunden als ersten Use Case an den Start. Der zweite Use Case war ein Performance Dashboard mit Umsatz- und Vertriebsanalysen auf Basis von Salesforce, darauf folgte die Finanzsicht mit der P&L-Darstellung von SAP-Daten.

Statt mit einzelnen Reports aus verschiedenen Quellsystemen zu arbeiten kann Plusnet in der durchgängigen Analyseumgebung nun beispielsweise Umsätze, Preise, Produkte und Verträge kombiniert auswerten und damit eine 360-Grad-Kundensicht herstellen, um auf dieser Basis den kompletten Vertriebsprozess zu begleiten und das Produktportfolio zu optimieren. Britta Mörike hebt außerdem die hohe Effizienzsteigerung durch die Automatisierung hervor:

Wir haben in vielfältigen Prozessen manuelle Aufwände um 80 Prozent reduziert. Manche Aufgaben dauern nur noch eine Stunde statt einem Tag.

Fabric eröffnet Fachanwendern neue Möglichkeiten, ihre datenorientierten Geschäftsprozesse zu gestalten. Plusnet nutzt diese Potenziale und schafft auch organisatorisch die entsprechenden Rahmenbedingungen für die „data-driven company“. Derzeit wird eine unternehmensweite Data Governance aufgebaut und implementiert.

So werden in wöchentlichen Meetings regelmäßig Fragen rund um die Datenorganisation besprochen, Data Ownerships festgelegt, fließende Übergänge hinsichtlich der Prozessverantwortung für Datenuploads, Datenmodelle oder das Anforderungsmanagement geklärt und das Know-how im Team stetig weiter ausgebaut.

Die Erfahrungen mit den ersten Use Cases zeigen, dass das innovative Entwicklungskonzept Früchte trägt: Aus den datengetriebenen Strukturen baut sich schrittweise ein nachhaltiges Datenmodell im Lakehouse auf.

Neue Anforderungen lassen sich mit dem standardisierten Vorgehen auf sauberer Datenbasis sehr schnell und sicher umsetzen. So hatten die Stakeholder beispielsweise nach der Präsentation der ersten Use Cases viele neue Ideen, die das Projektteam in kürzester Zeit realisieren konnte. Das Projektteam erlebt in der Praxis, dass auf Basis der konsistenten Datenprodukte vielfältige neue Anforderungen direkt bedienbar sind.

Mehr zu Plusnet: Die Plusnet GmbH, eine Tochtergesellschaft der EnBW, ist ein deutsches Telekommunikationsunternehmen mit Fokus auf Geschäftskunden. Plusnet betreibt eine eigene, bundesweite Netzinfrastruktur und verfügt über jahrzehntelange Erfahrung im Betrieb unterschiedlicher Breitband-Technologien. Auf Basis ihres umfassenden Know-hows stellt die Plusnet Gruppe mehr als 40.000 Geschäftskunden jeder Größenordnung zuverlässige und hochsichere Sprach- und Datendienste zur Verfügung. Seit 2021 treibt das Unternehmen den Umstieg auf die Zukunftstechnologie Glasfaser voran – durch eigenwirtschaftlichen Ausbau sowie bundesweite Netz-Kooperationen. Darüber hinaus agiert Plusnet als Vermittler zukunftssicherer Glasfasernetze: Über die Glasfaser-Plattform Netbridge können Partner eigene Netze besser auslasten oder zusätzliche Reichweite für eigene Services gewinnen. Das Unternehmen mit Sitz in Köln beschäftigt rund 500 Mitarbeiterinnen und Mitarbeiter an insgesamt zehn deutschen Standorten. www.plusnet.de

Mehr zu den Themen Data Governance: State of the Art-Organisationskonzept für zuverlässig konsistente Daten und Data Lakehouse: Modernes Fundament für flexible, skalierbare Data & Analytics-Lösungen.

 

Deutsche Unternehmen müssen bei D&A-Plattformen aufholen

Erstellt am: Mittwoch, 8. Januar 2025 von Anja Gorbach

Laut der neuesten Lünendonk-Studie 2024 zum Markt für Data & Analytics (D&A) Services in Deutschland erkennen Unternehmen zunehmend, dass datengetriebenes Arbeiten der Schlüssel für ihre digitale Transformation und langfristige Wettbewerbsfähigkeit ist.

Beim Aufbau der dafür notwendigen Datenplattform tun sich viele jedoch noch schwer.

Investitionsfokus auf D&A-Projekte

Rund 88 Prozent der befragten Unternehmen möchten sich zu einem datengetriebenen Unternehmen wandeln, um Entscheidungen auf Basis von Daten und Vorhersagemodellen zu treffen und ihre Geschäftsprozesse zu optimieren.

Ein Drittel der Unternehmen hat bereits ein dediziertes Budget für Data & Analytics und KI-Projekte bereitgestellt. Wenn es jedoch um die Implementierung und den Ausbau von D&A-Plattformen geht haben viele Unternehmen noch hohen Nachholbedarf. Insbesondere der Bereich der unternehmensweiten Datenplattformen steht für viele noch am Anfang.

Denn obwohl 95 Prozent der Befragten den Aufbau einer funktionsübergreifenden Datenplattform als Voraussetzung für eine datengetriebene Organisation sehen, haben erst 29 Prozent eine konsistente, unternehmensweite Plattform implementiert.

Der Rest, ganze 71 Prozent, kämpft nach wie vor damit, Datensilos aufzulösen und Daten aus unterschiedlichen Quellen zusammenzuführen, um beispielsweise die gewünschte 360-Grad Kundensicht herzustellen. Eine zentrale Datenbasis und moderne Lösungen für das Datenmanagement stehen daher im Fokus der Investitionen.

Ansätze wie Data Visualization und Self-Service-BI gewinnen zudem immer mehr an Bedeutung, da sie auch Nutzer ohne Spezialwissen dabei unterstützen, ihre benötigten Daten selbst auszuwerten und datengetriebene Entscheidungen zu treffen.

Organisation im Umbruch

Unternehmen stellen sich nicht nur technologisch, sondern zunehmend auch organisatorisch hinsichtlich einer neuen Datenkultur in der Organisation auf. Ein wesentliches Ziel der Anpassungen ist die Steigerung der Datenqualität.

Nur 9 Prozent der befragten Unternehmen beurteilen ihre Daten als aktuell, vollständig und konsistent. Data Governance und standardisierte Prozesse für Datenpflege und Qualitätsprüfungen sollen hier Abhilfe schaffen.

66 Prozent der Unternehmen haben bereits funktionsübergreifende Teams für Datenprojekte etabliert, in vielen Organisationen arbeiten Fachabteilungen und IT jedoch noch separat am Thema Daten.

Kompetente D&A-Dienstleister gefragt

Es gibt viel zu tun und das Thema D&A ist komplex. Zugleich bekommen die Unternehmen den Mangel an IT-Fachkräften zu spüren. Die Nachfrage nach D&A-Dienstleistern ist daher hoch. Die Unternehmen suchen sich leistungsfähige strategische Beratungs- und Implementierungspartner.

Bevorzugt werden Dienstleister mit Full-Service-Angebot, die die gesamte Wertschöpfungskette von Data Strategy über Data Engineering bis hin zu Data Operations abdecken. Als Pluspunkt zählen Technologiepartnerschaften mit den etablierten Softwareherstellern. 89 Prozent der Kunden sehen den Full-Service als wesentliches Auswahlkriterium. 

QUNIS wird von Lünendonk als Herausforderer und ausgewiesener Experte gelistet und positioniert sich als führender D&A-Spezialist und End-to-End-Dienstleister in Übereinstimmung mit den Marktentwicklungen. Basierend auf langjähriger Projekterfahrung setzen wir die Data & Analytics-Projekte unserer Kunden ganzheitlich um und begleiten sie von der Strategie über die Identifikation der Handlungsfelder bis zur Implementierung und effektiven Verankerung in ihrer Organisation.

Der Aufbau von Open Lakehouse-Architekturen ist dabei zentral. Damit ermöglichen wir es Unternehmen, ihre Daten in einer flexiblen, skalierbaren und offenen Umgebung zu speichern und zu verarbeiten. Sie profitieren von der Effizienz eines Data Lakes und der Struktur eines Data Warehouse – eine ideale Grundlage für die Nutzung von Echtzeitdaten und den Aufbau einer datengestützten Entscheidungsfindung.

Der Weg zur datengetriebenen Zukunft

Die Lünendonk-Studie 2024 zeigt deutlich: Der Markt für Data & Analytics ist ein wachsender, aber auch herausfordernder Bereich. Unternehmen müssen sich jetzt mit der richtigen Datenstrategie und einer durchdachten Plattformlösung aufstellen, um die Potenziale datengetriebenen Arbeitens auszuschöpfen. QUNIS ist bestens positioniert, um Unternehmen als kompetenter Partner bei diesem Transformationsprozess zu unterstützen – von der Strategie bis zur operativen Umsetzung.

Die vollständige Studie ist auf der Website von Lünendonk verfügbar.

Mein Tipp: Sie wollen mehr zum Thema Data Lakehouse erfahren? Holen Sie sich direkt unseren kostenfreien Quick Guide inklusive Selbstcheck  

Schreiner Group: Implementierung eines Data Warehouse in der Cloud

Erstellt am: Dienstag, 12. Dezember 2023 von Anja Gorbach

Die Schreiner Group ist ein international tätiges Familienunternehmen, das innovative Hightech-Labels und Funktionsteile vor allem für die Pharma- und Automobilindustrie entwickelt und produziert. Mit zukunftsweisenden Produkten wie smarten RFID-Lösungen, Druckausgleichselementen für Elektronik-Gehäuse oder Schutzfolien erzielt die Schreiner Group einen Jahresumsatz von über 200 Millionen Euro. Die Controlling-Abteilung hat zusammen mit QUNIS ein Cloud-basiertes Data Warehouse implementiert. Die BI-Lösung bildet den Kern einer zentralen Datenplattform, die schrittweise im gesamten Unternehmen ausgerollt wird.

Unser Data Warehouse ist hoch professionell, standardisiert, nachvollziehbar und skalierbar. Die moderne Data & Analytics-Architektur erschließt SAP-Daten für unsere Fachbereiche.


Matthias Lindemann,

BI Solution Architect, Schreiner Group GmbH

Data & Analytics-Implementierung parallel zur SAP-Einführung

Im ersten Schritt sollte ein modernes Data Warehouse (DWH) implementiert werden, das eine einheitliche Datenbasis für Reporting und Analyse schafft. Die Systemarchitektur sollte dabei als ausbaufähige Datenplattform angelegt werden, die in späteren Projektphasen beispielsweise durch einen Data Lake ergänzt werden kann.

Der projektverantwortliche BI Solution Architect Matthias Lindemann hebt die hochprofessionelle und fokussierte Beratung durch QUNIS hervor: „Die Strategie-Workshops waren sehr effektiv. QUNIS hat uns gezielt zur passenden Data & Analytics-Lösung geführt.“

Nach der erfolgreichen Zusammenarbeit bei der Strategieentwicklung hat sich die Schreiner Group bei der Realisierung des Data Warehouse ebenfalls für QUNIS als Implementierungspartner entschieden. Das DHW-Projekt fand dabei unter besonderen Rahmenbedingungen statt: Die Schreiner Group löst ihr bestehendes ERP-System auf Basis einer AS/400-Datenbank schrittweise durch SAP ab. Dadurch ergibt sich derzeit ein Parallelbetrieb zweier ERP-Systeme mit ganz unterschiedlichen Datenstrukturen.

Ein wesentliches Ziel des neuen Data Warehouse ist, den Controllern und Fachanwendern einen einfachen Zugriff auf konsolidierte Daten aus beiden ERP-Systemen zu ermöglichen. Gerade im SAP-Umfeld werden sämtliche Ladestrecken neu konzipiert und schrittweise realisiert.

Pilotprojekt in der Cloud

Die Einführung von Azure war für die Schreiner Group aufgrund der speziellen Herausforderungen einer Cloud-Umgebung Neuland und erwies sich als aufwändiger als zunächst angenommen. QUNIS und die auf Cloud-Projekte spezialisierte Schwesterfirma TEQWERK, die zeitweise ebenfalls involviert war, waren hier insbesondere hinsichtlich der internen Positionierung des Projekts sehr hilfreich.

Matthias Lindemann erklärt, dass die professionelle Implementierung und Moderation u. a. die interne IT überzeugt, Vertrauen geschaffen und damit die Umsetzung der vom BI Board favorisierten Cloud-Lösung ermöglicht haben. Die Azure-Umgebung wird derzeit von der IT-Abteilung der Schreiner Group betreut. Eine Auslagerung an TEQWERK steht als mögliche Alternative im Raum.

Flexible Auswertung von SAP-Daten

Zum Aufbau des Data Warehouse kam das QUNIS Data Warehouse Framework (QDF) zum Einsatz. Das Vorgehensmodell mit Best Practices, Templates und vordefinierten Prozessen sorgt für eine schnelle und sichere Implementierung und Bewirtschaftung des Data Warehouse.

  • Der Schwerpunkt im Projekt lag auf der Erschließung der SAP-Daten für den Fachbereich. Auf Empfehlung von QUNIS wurden die SAP-internen Business Logiken nicht übernommen, sondern eigene Ladestrecken mit Direktzugriff auf die einzelnen SAP-Tabellen definiert. Damit erhält der Fachbereich höchste Flexibilität beim Aufbau und der Auswertung seiner Datenmodelle.
  • Bei der Integration der ersten Use Cases arbeitete das interdisziplinäre Projektteam bereits mit den neu geschaffenen Rollen aus Fachbereichen, Prozessexperten, IT und Führungskräften eng zusammen. Inzwischen sind die Power User aus den Fachbereichen mit den SAP-Strukturen so vertraut, dass sie eigenständig die benötigten SAP-Tabellen ermitteln und hinsichtlich ihrer Reporting- und Analyse-Relevanz beurteilen.
  • Die effiziente Zusammenarbeit zwischen Power Usern und den Data Managern aus der IT wird zudem durch das Data Dictionary unterstützt, das QUNIS in seinem QDF-Modell als Template bereitstellt. Die Power User nutzen das Tool als Drehbuch für die IT, um ihre Anforderungen professionell zu spezifizieren.

Auftragseingang als erster Use Case

Als erster Use Case wurde das Auftragseingangsreporting im Data Warehouse abgebildet. Im Prototyping-Verfahren wurden die ETL-Strecken und Datenmodelle definiert, der Auftragseingangsreport in Power BI abgebildet und die Lösung schrittweise weiter ausgefeilt.

Die Beteiligten der Schreiner Group haben sich im Projekt das entsprechende Know-how angeeignet und können nun das Umsatzreporting als zweiten Use Case komplett selbstständig aufsetzen. Matthias Lindemann benennt den Coaching-Ansatz von QUNIS als wesentlichen Vorteil: „Die Fachabteilung hat das Datenmodell verstanden und kann alle benötigten Auswertungen selbst zusammenstellen.“

Das neue Umsatz- und Auftragseingangsreporting vereint Informationen aus beiden ERP-Welten und wird das bestehende Sales Reporting aus dem bisherigen Reportingtool und Excel ablösen. Bisher arbeiten lediglich ausgewählte Power User und Controller mit Power BI. Ein Rollout von Power BI auf die End User und weitere Power User ist schrittweise je nach Umsetzung der nächsten Use Cases geplant.

Interne Weiterentwicklung

Mit dem Data Warehouse hat das Controlling schon während der SAP-Implementierung eine integrierte Berichtsplattform bereitgestellt. Ein wesentlicher Gewinn ist die im Lauf der Implementierung etablierte effektive Zusammenarbeit der Power User mit den Data Managern aus der IT auf Basis professioneller Requirements.

Die Power User haben die Datenbewirtschaftung und -bereitstellung heute selbst in der Hand und können die SAP-Daten flexibel auswerten. Auch die IT-Abteilung lobt das hoch automatisierte Data Warehouse, das einen sicheren Betrieb mit einfacher Wartung, strukturierter Weiterentwicklung und gleichbleibend hoher Performance gewährleistet: „Das Data Warehouse ist hoch professionell, standardisiert, nachvollziehbar und skalierbar.“ 

Die Data & Analytics-Plattform wird zunehmend verschiedene BI-Produkte und Insellösungen der Fachbereiche ersetzen, was die IT-Administration vereinfacht und Kosten für Software-Updates und diverse Lizenzen spart.

Organisatorisch hat das neu geschaffene BI Competence Team (BICT) unter der Leitung des Controllings hierfür bereits alle BI- und Analytics-Initiativen der Schreiner Group zusammengefasst. Darüber hinaus gestaltet das BICT die Weiterentwicklung der unternehmensweiten Data Governance und ist in Architekturfragen hinsichtlich der Analytics und des Reportings wichtiger Ansprechpartner.

Das Controlling treibt derzeit die Umsetzung und den Rollout von Reporting und Analyse in Power BI weiter voran. QUNIS wird für diese Ausbaustufen lediglich punktuell benötigt und steht für Fragen bereit. Desweiteren stehen die Themen Aufbau und Integration einer neuen Planungslösung, Big Data, Integration von KI-Anwendungen und die damit verbundene Weiterentwicklung der Azure-Architektur auf der Roadmap.

Mehr zur Schreiner Group: Die Schreiner Group GmbH & Co. KG ist ein international tätiges deutsches Familienunternehmen und gilt als bevorzugter Partner in den Märkten Healthcare und Mobility. Der „Hidden Champion“ aus Oberschleißheim im Landkreis München hat weltweit vier Standorte (u.a. in Shanghai und New York) und liefert in rund 60 Länder. Das Kerngeschäft sind Funktionslabels in Top-Qualität, die um ergänzende Systemlösungen und Dienstleistungen angereichert werden. Die innovativen Hightech-Labels und Funktionsteile der Schreiner Group erschließen smarte Lösungsdimensionen und helfen, das Leben ein Stück gesünder, mobiler und sicherer zu machen.  www.schreiner-group.com

Mehr zu QUNIS ImplementierungQUNIS Implementierung

Die neueste SAP-Evolution im Bereich Data & Analytics: SAP Datasphere

Erstellt am: Donnerstag, 13. April 2023 von Anja Gorbach

Aus SAP Data Warehouse Cloud wird SAP Datasphere! Was steckt hinter dem neuen Release? Bloß ein neuer Name – also anders ausgedrückt reines Marketing – oder verbirgt sich mehr hinter der neuesten Evolution aus dem Hause SAP?

Am 8. März 2023 launchte SAP Datasphere im Rahmen von SAP Data Unleashed, einem virtuellen Event rund um Neuerungen im Kontext Data & Analytics. Auch auf den diesjährigen DSAG-Technologietagen am 22. und 23. März in Mannheim war Datasphere eines der Hot Topics. Und so viel vorneweg: Die Neuausrichtung seitens SAP verspricht einiges und Datasphere bietet bereits einige spannende neue Features.

Werfen wir aber zunächst nochmal einen Blick zurück. Die Entwicklung der Data Warehouse Cloud (DWC) in den letzten anderthalb Jahren war wirklich rasant. Mit jedem neuen Release spürte und spürt man die Intensität und Manpower, mit denen hinter den Kulissen an neuen Features und der Verbesserung bestehender Funktionalitäten gearbeitet wird.

Auf einige der aktuellsten Neuerungen im Rahmen der Umbenennung zu Datasphere werde ich später noch genauer eingehen. Einen detaillierten Blick auf die neue strategische Data Warehousing Lösung von SAP hatte ich bereits in einem früheren Whitepaper gegeben.

In der Praxis zeigte sich in den letzten Monaten, dass die DWC insbesondere beim Thema Datendemokratisierung ein sehr interessanter und relevanter Baustein für Unternehmen werden kann. Durch die zentralen Elemente der Spaces, Sharing-Optionen zwischen den unterschiedlichen virtuellen Bereichen sowie Data Access Controls als wichtige Governance-Elemente auf der einen Seite und der Möglichkeit, Modelle auf Basis eines grafischen Editors zu erstellen. Auf der anderen Seite, ergeben sich mitunter komplett neue Möglichkeiten in der Zusammenarbeit zwischen IT und Business.

Ein Tool alleine ermöglicht natürlich keine Datendemokratisierung im Unternehmen – die technischen Möglichkeiten erfordern immer auch das Vorhandensein von Datenkompetenz innerhalb der involvierten Bereiche (Data Literacy) sowie klar definierte Data & Analytics-Rollen.

Die Agilität sowie die leichte und intuitive Bedienbarkeit bei der Erstellung neuer analytischer Modelle beziehungsweise semantischer Sichten auf vorhandene Datensets sind in der agilen und schnelllebigen Business-Welt ein absoluter Unterscheidungsfaktor im Analytics-Umfeld. Auf der anderen Seite wurden auch die Möglichkeiten aus Entwicklersicht stark erweitert. Ein Beispiel ist hier das Command Line Interface (CLI).

Seit einiger Zeit ist es über das DWC-CLI möglich, gewisse manuelle und vor allem wiederkehrende Tätigkeiten beim Administrieren des Tenants, der Userverwaltung oder dem Erstellen von Tabellen und Views mithilfe der Kommandozeile programmatisch zu lösen – oder besser gesagt zu automatisieren. Das DWC-CLI ist technisch gesehen ein eingeständiges Node.js-Modul. Voraussetzung ist die Installation der letzten node.js-Version auf dem Client. Mithilfe des CLI lassen sich lästige und wiederkehrende Mehrfacharbeiten in der UI reduzieren und wie bereits erwähnt automatisieren – und letztendlich auf diese Weise auch standardisieren.

Seit der Einführung der DWC wurden neue Innovationen im Bereich Data & Analytics nach und nach nur noch im neuen Cloud-Service integriert; ein Beispiel ist hier der Data Marketplace, der mittlerweile etliche Datenmodelle von Drittanbietern bereitstellt.

Ebenso hat man als Unternehmen die Möglichkeit, eigene Datenprodukte nach draußen zu verteilen. Hier denke man zum Beispiel an Lieferanten oder enge Partner, mit denen auf diese Weise noch enger kooperiert werden kann. Sogar innerhalb eines Unternehmens lässt sich der Marketplace nun einsetzen, um beispielsweise Datenprodukte an die eigenen Fachbereiche auszuliefern.

SAP Datasphere – auf dem Weg zur „Business Data Fabric“

Werfen wir nun einen genaueren Blick auf die neueste Evolutionsstufe im Data & Analytics-Portfolio von SAP. Was verbirgt sich hinter dem Begriff Datasphere? Zunächst einmal ändert sich für DWC-Kunden nicht sonderlich viel: Das Look&Feel des Tools ist gleich geblieben, lediglich der Name wurde ausgetauscht und bereits einige neue technische Features hinzugefügt.

Mit Datasphere möchte SAP den Data Fabric Ansatz stärker verfolgen und spricht in dem Zusammenhang nun von einer „Business Data Fabric“. Aber was versteht SAP eigentlich unter diesem Begriff?

SAPs Definition der Business Data Fabric ist im Kern eine Datenmanagementarchitektur für einen virtuellen oder persistierten semantischen Daten-Layer über der darunterliegenden Datenlandschaft (Beispiele: zentrales DWH, Lakehouse, MES- beziehungsweise Produktionsdaten, IoT-Daten etc.) eines Unternehmens. Die Basis für dieses Vorhaben soll mit SAP Datasphere und einem offenen Daten-Ökosystem, das im Zuge einiger strategischen Partnerschaften mit unter anderem Databricks, Collibra, Confluent und DataRobot angekündigt wurde, geschaffen werden. Das grundlegende Ziel, das SAP hiermit verfolgt, ist, einen skalierbaren und einheitlichen Datenzugriff ohne Datenduplikationen im Unternehmen zu ermöglichen.

Als Grundlage einer Business Data Fabric bringt Datasphere sämtliche Funktionalitäten eines modernen Data Tools mit, angefangen vom Datenzugriff via Self-Service & Data Discovery bis hin zur Datenintegration sowie Governance & Security. Data Warehousing, Virtualisierung, die semantische Modellierung von Businesslogik sowie Orchestrierung und Processing als zentrale Datenmanagementaufgaben gehören ebenso zum Funktionsumfang.

Auf dem Weg zum vollumfänglichen Data Tool 

Wer sich bereits mit der DWC beschäftigt hat, wird merken, dass dies nun erstmal nichts Neues ist, denn auch die DWC verfügte schon über die genannten Funktionalitäten. Rein technisch ist Datasphere daher aktuell vielmehr als das neueste Release der DWC zu interpretieren. Dennoch gibt es einige Neuigkeiten. die den Weg der der SAP Datasphere zum vollumfänglichen Data Tool aufzeigen.  Im Folgenden habe ich einige dieser Neuerungen für Sie aufgelistet:

Neue Datenintegrationsmöglichkeiten mit dem Cloud-basierten Replication Flow
Der Replication Flow ist ein Data Intelligence Feature, das nun in Datasphere integriert wurde. Mit der Komponente kann man eine Cloud-basierte Datenreplikation ohne Transformationslogik durchführen und somit große Datenmengen von A nach B bewegen. Ebenso unterstützt der neue Replication Flow den Change Data Capture (CDC). Stand heute ist der Funktionsumfang noch stark eingeschränkt. So stehen derzeit als Ziel beispielsweise lediglich SAP Datasphere, HANA Cloud und HANA Data Lake zur Auswahl. Es wurde jedoch angekündigt, dass zukünftig für den Replication Flow auch Third-Party-Applikationen als mögliches Ziel angeboten werden.

Neues analytisches Modell
Mit dem neuen Artefakt für die semantische Datenmodellierung hat SAP deutlich mehr Modellierungsmöglichkeiten geschaffen. Es ist nun in Datasphere möglich, ein auf die Anforderungen des Business abgestimmtes und optimiertes semantisches Datenmodell mit Variablen, eingeschränkten Kennzahlen und Filtern für die SAC bereitzustellen. Darüber hinaus bietet das neue analytische Modell eine wirklich sehr hilfreiche Datenvorschau bei der Modellierung und eine verbesserte Integration mit der SAC bei der späteren Nutzung.

Nächster Schritt Richtung Datendemokratisierung und Governance mit dem neuen Catalog
Mit Datasphere hat SAP nun auch einen Data Catalog gelauncht. Über den Catalog Crawler werden die Metadaten aus Datasphere automatisch in den Catalog geladen, ebenso lassen sich zusätzlich SAC-Instanzen mit wenigen Klicks integrieren.

Über den Catalog und dessen Suchfunktion kann man seinen Business Usern jetzt einen sehr guten Überblick über die verfügbaren Datenprodukte geben, KPIs definieren, kategorisieren und in den Assets pflegen sowie Business Terms in Form eines Glossars definieren. Über die Lineage lassen sich so schnell und einfach die Views und Tabellen in Datasphere ausfindig machen, auf die beispielsweise ein Report in der SAC auf Basis eines analytischen Modells aufsetzt.

Auf dem Data & Analytics Forum im Juni 2022 kündigte SAP das Projekt „SAP Data Suite“ an. Mit Datasphere präsentiert das Unternehmen aus Walldorf nun die ersten Ergebnisse.

Wenn die Entwicklung der neuen Data Suite von SAP mit der gleichen Geschwindigkeit wie in den vergangenen Monaten weitergeht, sind wir sehr optimistisch, dass die aktuell noch bestehenden Funktionslücken Schritt für Schritt geschlossen werden.

Beispielsweise verspricht der Blick auf die Roadmap im Laufe des Jahres eine nahtlose Integration der SAC-Planung mit Datasphere und die Erweiterung des neuen Catalogs hinsichtlich der Anbindung zusätzlicher SAP-Quellen. Ebenso soll es zukünftig möglich sein, User pro Space unterschiedlich zu berechtigen. Auch das analytische Modell wird weiter ausgebaut und um Multi-Fact sowie weitere Modellierungsfunktionen erweitert.

Aber es gibt auch noch genügend Themen, die dringend angegangen werden müssen. Insbesondere beim Thema Life-Cycle Management – Stichwort CI/CD – hat SAP Datasphere aktuell noch keine wirklich zufriedenstellende Antwort zu bieten.

Beurer: Zentrale Datenplattform für wachsende Unternehmensgruppe

Erstellt am: Montag, 23. Januar 2023 von Anja Gorbach

Die 1919 gegründete Beurer GmbH ist heute Marktführer im Segment Gesundheit und Wohlbefinden. Mit der Hilfe von QUNIS hat die erfolgreiche Unternehmensgruppe ein zentrales Data Warehouse aufgebaut und ein zukunftsfähiges Datenmanagement für das unternehmensweite Reporting etabliert.

Wir haben auf die Expertise, die Projekterfahrung und den Marktüberblick von QUNIS vertraut. Damit konnten wir im Data Warehouse-Projekt von Anfang an die richtigen Weichen stellen.


Florian Merk,
Leiter Controlling,
Beurer GmbH

Modernisierung der BI-Landschaft

Das Controlling der Beurer GmbH verfügt über viel BI-Erfahrung. Beurer hat bereits frühzeitig auf BI-Systeme der ersten Produktgeneration gesetzt und seine Berichtslandschaft seitdem kontinuierlich ausgebaut.

Seit einem Systemwechsel im Jahr 2011 ist das erfolgreiche Unternehmen allerdings stark gewachsen. Heute ist Beurer eine international aufgestellte Unternehmensgruppe mit über 30 Gesellschaften. Damit kam die grundlegende BI-Datenarchitektur zunehmend an ihre Grenzen. Die vorhandene einfache Staging Area mit dem ERP-System proAlpha als Vorsystem war nicht mehr ausreichend.

Beurer benötigte stattdessen ein Data Warehouse (DWH), in dem die heterogenen Datenquellen aller Tochtergesellschaften zusammenlaufen. Sowohl die Datenanlieferung an das zentrale Controlling als auch das Berichtswesen in die Unternehmensgruppe sollte auf dieser Grundlage wesentlich erweitert werden.

Data Warehouse mit hohem Automatisierungsgrad

Die Controller hatten klare Vorstellungen: Ziel war ein skalierbares Data Warehouse mit hohem Automatisierungsgrad, das der Fachbereich selbst steuern und weiterentwickeln kann. Die neue BI-Umgebung sollte außerdem die erste Cloud-Applikation bei Beurer werden. Um die nachhaltige Implementierung sicherzustellen und mögliche Umwege im Projekt oder spätere Sackgassen zu vermeiden, setzte das Projektteam auf QUNIS als Beratungs- und Implementierungspartner und vertraute auf die Expertise, die Projekterfahrung und den Marktüberblick.

Nach der Anforderungsanalyse, für die auch Wünsche der Berichtsempfänger zusammengetragen wurden, hat QUNIS zusammen mit den BI-Experten von Beurer das Data Warehouse in der Microsoft Azure Cloud implementiert. Viele Strukturen und Geschäftslogiken konnten dabei aus dem bestehenden Sales- und Finanzreporting übernommen werden.

Um eine konsistente, ausbaufähige Datenplattform zu schaffen, wurden im Rahmen der Implementierung auch Stammdaten harmonisiert. Das QUNIS Data Warehouse Framework (QDF) war hilfreich beim Design und der Etablierung von standardisierten Strukturen und Datenmodellen. Auf dieser Basis können beispielsweise zusätzliche Datenquellen angebunden, internationale Gesellschaften integriert und neue fachliche Themen auf einheitlicher Datenbasis abgebildet werden. Der hohe Automatisierungsgrad sorgt zudem für die sichere und einfache Administration im laufenden Betrieb.

Betrieb und Ausbau in der Fachabteilung

Während der Implementierung fand bereits der Know-how-Transfer ins Team von Beurer statt. Den weiteren Ausbau des DWH, die Anbindung der Tochtergesellschaften und die Ausgestaltung der Reports und das Rollout des Berichtswesens hat das Controlling seitdem selbst übernommen. Marc Hofmann, verantwortlich für das BI-Backend, bestätigt:

„QUNIS hat uns im Laufe des Projekts gut in das Data Warehousing eingearbeitet. Die Weiterentwicklung und das Rollout führen wir eigenständig durch.“

Bei der Auswahl des neuen Frontends Microsoft Power BI hat QUNIS ebenfalls unterstützt. Beurer wird sein neues Berichtswesen über Power BI schrittweise im gesamten Unternehmen ausrollen. Derzeit läuft das neue System parallel mit der vorigen Lösung, mit Absprungmöglichkeiten aus dem Altsystem. In einer zeitlich ausgedehnten Übergangsphase mit internem Schulungskonzept können sich die Nutzer allmählich mit der neuen Lösung vertraut machen.

Hohe Akzeptanz bei den Nutzern

Die Nutzungszahlen nach dem Rollout in Deutschland und in der Schweiz als erster Tochtergesellschaft sprechen schon jetzt für eine hohe Akzeptanz im Unternehmen. Im ersten Schritt wurden bereits 22 Reporting-Mappen aufgebaut. Schon vor Anbindung der internationalen Tochtergesellschaften greifen 120 User regelmäßig auf die neue Berichtsumgebung zu, mit stark steigender Tendenz. Die wichtigsten Reports werden derzeit 1.200 mal pro Monat geöffnet. Andreas Traut, zuständig für das BI-Frontend, stellt fest:

„Die Modernisierung kam zur richtigen Zeit. In den heutigen diffusen Märkten brauchen unsere Fachbereiche und Gesellschaften verlässlichen Kennzahlen; das Interesse am Reporting ist entsprechend stark gestiegen.“

Self-Service-BI mit klarer Datenhoheit

Fachlich liegt der Fokus derzeit auf dem Umsatzreporting mit klassischen vertrieblichen Steuerungsgrößen wie Deckungsbeiträgen und Margen. Neben differenzierten Informationen zu den Außenumsätzen der Tochtergesellschaften liegt der Fokus zukünftig vor allem auf Auswertungsmöglichkeiten konsolidierter Kennzahlen auf Konzernebene. Auf dieser Basis kann das Controlling der Unternehmensgruppe ein detailliertes Reporting zur Verfügung stellen.

Hinsichtlich der Informationsversorgung setzt Beurer schon seit Jahren auf Self-Service BI. Die Fachbereiche nutzen dabei auch unterschiedliche Ausgabeformate, z. B. Powerpoint-Folien mit Produktfotos im Produktmanagement. Dabei werden Power BI Berichtsseiten mit Live-Daten in Powerpoint eingebunden. Somit lassen sich schnell professionell aufbereitete Powerpoint-Präsentationen erstellen und monatlich auf den aktuellen Stand bringen.

Die Controller arbeiten natürlich nach wie vor gerne in Excel, das ebenfalls mit Live-Daten aus dem Data Warehouse gefüllt wird. Damit sind sehr flexible und individuelle Auswertungen für die Nutzer möglich.

Wichtig ist den projektverantwortlichen Controllern, dass sie mit dem Data Warehouse den Single Point of Truth (SPOT) und damit die Datenhoheit in der Hand haben – die wesentliche Voraussetzung für vertrauenswürdige Informationen und einheitliche Kennzahlendefinitionen.

Skalierbare Datenarchitektur

Mit dem zentralen Data Warehouse hat Beurer die Grundlage für seine unternehmensweite Datenplattform geschaffen. Der durchdachte Aufbau und die Vorteile der guten Vorarbeit im Backend wurden in späteren Projektphasen z. B. beim Berichts-Design und beim Rollout offensichtlich. Florian Merk hält fest:

„Bei der Ausgestaltung des Frontend-Bereichs wurde deutlich, dass QUNIS beim Aufbau des Data Warehouse weit vorgedacht hat. Wir können flexibel auf einer sauberen Datenbasis und strukturierten Logiken aufsetzen.“

 Auch die Einführung der einfach skalierbaren Cloud-Technologie war richtungsweisend für die Unternehmensgruppe. Inzwischen wurden bei Beurer weitere Projekte in der Azure-Cloud umgesetzt, die vom DWH-Projekt als Pilotanwendung profitieren konnten.Das Controlling-Team wird im nächsten Schritt alle Tochtergesellschaften an die Plattform anbinden.

Auch die fachliche Erweiterung ist bereits geplant. Zunächst soll das Reporting für die Bereiche Marketing und E-Commerce dazukommen, um danach schrittweise weitere Fachbereiche einzubinden.

Mehr zur Beurer GmbH: Die Beurer GmbH ist seit 1919 Marktführer im Segment Gesundheit und Wohlbefinden. Mit dem umfangreichen Sortiment in den fünf Produktbereichen wellbeing, medical, beauty, active und babycare bietet Beurer professionelle Produkte für die Heimanwendung – von Heizkissen, Personenwaagen, Massagegeräten und einem Produktsortiment zum Erhalt eines optimalen Raumklimas über spezielle Medizinprodukte wie Blutdruckmessgeräte und Blutzuckermessgeräte sowie Inhalatoren und Fieberthermometer bis hin zu Beautygeräten und Lifestyleprodukten.

Mehr zu QUNIS StrategieberatungQUNIS Strategie

Die Data & Analytics Zukunft mit SAP liegt in der Cloud

Erstellt am: Freitag, 20. Januar 2023 von Monika Düsterhöft

In der SAP-Strategie ist seit einiger Zeit ein klarer Trend zu Cloud-only festzustellen. SAP Datasphere kommt dabei eine zentrale Rolle zu.

Zusammen mit der SAP HANA Cloud, der SAP Analytics Cloud (SAC) und der SAP Data Intelligence Cloud bildet SAP Datasphere das Data-to-Value-Portfolio von SAP. Die SaaS-Applikation Datasphere ermöglicht es Unternehmen, sich dabei ganz auf ihre Analytics-Aktivitäten zu konzentrieren.

Mit SAP Datasphere können sowohl Cloud- als auch On-Premise-Datenquellen integriert werden. Die Komponente Data Flow bietet zudem ETL-Funktionalitäten, um Daten aus unterschiedlichsten Quellen zu extrahieren, zu transformieren und schließlich in lokalen Tabellen Datasphere zu speichern. Darüber hinaus gibt es mit dem Data Builder und dem Business Builder zwei separate Bereiche zur Datenmodellierung in Datasphere, und sie stellt einige Business-Content-Datenmodelle bereit, die mit wenigen Klicks für Standardanwendungsfälle verfügbar gemacht werden können.

Komfortabel zum „Data-Shopping“

Mit Dataspehre versucht SAP zudem, einen entscheidenden Schritt in Richtung Self-Service Data Warehousing zu gehen. Hierbei hat die IT weiterhin die Hoheit und Verantwortung für einheitliche, standardisierte Datenmodelle. Zugleich bekommt sie aber Unterstützung im Datenmanagement, denn der Fachbereich kann den letzten Schritt in Richtung Reporting allein und selbstständig machen.

Richtig umgesetzt erhöht dies die Agilität und beschleunigt die Analytics-Entwicklungen in den Unternehmen. Im Sinne eines „Data-Shopping“-Erlebnisses stehen den Endanwendern die Daten in einer einfachen, geführten Form zur Verfügung: Wiederverwendbare analytische Datenmodelle können verschiedene Geschäftsfragen beantworten.

Datasphere und SAC in kraftvoller Verbindung

Die Offenheit der Applikation basiert auf der Kombination mit der SAC als sogenanntem First-Class Consuming Citizen. Mit wenigen Klicks ist die Verbindung zwischen Datasphere und der SAC eingerichtet, dadurch lassen sich nachfolgend die Daten der freigeschalteten analytischen Datenmodelle von Datasphere per Live-Verbindung nutzen.

Ebenso können die Anwender aber auch mit Third-Party-Tools wie Tableau oder Microsoft Power BI auf die Daten zugreifen. Nicht zuletzt soll Datasphere künftig als zentrale Datendrehscheibe für Planungsszenarien in Kombination mit der SAC inklusive einer Retraktion von Forecast und Plan-Daten Richtung Dataspehre etabliert werden. Langfristig soll außerdem die Datasphere Verwendung auf allen gängigen Hyperscalern möglich sein.

Perfekte Symbiose

Da SAP den Service Datasphere als SaaS zur Verfügung stellt, müssen sich Kunden nicht mehr selbst um Produkt-Updates und neue Releases kümmern – gleichzeitig gewährleistet das automatische und zentrale Updaten durch SAP eine permanente Verbesserung und Optimierung des Produkts. Das neue Space-as-a-Service-Konstrukt macht zudem isolierte Einheiten oder auch separierte logische Layer in der Datasphere möglich.

Ein weiterer interessanter Aspekt: End-User können mithilfe des Business Builders selbstständig Business Entities für das Reporting erstellen. Über die Verknüpfung mit der SAC schafft die Einheitlichkeit von User Interface und Usability der beiden Applikationen eine perfekte Symbiose. Daher stellt sich die SAC zum Konsumieren von Datasphere-Datenmodellen als Frontend-Tool der Wahl dar.

Mein Tipp: Einen detaillierten Tool-Steckbrief zur SAP Analytics Cloud (SAC) und zu Microsoft Power BI sowie weitere spannende Learnings rund um das Thema Self Service BI und wie Sie damit Agilität im Fachbereich realisieren, finden Sie in der aktuellen Studie von the factlights.  STUDIE KOSTENFREI HOLEN

Murrelektronik: Umstellung der BI-Landschaft auf SAP Datasphere

Erstellt am: Donnerstag, 12. Januar 2023 von Anja Gorbach

Murrelektronik ist ein global tätiger Spezialist für dezentrale Automatisierungstechnik. Das Controlling der Unternehmensgruppe hat in Zusammenarbeit mit QUNIS seine BI-Landschaft auf die SAP-Cloud umgestellt. Ein spannendes Projekt, weil das Tool SAP Datasphere zum Einführungszeitpunkt noch neu auf dem Markt war und selbst bei SAP kaum Praxiserfahrung vorlag.

In der komplett neuen Produktumgebung war ein fester Projektplan kaum einzuhalten. QUNIS hat sehr flexibel und agil mit uns zusammengearbeitet und die Datasphere Implementierung Schritt für Schritt mit uns umgesetzt.


Rafael Theiss,
Business Data Analyst,
Murrelektronik GmbH

SAP Datasphere-Implementierung als Pilotprojekt

Murrelektronik ist mit Niederlassungen, Produktions- und Logistik-Standorten sowie Vertriebspartnern in 50 Ländern weltweit vertreten. Die vorhandene BI-Lösung, die von einem externen Beratungshaus betreut wurde, konnte das Reporting für den agilen Konzern nicht mehr abdecken. Vor allem die fehlende Flexibilität bei nötigen Anpassungen war problematisch; die erforderliche Umsetzungsgeschwindigkeit neuer Anforderungen war in dieser Konstellation nicht mehr zu gewährleisten.

Das zentrale Controlling wollte daher seine BI-Plattform modernisieren und im eigenen Haus ansiedeln, um die Datenmodelle selbst nach Bedarf anpassen zu können. Im Konzern mit starker SAP-Strategie lag der Umstieg auf SAP-Tools für die neue BI-Umgebung nahe.

Besonders das noch relativ neu am Markt eingeführte SAP Datasphere bot für die Controller ein interessantes Konzept: Als Cloud-Technologie ist es kosteneffizient einzuführen und einfach skalierbar. Ein wichtiger Vorteil ist zudem die anwenderorientierte Entwicklung: Mit den sogenannten Spaces stellt SAP Datasphere einen Business Layer für die Datenmodellierung zur Verfügung, über den Fachbereiche ihre eigenen Datensichten erstellen können. Das vereinfacht die Steuerung des DWH im Controlling und schafft die Voraussetzung für Self-Service-Szenarien im gesamten Unternehmen.

Die Entscheidung für SAP Datasphere stand zu Projektbeginn fest. Als mögliche Frontends schauten sich die Controller auch Tools außerhalb der SAP-Welt an. SAP Analytics Cloud (SAC) in Kombination mit Datasphere stellte sich dabei als die beste Lösung für Murrelektronik heraus.

Mit QUNIS gemeinsam DWH-Neuland betreten

Bei der Suche nach einem Realisierungspartner war dem Projektleiter Rafael Theiss klar, dass es so kurz nach Markteinführung von SAP Datasphere keinen Dienstleister mit großer Implementierungserfahrung für dieses Tool geben konnte.

Im Auswahlverfahren überzeugte QUNIS durch seine umfangreiche Erfahrung in den Bereichen Data Warehousing, BI und Analytics mit Cloud- und On-Premise-Technologien, gepaart mit sehr hohem Engagement und Interesse an der Datasphere-Umgebung. Rafael Theiss, Business Data Analyst bei Murrelektronik, sah darin die besten Voraussetzungen für eine erfolgreiches gemeinsames Implementierungsprojekt im DWH-Neuland.

Agile Zusammenarbeit im Team

Nach ersten Vorarbeiten Ende 2020 startete die Implementierung mit Systemzugriff für das Projektteam auf die Datenquellen und das Altsystem im März 2021. Zunächst arbeiteten hauptsächlich Rafael Theiss und die QUNIS-Beraterin an der Umsetzung.

Rafael Theiss hebt besonders den Einsatz der QUNIS-Beraterin hervor, die mit hohem Engagement und lösungsorientiertem Vorgehen wesentlich zum Projekterfolg beitrug. Bei der Schnittstellen-Definition wurde das Kernteam durch die IT-Abteilung unterstützt. Auch die Key User der Anwendung wurden zunehmend einbezogen. Erst in späteren Projektphasen kam dann ein „SAP Development Angel“ dazu, der hilfreiches Produktwissen einbringen konnte.

Wichtig für das Gelingen des Projekts war die flexible Reaktion von QUNIS auf den Projektstatus. Durch vielfältige Herausforderungen im Pilotprojekt verzögerte sich der geplante Rollout-Termin um sechs Monate. QUNIS begleitete das Team von Murrelektronik auch über die ursprüngliche Projektplanung hinaus bis zum erfolgreichen Go live und steht auch weiterhin als Ansprechpartner für die Controller bereit.

Weltweite Datenplattform für über 600 Anwender

Seit Februar 2022 ist die Berichtsplattform weltweit bei Murrelektronik verfügbar. Nach einer kurzen Übergangsphase, in der Neu- und Altsystem parallel liefen, erfolgte der konsequente Umstieg in die SAP Cloud, die seitdem als zentrale Berichtsumgebung mit einheitlicher Datenbasis im Konzern etabliert ist.

Fachlich hat das Projektteam das umfangreiche Reporting aus dem Altsystem übernommen und optimiert. Das neue Data Warehouse ist als ganzheitliche Lösung für derzeit 600 Anwender konzipiert. Kernthemen sind das Finanz- und Vertriebscontrolling, wobei auch vielfältige Analysen im operativen Bereich zur Verfügung stehen. Hauptsächliche Datenquelle für die Auswertungen ist SAP ERP. Um das Analysespektrum zu erweitern, wird derzeit auch Salesforce als Quellsystem integriert.

Ein wesentlicher Anspruch des zentralen Controllings ist dabei die Anwenderfreundlichkeit: Jeder soll das System einfach nutzen und verstehen können. Dazu trägt auch das Frontend SAP Analytics Cloud (SAC) bei, über das die Anwender komfortabel per Web auf ihre Berichte und Analysen zugreifen können.

Neue fachliche Anforderungen schnell umsetzen

Mit dem erfolgreich abgeschlossenen Projekt gehört Murrelektronik zu den Vorreitern beim Einsatz von SAP Datasphere mit SAP SAC. Die Projektziele sind erreicht: der Wechsel der Plattform, die Verlagerung der Systemsteuerung ins eigene Haus und der Aufbau der entsprechenden internen Kompetenzen sind gelungen. Auch der Plan, mit dem anwenderorientierten Datasphere die Taktzahl im Anforderungsmanagement zu erhöhen, ist aufgegangen.

Rafael Theiss bestätigt: Mit SAP Datasphere haben wir die Datenmodelle im Controlling selbst in der Hand und können unser Data Warehouse jederzeit an neue Anforderungen anpassen.“ 

Die Anwender profitieren von übersichtlich visualisierten Daten im modernen Frontend. Anstelle der vorigen Excel-Tabellen stehen nun Berichte mit dynamischen Grafiken bereit. Die Berichtempfänger haben zudem deutlich mehr Auswertungen zur Verfügung und können selbst Analysen fahren.

Das zentrale Controlling verfolgt hier ein Self-Service-BI-Konzept (SSBI), das über die jeweiligen Key User konzernweit etabliert wird. Auch hinsichtlich der SSBI-Strategie hat sich SAC zwischenzeitlich als das passende Frontend für Murrelektronik erwiesen.

Nachdem im Rahmen der Implementierung vielfältige neue Anforderungen umgesetzt wurden, wird die Applikation derzeit mit Blick auf die Anwenderorientierung nachgeschärft. Wichtige Anliegen sind Rafael Theiss auch der Know-how-Aufbau im Umgang mit der Datenplattform in der gesamten Nutzergemeinde und die Sicherung der Datenqualität. Im nächsten Ausbauschritt soll das Data Warehouse dann um ein Planungstool ergänzt werden.

Mehr zur Murrelektronik GmbH: Murrelektronik ist ein führendes Unternehmen in der Entwicklung und Herstellung hochmoderner dezentraler Automatisierungstechnik für Maschinen und Anlagen. Das Unternehmen konzentriert sich dabei auf vier Kernbereiche: Stromversorgung, Schnittstellen, Anschlussleitungen und IO-Systeme. Innovative Produkte in herausragender Qualität, eine ausgeprägte Markt- und Kundenorientierung machen Murrelektronik einzigartig und verbessern die Maschinen und Anlagen der Kunden.

Mehr zu QUNIS StrategieberatungQUNIS Strategie

AT&S: Aufbau einer unternehmensweiten Data & Analytics-Plattform

Erstellt am: Montag, 12. Dezember 2022 von Anja Gorbach

Der weltweit tätige Hersteller von Leiterplatten AT&S baut schrittweise eine unternehmensweite Data & Analytics-Plattform auf. Grundlage ist eine ausgefeilte Datenstrategie, die den nachhaltigen Ausbau und Betrieb des zentralen Datenpools entsprechend den fachlichen
Anforderungen im Konzern sicherstellt.

QUNIS unterstützt uns auf allen Ebenen: Von der strategischen
und technologischen Beratung über die fachliche Konzeption
bis zur Implementierung samt Coaching und Koordination aller Stakeholder.


Ulrike Klein,
Manager Enterprise Data Management IT,
AT&S Austria Technologie & Systemtechnik

Strategische Analyseplattform, die systematisch mit ihren Use Cases mitwächst

Das High-Tech-Unternehmen AT&S will den Wert seiner weltweit anfallenden Daten besser ausschöpfen. Erklärtes Ziel der Unternehmensleitung ist es, dass AT&S sich zum konsequent datengetriebenen Unternehmen entwickelt. Nach einer internen Bestandsaufnahme der bereits vorhandenen BI-Lösungen, Dashboards und Kennzahlen kam man zum Schluss, dass es sich durchweg um Insellösungen und Datensilos mit begrenztem Ausbaupotenzial handelt.

Daher sollte eine von Grund auf neue Data & Analytics-Plattform für alle Standorte und Fachbereiche mit moderner Architektur und unternehmensweiter Organisation aufgesetzt werden. Den Projektverantwortlichen war klar: Der nachhaltige Aufbau und Betrieb in konzernweiten Standards erforderte eine umfassende Data & Analytics-Strategie.

Als Beratungs- und Implementierungspartner wurde QUNIS ausgewählt. Neben der herausragenden Kompetenz und Erfahrung fand die Projektleitung auch die individuelle Ansprache und pragmatische Vorgehensweise von QUNIS wichtig für die erfolgreiche Zusammenarbeit. Im Juni 2020 startete das Projekt mit einem gemeinsamen Analyseworkshop. Sehr konkret wurden hier bereits die wesentlichen Ziele und Anforderungen herausgearbeitet, die das weitere Vorgehen bestimmen:

  • In einer Konzeptphase sollten die Datenarchitektur, Technologien, Data Governance und die entsprechende Organisation mit Rollen und Verantwortlichkeiten in der IT und den Fachbereichen geklärt werden.
  • Ein neues Data Warehouse soll entstehen. Zur Integration von Datenquellen und Aufbau der Kennzahlen wurde eine Use-Case-getriebene Datenstrategie beschlossen; d.h. das strukturierte Datenmodell wächst systematisch mit den jeweiligen Data Marts der schrittweise umgesetzten Anwendungen.
  • Der erste Use Case ist der Bereich Yield im Rahmen des Qualitätsmanagements, der Schlüsselkennzahlen für die Produktionssteuerung liefert. Hierfür ist das neue Data Warehouse in der vorhandenen On-Premises-Umgebung des Microsoft SQL Servers die geeignete Lösung.
  • Das DWH soll später mit Cloud-basierten Technologien zum Data Lake erweitert werden können, um Advanced Analytics und operative Lösungen wie Predictive Maintenance mit Produktions- und Sensordaten umsetzen zu können.
  • Wichtig für die unternehmensweite Initiative ist ein Priorisierungs- und Eskalationskonzept, das die sichere Einordnung von Anforderungen und Kommunikation mit den Fachbereichen gewährleistet.
  • Als Best Practice für das neue DWH dient die QUNIS Automation Engine (QAE), ein toolgestützter Ansatz, der den Aufbau und Betrieb von Data-Warehouse-Lösungen inklusive BI- und Datenmanagement-Prozessen standardisiert und automatisiert.

Den Anfang macht das Qualitätsmanagement

Die Strategie wurde innerhalb von drei Monaten entwickelt und ausformuliert. Auf dieser Grundlage wurde das Fachkonzept der Yield-Kennzahlen samt technischer Anforderungen als erste Anwendung aufgesetzt. Die Yield-Werte, die in der Leiterplattenanfertigung den aus einem Fertigungsnutzen generierten Ertrag (brauchbarer Leiterplatten) angeben, sind für AT&S eine zentrale Performance-Stellschraube. Höhere Yield-Werte bedeuten eine höhere Produktionsausbeute bei geringeren Kosten. Durch ein NCC-Reporting (Non Conformance Costs) wurde zudem die Betrachtung der Kostenseite noch weiter verfeinert.

Die Implementierung nach dem QAE-Ansatz startete im November 2020 als Proof of Concept für das Data Warehouse. Der umfangreiche Yield-Bereich ist inzwischen als Beta-Version auf der Proof-of-Concept-Umgebung verfügbar, während das überschaubarere NCC-Reporting bereits im Live-Betrieb ist.

Als Frontend für das Rollout der Datenplattform ist Microsoft Power BI im Einsatz. QUNIS hatte das Projektteam hier bei der Auswahl einer geeigneten Frontend-Technologie unterstützt. Das Qualitätsmanagementreporting wurde inzwischen um ein Modul für das Supply Chain Management und eine operative BI-Anwendung mit Produktions- und Maschinendaten ergänzt.

Auch alle künftigen Module werden mithilfe eines strukturierten Anforderungsmanagements realisiert. Über ein Ticketing-System in der IT werden dazu Requests nach Aufwand und Nutzen gesichtet und priorisiert.

Agile Entwicklung und Rollout über die BI-Organisation

Die anfangs definierte Organisationsstruktur bewährt sich im Projektmanagement. Federführend ist das in der IT angesiedelte EDM-Team (Enterprise Data Management Team), das im Rahmen der unternehmensweiten Data Governance auch standardisierte Stamm-, Referenz und Metadaten etabliert. Zum EDM-Team gehören u.a. Rollen wie der Data Engineer, Solution Architect und Data Architects. Ansprechpartner in den Fachbereichen sind die Key- und Power User.

Als großer Vorteil erweist sich die agile Vorgehensweise. Im umfassenden Projekt ist die Realisierung in überschaubaren Sprints motivierend für das Team. Außerdem lässt sich die parallele Arbeit an mehreren Teilprojekten gut organisieren. Auch die Zusammenarbeit mit den Fachbereichen verläuft durch sprintweise Entwicklungsfortschritte und die gezielte Aufgabenverteilung an die jeweiligen Key User transparent und sicher.

Das EDM-Team berichtet direkt an die IT-Leitung und kann sich im konzernweiten Projekt auf den Rückhalt des Vorstands verlassen. QUNIS unterstützt von der strategischen und technologischen Beratung über die fachliche Konzeption bis zur Implementierung samt Coaching und Koordination aller Stakeholder.

Self-Service erfordert ein durchdachtes Backend

Mit den ersten Anwendungen werden bereits handfeste Vorteile sichtbar. Das Yield Management schafft Transparenz über Ausschussquoten, granular und konsolidiert über verschiedene Werke. Die NCC-Zahlen sind komplett neue Steuerungsinformationen für die Fachbereiche.

Erstmals ist zudem eine Self-Service-Informationsversorgung möglich, die Unabhängigkeit in die Fachbereiche bringt. Ulrike Klein hat jedoch vor allem das Gesamtbild im Blick. Ihr Team fokussiert sich auf den nachhaltigen Aufbau von Data Marts im Rahmen des unternehmensweiten Datenmanagements:

„Wir wollen gut dokumentierte Daten in Top-Qualität zur Verfügung stellen. Mit Zugriff auf ihre jeweiligen Data Marts und den Data Catalog können die Fachbereiche dann ihre eigenen Applikationen auf standardisierter Datengrundlage selbst aufbauen.“  

Skalierung auf Basis der tragfähigen Strategie

Die Data & Analytics-Plattform von AT&S befindet sich noch in der Anfangsphase. Mit der Umsetzung weiterer Use Cases entsteht Schritt für Schritt eine breite, verlässliche Datenbasis, mit Informationen zu ihrer Herkunft, Bedeutung und dem jeweiligen Data Owner im zentral verfügbaren Data Catalog.

Schon jetzt können auf dieser Basis kleinere Applikationen wie eine Balanced Scorecard sehr schnell nach Nutzerbedarf abgebildet werden. Diese „Quick Wins“ sind aber nicht das Ziel des EDM-Teams, das sich vornehmlich auf den systematischen Ausbau des Datenpools konzentriert. Jeder Use Case erfordert dabei eine sorgfältige Vorbereitung und auch eine kontinuierliche Weiterentwicklung der Datenkompetenz im Team.

Für dieses langfristig angelegte Datenprojekt sieht sich Ulrike Klein durch die umfassende Data & Analytics-Strategie gut gerüstet: „Die definierte Strategie gibt uns den Plan für den weiteren Ausbau vor. Wir müssen nicht jedes Mal neu entscheiden und können Fragen der Fachbereiche jederzeit beantworten.“

Die Architektur, die Infrastruktur, die Entwicklung auf Basis des strukturiertem Anforderungsmanagements und die professionelle Organisation sind gesetzte Grundpfeiler. Einzelne Bausteine wie Anwendungen, die Organisation oder die Governance können in diesem Grundgerüst durch einfache Skalierung wachsen. Auch Details wie beispielsweise das Staffing des EDM-Teams lassen sich auf dieser Grundlage gut planen.

Spätere Ausbaustufen wie der Einbezug neuer Cloud-Technologien sind durch die Strategie ebenfalls abgedeckt. Ulrike Klein sieht diese sichere Planungsgrundlage als zentralen Erfolgsfaktor für die nachhaltige Entwicklung von AT&S hin zum datengetriebenen Unternehmen.

Mehr zur AT & S Austria Technologie & Systemtechnik AG: AT&S ist einer der weltweit führenden Hersteller von hochwertigen Leiterplatten und IC-Substraten. AT&S industrialisiert zukunftsweisende Technologien für seine Kerngeschäfte Mobile Devices, Automotive, Industrial, Medical und Advanced Packaging. Als internationales Wachstumsunternehmen verfügt AT&S über eine globale Präsenz mit Produktionsstandorten in Österreich (Leoben, Fehring) sowie Werken in Indien (Nanjangud), China (Shanghai, Chongqing) und Korea (Ansan nahe Seoul).

Mehr zu QUNIS StrategieberatungQUNIS Strategie

Zusammenspiel von Self Service- und Enterprise BI

Erstellt am: Freitag, 9. September 2022 von Monika Düsterhöft

BI-Werkzeuge punkten mit Benutzerfreundlichkeit im Frontend und Funktionalitäten für das Datenmanagement 

Der Siegeszug der Self Service-BI (SSBI), der in den letzten fünf Jahren verstärkt zu beobachten ist, lässt sich nicht zuletzt mit den in dieser Zeit auf den Markt drängenden neuen benutzerfreundlichen und skalierbaren BI-Werkzeugen in Verbindung bringen.

Diese umfassen in der Regel nicht nur ein schickes Frontend sondern auch Funktionen zur Erledigung einfacher Datenmanagementaufgaben. Sie erlauben es Nutzern selbstständig verschiedene Datenquellen zu verbinden, lokale Daten aus Excel-Dokumenten im Visualisierungstool zu integrieren oder Daten direkt aus dem Internet heraus anzuzapfen und so Unternehmensdaten einfach und schnell sowie weitgehend unabhängig von der IT-Abteilung auszuwerten.

Wenig verwunderlich nennen die Teilnehmer der aktuellen Studie von the factlights als ihre Top-3-Anwendungsfälle von SSBI die schnelle und individuelle Anpassung von Visualisierungen, die Abdeckung von zusätzlichen Informationen aufgrund von Individualbedarfen sowie die Zusammenführung von Daten aus mehreren Quellen.

Dabei wird SSBI von den Befragten nicht als eine ausschließliche Lösung, sondern vielmehr als integraler Bestandteil einer modernen Datenarchitektur verstanden. 9 von 10 der Befragten gaben an, ein Data Warehouse im Einsatz zu haben.

Clevere Kombination aus SSBI und Data Warehouse

Im Hinblick auf den verwendeten Technologie-Stack und das damit realisierte Zusammenspiel von SSBI und einem Data Warehouse lassen sich bei den Befragten vor allem drei verschiedene Architekturen identifizieren:

1. SSBI eigenständig, mit anderem Technologie-Stack als Enterprise BI

SSBI wird als eigenständige Lösung parallel zum Data Warehouse / Lakehouse betrieben. Als Datenbasis dienen vom Fachbereich erstellte und verwaltete Datenbanken. Das BI-Frontend-Tool orientiert sich nicht an den unternehmensweiten Vorgaben. Die SSBI Lösung läuft damit autark vom zentralen und qualitätsgesicherten Data Warehouse / Lakehouse sowie weitestgehend unkoordiniert.

2. SSBI eigenständig, mit gleichem Technologie-Stack wie Enterprise BI

SSBI wird als eigenständige Lösung parallel zum Data Warehouse / Lakehouse betrieben. Als Datenbasis dienen vom Fachbereich erstellte und verwaltete Datenbanken. Als Technologie wird das unternehmensweit verabschiedete BI-Frontend-Tool verwendet. Obwohl die SSBI Lösung nicht auf dem zentralen und qualitätsgesicherten Data Warehouse / Lakehouse aufsetzt, werden möglichst viele Synergien verwendet und SSBI in koordinierter Art und Weise betrieben.

3. SSBI aufbauend auf dem Data Warehouse / Lakehouse

Architektonisch und technologisch ist SSBI vollständig in die Architektur integriert. SSBI baut auf dem vorhandenen Data Warehouse / Lakehouse auf und verwendet dessen qualitätsgesicherte Datenbasis. Zusätzlich besteht die Möglichkeit, externe Daten zu ergänzen und diese zusammen mit den Daten des Data Warehouse / Lakehouse zu verwenden. Als Technologie wird das unternehmensweit verabschiedete BI-Frontend-Tool verwendet.

Nachhaltigen Erfolg bringt SSBI, wenn es nicht als Silo aufgebaut wird 

Die drittgenannte Architektur-Variante versteht die SSBI-Lösung nicht als technologisch eigenständig, sondern setzt diese sozusagen als „Disziplin“ auf ein bestehendes Data Warehouse auf. Sie verwendet Technologien, die sich in die Gesamtarchitektur einfügen. Diese Architektur ist vor allem beim Reifegrad der Frontrunner verbreitet und gilt damit als am erfolgreichsten. Zudem stellt the factlights fest, dass Anwender zufriedener sind, je integrativer SSBI in der Gesamtarchitektur umgesetzt ist.

Als probates Beispiel, wie mit einer SSBI-Lösung gestartet und diese zu einer integrierten Lösung weiterentwickelt werden kann, gilt der QUNIS-Ansatz der Scalable Self-Service BI.

Mein Tipp: Noch mehr Learnings, Extra Notes zu Organisation und Rollen sowie viele spannende Info-Grafiken und Tool-Steckbriefe zu Microsoft Power BI und zur SAP Analytics Cloud (SAC) finden Sie in der the factlights Studie „ Self Service BI – Agilität für den Fachbereich“.  STUDIE KOSTENFREI HOLEN