Archiv für die Kategorie Datenmanagement

Data Mesh als soziotechnischer Ansatz zur Erstellung einer dezentralen Datenarchitektur

Erstellt am: Mittwoch, 20. März 2024 von chaydl

An die Datenauswertung im Unternehmen werden heute immer größere Anforderungen gestellt. Das zentral angesiedelte BI Competence Center, das bislang die Entwicklung und das Datenmanagement rund um ein Data Warehouse erledigt hat, kommt damit aber immer mehr an seine Grenzen. Das Prinzip des Data Mesh bietet hier einen passenden Lösungsansatz.

Data Mesh macht Analytics agiler

Data Mesh stellt die Daten als Wertschöpfungsfaktor in den Mittelpunkt der Architekturkonzeption. Daten sollen als „Datenprodukte“ prozess- und systemübergreifend im Unternehmen zur Verfügung gestellt werden.

Die Grundidee besteht darin, Daten als Asset für die Organisation zu begreifen und Business Usern hochwertige Datenprodukte für ihre Zwecke zugänglich zu machen, damit sie diese optimal nutzen können. Diesen Ansatz verfolgt auch die Self-Service BI bereits seit Jahren.

Neu ist bei Data Mesh allerdings die konsequente Delegation der Verantwortung und Kompetenzen in die dezentrale Organisation:

  • Entwicklungsteams erhalten die Verantwortung für die Entwicklung und den Betrieb von Datenprodukten ihrer fachlichen Domäne.
  • Die Verlagerung in fachlich geschnittenen Domänenteams löst das Engpass-Problem eines einzelnen zentralen Analytic-Teams.
  • Zugleich vervielfacht sie die Entwicklungsressourcen, erhöht damit das mögliche Umsetzungstempo neuer Use Cases und gewährleistet darüber hinaus die geforderte fachliche Expertise in der jeweiligen Domäne.

Die Dateninfrastruktur für die Domänenteams wird in Form einer Datenplattform nach dem Self-Service-Gedanken bereitgestellt. Im Gegensatz zur klassischen Data-Warehouse-Architektur mit zentralisierten Datenströmen handelt es sich hier um eine domänenorientierte dezentrale Architektur für analytische Daten.

Die Definition von Data Mesh zielt eher auf die Governance und Organisation des datengetriebenen Unternehmens ab als auf technologische Aspekte. Es gibt aber eine Kernarchitektur, die sich zur Umsetzung von Data Mesh besonders eignet, das Data Lakehouse.

Data Lakehouse unterstützt Data Mesh

Das Data Lakehouse unterstützt die dezentrale Arbeit mit Datenprodukten. Durch die Trennung von Storage und Computing bietet es eine hohe Flexibilität zur Einrichtung verschiedener Domänen mit jeweils eigenen Datenprodukten auf einem gemeinsamen Datenlayer. Ein heterogener Technologie-Stack greift dabei über Open Table Format auf Daten aus verschiedenen Quellen zu und bereitet sie für Use Cases wie BI, ML, Data Science oder Data Engineering in diversen Domänen auf.

Unter Berücksichtigung einer stringenten Access Control lassen sich die Datenquellen auf diese Weise verschiedenen Teams für ihre Auswertungen zugänglich machen. Datensilos werden vermieden und domänenübergreifende Datenabfragen unterstützt. Das verteilte Computing ermöglicht es zudem, unvorhergesehene Lastspitzen aus anderen Domänen abzufangen.

Reifegrad der dezentralen Governance als Erfolgsfaktor

Gemäß Definition basiert Data Mesh auf den vier Grundprinzipien Domain Ownership, Data Products, Self-Service und Federated Governance. Die verteilte Governance ist dabei der wesentliche Erfolgsfaktor für die Etablierung von Data Mesh. Im Rahmen der Governance legen die beteiligten Teams gemeinsame Standards und Regeln fest, um ihre Zusammenarbeit, die Harmonisierung der Daten und Sicherheitsanforderungen zu gewährleisten.

Aufgaben wie das Qualitätsmanagement und die Klassifikation von Daten, Security, Schnittstellen-Verwaltung oder die Definition und Verwaltung von Datenprodukten sind über die gesamte Organisation verteilt. Die Verantwortlichkeiten müssen hier klar geregelt sein.

QUNIS hat dafür ein dezidiertes Rollenmodell entwickelt, das sich seit Jahren in Data & Analytics-Projekten bewährt.

  • Das Rollenmodell legt unter anderem das Ownership für Domänen, Datenprodukte oder Datenobjekte wie „Kunden“, „Artikel“ oder „Partner“ fest.
  • Datenexperten wie Data Owner, Data Steward und das Data Governance Board arbeiten dabei mit Funktionen eines BI- oder erweiterten Analytics-Rollenmodells zusammen.
  • Dazu gehören zum Beispiel die Rollen End User, Power User, Solution Architect, Data Engineer mit DataOps, Data Architect sowie Data Scientist mit MLOps.

Über das Rollenmodell kann der Data-Mesh-Gedanke bis hin zu den DevOps etabliert werden. Die Verankerung und Durchsetzung der Rollen und einer starken Governance sind die Voraussetzung dafür, dass die verschiedenen Teams orchestriert zusammenarbeiten, qualitativ hochwertige Datenprodukte geliefert werden und der weitgehende Self-Service im Rahmen zuverlässiger Standards funktioniert.

Die Umsetzung von Data Mesh steht und fällt mit dem Reifegrad dieser Datenorganisation. Diese Organisation ist funktionsübergreifend und deckt sich damit nicht unbedingt mit der üblichen Einteilung in Geschäfts- oder Fachbereichen. Daher ist die Mitwirkung des Management Boards bei der Kontrolle und Etablierung der datengesteuerten Organisation und Architektur unbedingt notwendig.

Data Mesh setzt sich durch

Unternehmen verstehen, dass Daten immer mehr zur Wertschöpfung beitragen. Die kluge Nutzung und Auswertung der Daten bringen den entscheidenden Wettbewerbsvorteil. Für größere Konzerne und auch für viele mittelständische Unternehmen ist erweiterte Analytics daher inzwischen selbstverständlich. Data Mesh bietet die Möglichkeit, sich in diesem Bereich agiler aufzustellen.

QUNIS sieht daher derzeit eine große Dynamik und viel Kraft am Markt, das verteilte Organisations- und Architekturkonzept im Unternehmen umzusetzen. In den Projekten zeigt sich, dass das Data Lakehouse hierbei eine große Hilfe ist, weil die Technologie das flexible Splitten von Datenräumen erlaubt und die Verteilung von Verantwortung für Datenprodukte unterstützt.

Mein Tipp: Wenn Sie mehr über Data Mesh wissen wollen, folgen Sie uns auf LinkedIn und Xing oder abonnieren Sie einfach unseren Newsletter. Oder kontaktieren Sie uns und schreiben Sie mir direkt über KONTAKT ich freue mich über den Austausch mit Ihnen! 

Digitale Innovation braucht eine Datenstrategie

Erstellt am: Montag, 11. März 2024 von Anja Gorbach

Unternehmen investieren massiv in Digitalisierungsprojekte und die datengetriebene Wertschöpfung. Neue ERP-Systeme, Prozessvereinheitlichung oder die Ertüchtigung der internen IT-Infrastruktur stehen hier auf der Agenda. Dazu kommen immer mehr innovative Use Cases wie AI- und ML-Anwendungen, Bilderkennungsverfahren oder IoT-Plattformen. Als Cloud-Lösungen sind mächtige Speicher- und Analysesysteme selbst für mittelständische Unternehmen erschwinglich und kommen dort auch rege zum Einsatz.

Ohne ein fortgeschrittenes Datenmanagement werden die digitalen Innovationen jedoch nicht funktionieren, denn nach wie vor gilt die alte Weisheit: Die neuen Technologien können die Erwartungen nur erfüllen, wenn die Datenbasis stimmt. Und hier liegt in der Unternehmenspraxis oft das Problem.

Unkoordinierte Dateninitiativen kosten Geld und gefährden die Wertschöpfung

Im Zusammenhang mit der Systemadministration sind meist auch Datenmanagement-Initiativen etabliert. Diese laufen aber oft unkoordiniert im Unternehmen nebeneinander – und jede einzelne Disziplin für sich ist eine Mammutaufgabe.

Stamm- und Metadatenmanagement, Schnittstellen-Verwaltung, Datenqualität, Initiativen rund um BI und ML sind verschiedenste Ansätze, in denen sich einzelne Teams um ihr jeweiliges Datenthema kümmern.

  • So setzt man beispielsweise das Stammdatenmanagement oft nur Tool-basiert auf.
  • Oder es kommt vor, dass in der IT eine MDM-Implementierung läuft und parallel eine unternehmensweite Data-Governance-Initiative gestartet wird.
  • Oder eine ERP-Migration von SAP R/3 auf S/4 läuft unabgestimmt mit der Data & Analytics-Welt.

Entscheidungen im Rahmen von nicht abgestimmten Einzelinitiativen verursachen jedoch unnötige Kosten und gefährden die unternehmensweite Wertschöpfung von Daten. Da hilft nur eins: die unternehmensspezifischen Ziele des Datenmanagements zu definieren und die Umsetzung dementsprechend zu planen.

Es gilt, eine umfassende Datenstrategie zu entwickeln

Die Ziele des Datenmanagements sollten sich an der Unternehmensstrategie ausrichten. In diesem Rahmen können Dateninitiativen dann sinnvoll priorisiert und eingeordnet werden, so dass Transparenz geschaffen wird und alle Maßnahmen auf ein gemeinsames Ziel hinauslaufen. QUNIS hat ein Framework für die Datenstrategie entwickelt, die mit den folgenden drei Säulen bei der Entwicklung einer ausbalancierten Strategie hilft:

  • Scope
  • Architektur & Technologie
  • Organisation & Data Governance

Scope

Hier werden die datenorientierten Ziele des Unternehmens abgesteckt. Ansatzpunkte sind dabei datengestützte Prozessabläufe, Informationsbedarfe sowie digitale Produkte und Services des Unternehmens. Die Ziele, die derzeit in den Projekten am häufigsten genannt werden, sind effiziente Prozessketten, verlässliche Auswertungen durch hohe Datenqualität, Automatisierung im Datenmanagement oder die Entwicklung wettbewerbsfähiger Produkte und Services auf Basis hochwertiger Daten.

Empfehlung: Lassen Sie den ermittelten Scope vom Management bestätigen. Die Umsetzung der Strategie wird Kapazitäten erfordern und organisatorische Veränderungen bis in die operative Prozessebene mit sich bringen. Das Committent der Unternehmensleitung ist daher unabdingbar für die erfolgreiche Umsetzung.

Architektur & Technologie

Hier werden die Themenblöcke Stamm- und Metadatenmanagement, Backbone & Middle Layer sowie der Bereich Data & Analytics diskutiert. Besonders beim Stamm- und Metadatenmanagement gibt es immer wieder gewaltige Überraschungen beim Start der strukturierten Analyse. Die Fragen, wie man an bestimmte Daten herankommt, wer die Datenhoheit hat oder wo die Lücken in der Datenpflege liegen, können viele Unternehmen nicht klar beantworten. Von unternehmensweiter Transparenz sind die meisten Organisationen hier weit entfernt.

Im Bereich Backbone & Middle Layer geht es um Infrastruktur- und Technologie-Entscheidungen zur Verknüpfung von Systemen zu durchgehenden Datenplattformen. Ein wichtiger Themenblock in einer Datenstrategie ist natürlich der Bereich Data & Analytics mit seiner originären Aufgabe, Daten zu Analysezwecken in einer zentralen Plattform zu sammeln, aufzubereiten und zu verteilen.

Data & Analytics-Plattformen verarbeiten heute nicht mehr nur strukturierte Daten in klassischen BI-Analysen, sondern auch IoT-, GPS- oder Webdaten. Der Output können Reports zur internen Steuerung oder als Service für Partner, Lieferanten oder Kunden sein, aber auch Daten zur Speisung von ML-Cases und weiteren Systemen.

Organisation & Governance

Um eine standardisierte und skalierbare Data & Analytics-Plattform aufzubauen, ist die Etablierung einer strukturierten Data Governance zum geregelten Umgang mit den verschiedensten Datenformaten unverzichtbar. Data Governance versteht sich hier als integraler Bestandteil einer ganzheitlichen Datenstrategie, der den organisatorischen Handlungsrahmen für Einzeldisziplinen des Datenmanagements stellt. Wesentlicher Baustein ist das klassische Rollenmodell mit den Funktionen Data Owner und Data Steward auf operativer Ebene sowie den Leitungsfunktionen Data Board auf Teilkonzern-Ebene und dem Head of Global Data Governance auf Konzernebene.

In diesem Themenbereich liegt wahrscheinlich die höchste Sprengkraft, wenn das Datenmanagement in der Organisation verankert wird. Der Hauptgrund ist, dass die datenorientierte Organisation nicht der klassischen Linienorganisation der Fachbereiche entspricht. Der Einsatz von Business-Daten endet nicht an der Abteilungsgrenze von Sales, Finance oder HR. Die Daten werden vielmehr bereichsübergreifend in End-to-End-digitalisierten Prozessen genutzt und sollten daher auch von crossfunktional angesiedelten Datenexperten in einer Enterprise-Organisation verwaltet werden.

In einer mittleren bis großen Organisation lassen sich dabei heute nicht mehr alle Datenprozesse von einem einzigen zentralen Bereich stemmen. Datenexperten müssen stattdessen im gesamten Unternehmen verteilt sein und eng mit den Fachbereichen zusammenarbeiten. Deren Fachexpertise ist unbedingt nötig, um Daten hinsichtlich ihrer Wertschöpfung im Business und aus legaler Sicht korrekt zu beurteilen und sie optimal im Geschäftsprozess einzusetzen. Tatsächlich kann man bei vielen Unternehmen derzeit beobachten, dass vorhandene zentralisierte BI- oder Governance-Organisationen aufgebrochen werden, um sie breiter im Unternehmen anzulegen.

Orchestrierte Umsetzung auf Basis der Datenstrategie

Die operative Verankerung dieser Querschnittsfunktionen erfordert Durchsetzungskraft und Schulungen im gesamten Unternehmen, um ein unternehmensweites Bewusstsein für Daten als Wertschöpfungsfaktur aufzubauen und die nötige Akzeptanz für die datengetriebene Organisation im Tagesgeschäft zu erreichen. Hier geht es um nichts weniger als um einen echten Kulturwandel mit Blick auf die Daten, der am besten durch ein gezieltes Change Management begleitet wird.

Die datengetriebene Organisation ist nicht von heute auf morgen zu erreichen und Widerstände im Unternehmen sind absehbar. Die Datenstrategie ist jedoch ein sicheres Gerüst, zudem gibt sie die Roadmap für die schrittweise Umsetzung vor.

Im Rahmen der Datenstrategie können Unternehmen kleine Projekte angehen, in überschaubaren Schritten immer wieder Win-Effekte erzeugen und Mehrwerte liefern. Einzelinitiativen laufen auf dieser Basis orchestriert und ohne Redundanzen im Rahmen des entworfenen Big Picture.

Mein Tipp: Wenn Sie mehr über Datengetriebene Wertschöpfung und Datenstrategie wissen wollen, folgen Sie uns auf LinkedIn und Xing oder abonnieren Sie einfach unseren Newsletter. Oder kontaktieren Sie uns und schreiben Sie mir direkt über KONTAKT ich freue mich über den Austausch mit Ihnen! 

Danone: Sell-Out-Applikation in Lakehouse-Architektur

Erstellt am: Montag, 5. Februar 2024 von Anja Gorbach

Danone gehört zu den führenden Lebensmittelherstellern weltweit. Eine globale Plattform für Data & Analytics hilft bei der operativen und strategischen Steuerung des Konzerns. Für den Bereich Danone D-A-CH hat QUNIS eine Sell-Out-Applikation realisiert, die sich nahtlos in die zentrale Datenplattform einfügt.

Wir waren uns sicher, dass QUNIS den Use Case in selbstständiger Arbeit erfolgreich abliefert.

Tobias Riedner,
Head of IT  Data & Analytics, Danone Deutschland GmbH

Data Journey bis 2025

Danone verfolgt eine konsequente Digitalisierungsstrategie. Im Jahr 2020 hat das Unternehmen eine auf fünf Jahre angelegte Initiative zu den Themen Cloud, Data Products und Data Driven Decisions gestartet und in diesem Rahmen eine zentrale Datenplattform für Data Sourcing und Provisioning aufgebaut. Seit dem Rolling Out der „One Source“-Plattform im Jahr 2022 werden kontinuierlich neue Use Cases aufgesetzt.

Die benötigten Datenprodukte für die Anwendungen werden vom Bereich IT Data & Analytics zur Verfügung gestellt und gewartet. Für die Umsetzung einer Sell-Out-Applikation hat das IT-Team QUNIS als Implementierungspartner hinzugezogen. Die internen Core DevOp Teams, die unternehmensweit Datenprodukte bereitstellen, hatten zu diesem Zeitpunkt nicht die nötigen Kapazitäten für diesen strategisch wichtigen Use Case. Als zentrales Steuerungsinstrument für den Bereich Danone D-A-CH wurde der Sell Out Use Case jedoch dringend benötigt.

Use Case an QUNIS delegiert

QUNIS war bei Danone bereits seit Jahren als projekterfahrener Experte für Data & Analytics bekannt. Für Tobias Riedner, Head of IT Data & Analytics der Danone Deutschland GmbH, war daher klar, dass er sich auf QUNIS als kompetenten Implementierungspartner verlassen kann: „Wir waren uns sicher, dass QUNIS den Use Case in selbstständiger Arbeit erfolgreich abliefert.“

Im Projekt galt es, den spezifischen Use Case im Rahmen der vorgegebenen globalen Referenzarchitektur umzusetzen. Die One-Source-Datenplattform von Danone ist ein Data Lakehouse auf der Basis von Microsoft Azure, mit vielfältigen Vorsystemen, mit Databricks und Snowflake Datenspeichern und Power BI als Frontend für die Berichtsempfänger.

Für Tobias Riedner war wichtig, dass QUNIS in dieser Technologieumgebung eine große Expertise und umfangreiche Projekterfahrung mitbringt. Aber auch die Tatsache, dass QUNIS zuvor bereits eine ähnliche Anwendung mit anderer Technologie umgesetzt hatte, sprach für eine schnelle und sichere Implementierung.

Wichtige Steuerungskennzahlen

Der Sell Out Use Case ist eine klassische BI-Anwendung, allerdings fachlich und hinsichtlich des Datenmanagements sehr komplex. Danone vertreibt seine Produkte fast ausschließlich als B2B-Händler an den Einzelhandel. Der Verkaufspreis an Händler wie Aldi oder ReWe wird als „Sell In“ geführt. Zu welchem „Sell-Out“-Preis der jeweilige Einzelhändler die Produkte an die Konsumenten abgibt, ist für Danone eine wesentliche Information für die Preissteuerung. Aus der Marge zwischen Sell In und Sell Out, oder der Sell-Out-Nachfrage für das Produkt, ergeben sich Hinweise zur Preissensitivität der Endkunden, die wiederum Auswirkungen auf die eigene Preisgestaltung und darüber hinaus auch auf die Produktions- und Lagersteuerung oder auf Marketingaktionen haben.

Datenmanagement automatisiert

Danone erhält für diese Analyse Flat-Files von den Einzelhändlern, die vor der Neuimplementierung manuell gesammelt und aufbereitet wurden. Die Prüfung und Zusammenführung der Daten war zuvor entsprechend aufwändig und fehleranfällig. Wegen des hohen Aufwands war zudem nur eine monatliche Aktualisierung möglich.

Die Data Engineers von QUNIS haben das Datenmanagement neu aufgesetzt. Die teilautomatisiert gesammelten Dateien der Händler werden nun intern vollautomatisch verarbeitet, in das Data Lakehouse integriert und zur Auswertung bereitgestellt. Eine wesentliche Herausforderung im Projekt war dabei die Harmonisierung von Hunderten angelieferter Excel- und Textfiles, u. a. auch mit unterschiedlichen Berichtszeiträumen der Händler.

© Burda Food Agency / Katrin Winner

Leistungsstarke Datenmodelle

Bei der Datenmodellierung war die fachliche Expertise von QUNIS gefragt. Die performanten Datenmodelle ermöglichen schnelle und flexible Auswertungen für unterschiedliche Fachbereiche. Das Datenprodukt wird für die Abteilung Price Revenue Growth Management (PRCM) bereitgestellt, die diese wiederum für Reporting und Analyse in verschiedenen Fachbereichen aufbereitet. Im Rahmen des PRCM-Prozesses können nun Bereiche wie Sales, Key Account Management oder Produktion ihre Fragen zur Preissensibilität der Endkunden mit flexibler Sicht auf die Verkäufe, Preise, Händler oder Regionen beantworten, Produktionsmengen steuern oder Lieferungen zu Händlern oder in bestimmte Regionen präzise terminieren. Tobias Riedner fasst zusammen: 

 Die Sell-Out-Applikation ist für unsere Unternehmenssteuerung unverzichtbar. Dank QUNIS sind die aktuellen Kennzahlen heute auf Knopfdruck verfügbar.


Kompetenter Implementierungspartner

QUNIS wurde bei Danone vor allem als Experte für Data Engineering eingesetzt. Wichtig ist dabei jedoch auch der Blick für das Big Picture der globalen Datenplattform. Die Architektur der Sell-Out-Lösung fügt sich nahtlos in die Gesamtarchitektur ein, kann im Rahmen der standardisierten Technologieumgebung beliebig ausgebaut werden und lässt sich zugleich an die ständig weiterentwickelte Datenplattform anpassen.

Die Zusammenarbeit mit QUNIS war großartig. Bei Bedarf werde ich jederzeit wieder darauf zurückgreifen.

Mehr zu Danone: Danone ist einer der führenden Hersteller von Lebensmitteln und medizinischer Ernährung in der D-A-CH-Region, der in vier Geschäftsbereichen tätig ist: Milchfrische, pflanzenbasierte Produkte, natürliches Mineralwasser und Erfrischungsgetränke sowie frühkindliche und medizinische Nahrung. Mit rund 2.300 Mitarbeitern an sieben Standorten sowie zwei international relevanten Werken produziert Danone D-A-CH über 1.000 unterschiedliche Produkte. Das Portfolio umfasst führende internationale und lokale Marken wie Actimel, Activia, Alpro, Aptamil, Volvic, evian, Fruchtzwerge, Nutrini, Fortimel und Neocate. Weltweit ist Danone mit mehr als 96.000 Mitarbeitenden in über 55 Ländern Marktführer in den Bereichen Dairy & Plant Based Products, Spezialized Nutrition und Waters. Die Danone Produkte sind in mehr als 120 Ländern erhältlich. Weitere Informationen: www.danone.de

Mehr zur QUNIS Implementierung

Massive Parallelität und das Lakehouse

Erstellt am: Mittwoch, 27. September 2023 von Anja Gorbach

Hinter einer massiv parallelen Architektur steckt das Prinzip, dass Daten nicht mehr nur auf einer Maschine liegen, sondern auf beliebig vielen.

Die Idee dahinter: Wollen mehrere Klienten auf die selben Daten zugreifen, werden die Daten entsprechend repliziert. Eine aktuelle massiv parallele Architektur ist das Lakehouse. Es verteilt die Daten nicht nur auf mehreren Maschinen, sondern erlaubt auch den direkten Zugriff auf die Daten. Voraussetzung dafür ist, dass die Klienten ihre eigene Rechenleistung beitragen. 

Jeder bringt seine Rechenleistung mit

In einem massiv parallelen System gibt es statt einer Datenbank, über die die gesamte Arbeit komplett mit teurer Rechenleistung abgewickelt wird, nur noch einen Data Lake als reinen und äußerst kostengünstigen Speicherplatz. In dieser neuen Architektur kann jeder Klient selbst in einem zentralen Register nach seinen Daten suchen und bringt die jeweils für die Abfrage notwendige Rechenleitung einfach mit. Daher verkraftet es das System sogar, wenn mehrere hundert Data Scientisten gleichzeitig darauf zugreifen.

In einem solchen Lakehouse können zudem problemlos polystrukturierte Daten gespeichert werden. Es stellt darüber hinaus mithilfe von Analytischen Tabellenformaten wie beispielsweise Apache Iceberg durchgängig sicher, dass diese stets konsistent sind. Auch wenn mehrere Klienten gleichzeitig auf dieselben Daten zugreifen, sie lesen oder ändern, besteht somit keine Gefahr eines korrupten Datenbestands. Zum Vergleich: Dies konnte der Bibliothekar nur garantieren, indem er darauf achtete, dass erst der eine liest und danach erst der andere eine Änderung vornimmt.

Für den Fall, dass ein Anwender nicht in der Lage ist, eigene Rechenleistung mitzubringen, oder Unterstützung für die Datenabfrage braucht, gibt es Dienste wie der des QUNIS-Partners Dremio. Sie stellen über eine Data Lake Engine bereits fertige Cluster zur Verfügung. Darüber kann beispielsweise ein Controller in seiner gewohnten Umgebung und auf einer anwenderfreundlichen Oberfläche so arbeiten, als würde er direkt auf die Datenbank zugreifen. Da diese Struktur ebenfalls massiv parallel aufgebaut ist, sind auch hier mehrere Zugriffe gleichzeitig möglich, ohne dass es zu Konflikten kommen kann.

Aus homogen wird heterogen

Die massive Parallelität geht unbestritten mit einer gewissen Komplexität einher. Vorher war die Welt homogen und dadurch relativ einfach: Es gab eine Lösung, eine Technologie, eine Datenbank und darüber ließen sich alle Probleme lösen. In massiv parallelen Strukturen hingegen muss sich jeder selbst um den Data Lake kümmern und zudem jedes Mal eigene Rechenleistung beisteuern.

Das kann man natürlich grundsätzlich als Nachteil ansehen. Heterogenität und Offenheit für unterschiedliche Technologien bieten aber auch Vorteile, wenn etwa mehrere Anwender im Zugriff auf dieselbe Datenbank problemlos völlig verschiedene Programmiersprachen nutzen können. In modernen datengetriebenen Unternehmen, in denen möglichst jeder Mitarbeiter mit Daten arbeiten soll, die in großer Zahl vorliegen, kommt man an einer solch hochskalierbaren Architektur ohnehin kaum mehr vorbei.

Die Cloud macht‘s erschwinglich 

Massiv parallele Datenarchitekturen und Datenbanken gibt es übrigens schon seit den 1990er Jahren. Allerdings handelte es sich damals noch um rein proprietäre und dadurch sehr teure Technologien. Als Gamechanger zeigte sich die Mitte der 2010er Jahre die Entwicklung nichtproprietärer Technologien mit offeneren Architekturen. Jedoch waren diese für die meisten Unternehmen damals noch nicht so wichtig, weil häufig nur eine kleine Abteilung überhaupt mit Daten gearbeitet hat und auch die Datenmenge noch nicht annähernd so hoch war wie heute.

In den letzten Jahren hat sich dies enorm gewandelt: Mittlerweile will nahezu jeder Unternehmensbereich permanent Zugriff auf alle Daten sowie eigene Datenprodukte erstellen, selbstständig veröffentlichen und mit anderen teilen. Durch den stetig steigenden Bedarf waren die alten Architekturen daher ab einem gewissen Punkt nicht mehr tragfähig. Mit der Ablösung der teuren proprietären Systeme durch moderne Cloud-Architekturen, ist die Einstiegshürde naturgemäß deutlich niedriger.

So kann man zum Beispiel über ein Cloud-basiertes Pay-as-you-go-Modell sehr komfortabel und dazu kostengünstig mächtige Technologien nutzen und muss nicht erst Millionen-Euro-Beträge in technologisch aufgerüstete Serverschränke investieren. Stattdessen greifen die Anwender einfach on-demand auf die Daten zu, wenn sie sie brauchen, fahren dann entsprechend die Rechenleistung hoch und zahlen auch nur genau dafür.

Mag die massive Parallelität als Konzept relativ statisch sein, ist doch der Markt überaus dynamisch. Das Konzept wird in allen Bereichen kontinuierlich weiterentwickelt – so entstehen immer wieder neue Angebote und damit spannende Möglichkeiten, die es bislang nicht gab und die die Unternehmen in Zeiten von Big Data gewinnbringend nutzen können.

Data Lakehouse mit dem Modern Data Stack

Auch SENEC als einer der führenden Solarstromspeicheranbieter in Deutschland setzt auf einen Modern Data Stack und hat zusammen mit QUNIS ein Data Lakehouse aufgesetzt.

  • Die IT-Architektur ist ein Data Lakehouse auf Basis von Azure Databricks, das Elemente eines Data Warehouse mit einem Data Lake in der zentralen Plattform kombiniert. Die mit einer Staging und Cleansing Area, dem Core und einem Data Mart angelegte Lakehouse-Architektur ist in der Lage, Funktionen von Streaming Analytics, BI und maschinellem Lernen auf einer einzigen Plattform bereitzustellen.
  • Als Datenquellen sind u.a. eine Time Series Datenbank, eine Log-Datenbank, diverse relationale Datenbanken, SharePoint und klassische Business Systeme wie ERP, CRM usw. eingebunden. Zur Integration und Orchestrierung der Daten sind die Open-Source-Lösungen Airbyte und Airflow auf Kubernetes im Einsatz, zur Transformation von Daten im Lakehouse die Open-Source-Software dbt. Mit der kontinuierlichen Umsetzung neuer Use Cases werden schrittweise weitere Datenquellen angebunden. Die Anwender greifen über Microsoft Power BI auf die aufbereiteten Daten zu.
  • Power BI ist als strategisches Frontend für alle User im Einsatz. Das vielseitige Frontend unterstützt und visualisiert verschiedenste Use Cases in den Bereichen Unternehmens- und Marktinformationen sowie Produkt- und Qualitätskontrolle. Derzeit arbeiten von rund 550 Mitarbeitenden in Leipzig ca. 150 Konsumenten und Power User mit der BI-Lösung. Die Anzahl von aktuell 10 Designern soll kontinuierlich erhöht werden.

Mein Tipp: Wenn Sie mehr über Data Lakehouse und Parallele Architekturen wissen wollen, folgen Sie uns auf LinkedIn und Xing oder abonnieren Sie einfach unseren Newsletter. Oder kontaktieren Sie uns und schreiben Sie mir direkt über KONTAKT ich freue mich über den Austausch mit Ihnen! 

MEDIA Central Group: Moderne Prozesse und neue Geschäftsmodelle

Erstellt am: Dienstag, 20. Juni 2023 von Anja Gorbach

Die MEDIA Central Group ist der ganzheitliche Lösungsanbieter für 360°-Angebotskommunikation. Auf Basis branchenweit einzigartiger Daten, eigener Expertise in der Datenanalyse sowie eines spezialisierten Netzwerks bietet die Firmengruppe maßgeschneiderte Lösungen für die cross-mediale Angebotskommunikation. Zusammen mit QUNIS etabliert die MEDIA Central Group eine gruppenweite Datenplattform, die immer mehr datengetriebene Entscheidungen, optimierte Prozesse und innovative Geschäftsmodell ermöglicht.

Statt im extrem dynamischen Technologieumfeld selbst lange Lernkurven
oder mögliche Sackgassen in Kauf zu nehmen, nutzen wir die langjährige
Projekterfahrung und den tiefen Einblick in die Produktstrategien der
Softwarehersteller, die QUNIS uns bietet.

 

Rafael de Brito
Head of Corporate IT
MEDIA Central Group

QUNIS begleitet die digitale Transformation

Als Spezialist für haptische Angebotskommunikation steuert MEDIA Central über 15 Milliarden Prospekte jährlich, dazu kommen Anzeigen, Print-Mailings, Out-of-Home- und Radio/TV-Werbung sowie immer mehr digitale Kanäle. Das Kunden-Portfolio umfasst mehr als 100 international tätige Unternehmen aller Branchen, darunter den Großteil des deutschen Einzelhandels. Die gezielte Auswahl der passenden Kanäle, der Werbeformen, Reichweiten und Zeitpunkte basiert zunehmend auf automatisierten Analysen und datengetriebenen Entscheidungen. Mit der Offerista Group, dem europaweit führenden Experten für digitale Angebotskommunikation, dem Data-Science-Spezialisten Yagora und der europaweit führenden Drive-to-Store Technologieplattform ShopFully sind dabei in den letzten Jahren drei ausgewiesene Digitalisierungsexperten zur Unternehmensgruppe gestoßen.

Die konsequent vorangetriebene digitale Transformation ist der wesentliche Erfolgsfaktor der wachsenden Unternehmensgruppe. Rafael de Brito, Head of Corporate IT der MEDIA Central Group, sieht darin zugleich auch eine zentrale Herausforderung:

Den Wandel zum datengetriebenen Unternehmen gezielt, effizient und mit nachhaltigem Erfolg zu steuern, erfordert in der dynamischen Branche des Unternehmens und bei rapider technologischer Entwicklung einen soliden strategischen Plan – und darüber hinaus die kompetente Beurteilung neuer Situationen, die sich zwangsläufig im disruptiven Markt- und Technologie-Umfeld immer wieder ergeben.

Organisationale Ambidextrie als Leitfaden der Transformation

Das Schlüsselwort der erfolgreichen digitalen Transformation lautet für Rafael de Brito „Organisationale Ambidextrie“: die Fähigkeit von Organisationen, gleichzeitig effizient und flexibel zu sein. Im betriebswirtschaftlichen Umfeld ist damit die Balance zwischen effizienter Nutzung des Bestehenden (Exploitation) und der Erkundung von Neuem (Exploration) gemeint.

Vorhandene Systeme und Prozesse zu vernachlässigen und sich kopflos in neue Technologien und Methoden zu stürzen, kann natürlich nicht der richtige Weg sein. Im komplexen und dynamischen Entwicklungsumfeld immer den Überblick zu behalten, richtungsweisende Entscheidungen zu treffen und diese dann kompakt umzusetzen, ist jedoch für die internen IT- und Digitalisierungsexperten neben ihrem Tagesgeschäft schier unmöglich.

Gerade weil die MEDIA Central Group hoch spezialisierte Digitalisierungsexperten und Data Scientists im Haus hat, können diese die Situation gut beurteilen und wissen, an welcher Stelle man sich komplementäres Know-how von außen dazu holen sollte, weil in diesem Falle „buy“ statt „make“ effektiver und ökonomischer ist. Die MEDIA Central Group setzt daher auf die Zusammenarbeit mit QUNIS. Der Spezialist für Data & Analytics begleitet die digitale Transformation des Unternehmens seit dem Jahr 2018 als Beratungs- und Implementierungspartner.

Rafael de Brito erklärt: „Statt im extrem dynamischen Technologieumfeld selbst lange Lernkurven oder mögliche Sackgassen in Kauf zu nehmen, nutzen wir die langjährige Projekterfahrung und den tiefen Einblick in die Produktstrategien der Softwarehersteller, die QUNIS uns bietet. Das bedeutet für uns strategisch gut untermauerte Projekte, effektive Implementierung und Best Practices für sichere Projekterfolge.“ Sein anschaulicher Schluss lautet: „So wie wir die Firmenfahrzeuge unserer Außendienstmitarbeiter weder selber bauen noch reparieren, so handhaben wir es auch mit dem Data Warehouse. Unsere Kernkompetenz liegt darin, die Technik zu nutzen, nicht das Rad neu zu erfinden.“

Komplettbegleitung in allen Fragen von Data & Analytics

QUNIS kam vor allem als Partner für die Infrastruktur und Prozesse eines gruppenweiten Data Warehouse ins Spiel, das nach allen Richtungen offen und skalierbar für beliebige Datenquellen und Use Cases angelegt wurde. Heute schätzt Rafael de Brito die umfassende Begleitung auf allen Ebenen von Data & Analytics: von der Strategie, dem DWH-Ausbau, BI- und Reporting mit Auswahl, Design und Schulung des Frontends, Anbindung von Datenquellen samt Schnittstellenprogrammierung bis hin zum smarten Aufbau von Datenmodellen aus wirtschaftlicher Sicht. Besonders effizient er die Zusammenarbeit durch die strukturierte und direkte Kommunikation:

“Wir nutzen QUNIS als verlängerte Werkbank. Für das Projektmanagement und die Abwicklung von Anforderungen müssen wir kaum Zeit und Ressourcen aufbringen, da verlassen wir uns auf unsere vorausschauende QUNIS-Beraterin.“ Auch den Wissenstransfer bei der Erstellung von Reports und der Nutzung des DWH nennt Rafael de Brito als Vorteil der Zusammenarbeit. So kann sich das interne Team schnell eigenes Know-how aneignen und im Unternehmen weitergeben.

Im Bereich des eingesetzten Frontends Power BI beispielsweise hat MEDIA Central heute eigene Experten für den Berichtsaufbau, profitiert aber weiterhin von der Beratung der QUNIS-Spezialisten und nimmt nach Bedarf sehr individuelle Schulungen für ausgewählte Nutzergruppen in Anspruch. Derzeit klärt das Projektteam zudem gemeinsam die Frage, ob die Datenmodellierung in Data Marts oder Data Sets die bessere Alternative für künftige Auswertungen in Power BI ist.

Immer mehr Daten erschließen

Eine wichtige Aufgabe von QUNS ist die kontinuierliche Einbindung interner und externer Datenquellen in die zentrale Plattform. Das betrifft zum einen verschiedene Themen- und Fachbereiche, die in den Datenpool eingegliedert werden. Aber auch bei der Integration neuer Gesellschaften in die wachsende Firmengruppe verfolgt die MEDIA Central Group das Ziel, dass die vorhandenen Systemlandschaften bestehen bleiben und die benötigten Daten in die zentrale Plattform überspielen. Also kein Umbau der wachsenden heterogenen Systemlandschaft, sondern ein neu entstehender zentraler Datenlayer, der Informationen aus diversen Quellen integriert und harmonisiert zur Auswertung – auch wiederum für die neuen Gesellschaften – bereitstellt. Den Kern-Anwendungsbereich bilden dabei die gruppenübergreifenden Finanzauswertungen.

So ist eine schnelle Eingliederung in die Firmengruppe möglich, ohne den laufenden Systembetrieb neu hinzukommender Gesellschaften zu stören. QUNIS übernimmt die Schnittstellenintegration, die Definition der Aufbereitung der Daten und die Edition der Lade- und Qualitätsprüfungsprozesse beim Datenload. Für das Finanzreporting und erweiterte Analysen in alle operativen Bereiche wurden bisher u.a. diverse ERP-Systeme der Tochtergesellschaften, das FiBu-System, ein DMS, das Geoinformationssystem, QS/QM-Daten sowie zugekaufte Marktdaten angeschlossen.

Gemeinsam die Komplexität und Dynamik erfolgreich meistern

In enger Zusammenarbeit sorgt das Projektteam für den kontinuierlichen Ausbau der Datenplattform und die organisatorische Verankerung der damit zusammenhängenden Prozesse. Für neue Datenquellen und Use Cases ist die skalierbare Daten- und Systemarchitektur dabei jederzeit offen. Rafael de Brito bringt den entscheidenden Mehrwert der Data & Analytics-Plattform auf den Punkt:

„Wir wollen einen Datenschatz aufbauen und neue Insights generieren, von denen sowohl unsere internen Prozesse und Geschäftsmodelle als auch unsere Kunden und Lieferanten profitieren.“

Für die Kunden bedeutet mehr Wissen ein sehr gezieltes Marketing mit genauen Erfolgskontrollen. Das gilt auch für die analogen Werbeformen wie die klassischen Papier-Prospekte. Umfangreiche Datenanalysen sorgen dafür, dass die logistische Steuerung der Prospekte punktgenau mithilfe von Geo-soziologischen und -ökonomische Analysen oder finanziellen Erfolgskontrollen erfolgt. Die Ergebnisse samt Umsatzanalysen können die Kunden u.a. in einem Qualitätsportal nachvollziehen.

Erfolgsgesteuerte selektive Werbung statt mit der Gießkanne, budget- und ressourcenschonend sowie transparent bis hin zu den Kunden und Lieferanten – die smarte Prospektsteuerung ist nur ein Beispiel für optimierte Angebote durch „data driven decisions“. Die MEDIA Central Group wird ihre datengetriebenen Geschäftsmodelle gezielt und kreativ weiter ausbauen. Dass QUNIS dafür der richtige Beratungs- und Implementierungspartner ist, steht für Rafael de Brito fest: QUNIS trägt wesentlich dazu bei, dass wir die Komplexität und Dynamik der digitalen Transformation der MEDIA Central Group erfolgreich meistern.“

Mehr zu MEDIA Central Group: Starke Marken für starke Kommunikationslösungen: Die MEDIA Central Group ist der ganzheitliche Lösungsanbieter für 360°-Angebotskommunikation. Auf Basis branchenweit einzigartiger Geo-Daten und der eigenen Expertise in der Datenanalyse erkennt die MEDIA Central Group übergeordnete Zusammenhänge und bietet Kunden maßgeschneiderte Empfehlungen für erfolgreiche Handelskommunikation. Die MEDIA Central Group versteht sich als Reichweitenmanager und bringt die Werbebotschaft ihrer Kunden zur richtigen Zeit zur richtigen Zielgruppe.

Die Gruppe vereint unter ihrem Dach den marktführenden Spezialisten für haptische Angebotskommunikation MEDIA Central, die europaweit führende Drive-to-Store Technologieplattform ShopFully, die europaweit führenden Experten für digitale Angebotskommunikation Offerista Group, die Data-Science-Experten für den Moment der Kaufentscheidung Yagora sowie die Auslandsgesellschaften MC Tschechien und MC Polen. Als Marktführer in der unadressierten Haushaltswerbung steuert MEDIA Central jährlich über 15 Milliarden Prospekte. Die Offerista Group ist Europas größtes Netzwerk für digitales Handelsmarketing und bündelt im eigenen Native Network über 1.400 Plattformen und Reichweitenpartner. Als Experten für den Moment der Kaufentscheidung analysiert und optimiert die Yagora Maßnahmen im Bereich Shopper Marketing und ermöglicht so die Steigerung der POS-Performance. Die Gruppe ist mit über 900 Mitarbeitenden an 21 Standorten vertreten und betreut heute Kunden in über 30 Ländern aus allen Branchen. Mehr Informationen: . https://corporate.media-central.de/

Mehr zu QUNIS StrategieberatungQUNIS Strategie

Microsoft Fabric – Data Driven in einer Technologie 

Erstellt am: Donnerstag, 1. Juni 2023 von Monika Düsterhöft

Microsofts konsequente Reise hin zur Datendemokratisierung 

Letzte Woche hat Microsoft auf der “Build-Konferenz” einige Neuerungen vorgestellt. Unsere Data & Analytics Ohren sind dabei natürlich insbesondere bei dem Thema “Microsoft Fabric” hellhörig geworden. Seitdem ist ein bisschen Zeit vergangen, die wir genutzt haben, das Neue von Microsoft einmal intern in unseren Innovation Labs und mit unseren Kunden zusammen genauer unter die Lupe zu nehmen. 

Alles unter einem Dach

Mit Microsoft Fabric wiederholt Microsoft sein Power BI-Erfolgsrezept und bündelt eine ganze Palette an Werkzeugen, auch aus dem Datenmanagement Bereich, unter einem neuen Dach. Das Dach heißt Microsoft Fabric.

Die Werkzeuge umfassen alles, was das Data (& Science)-Herz begehrt:  Data Integration, Data Engineering, Data Warehousing, Data Science, Real Time Analytics und Power BI selbst. Dabei sind die meisten Funktionen, die sich hinter diesen Diensten verbergen, nicht komplett neu in Azure, so ist in der Fabric Data Integration ein großes Stück Azure Data Factory zu finden, und auch das Data Engineering Feature hat die Besten Stücke rund um die serverless Spark Pools in Azure Synapse erhalten. 

Was auffällt ist die Einfachheit, mit der es Microsoft gelungen ist, all die Dienste im neuen Haus unterzubringen.

Das gelingt insbesondere durch zwei konsequent verfolgte Prinzipien:

  • SaaS überall! Der Fokus bei Microsoft Fabric ist auf Software-as-a-Service (SaaS) ausgelegt. Das heißt: Kein händisches verwalten von Servern! 
  • Ein gemeinsamer Standard: Onelake & Delta Lake. Alle Daten in Microsoft Fabric (ja, auch die im „Warehousing“ Bereich), werden in Onelake als Delta Tabellen gespeichert. Das ermöglicht den nahtlosen Wechsel von Werkzeugen in Microsoft Fabric basierend auf dem immer gleichen Daten & Zugriffen, die durch Onelake sichergestellt werden. Wir hoffen in Zukunft auch noch auf die Unterstützung von Iceberg. 

Neben der ganzen Nutzerfreundlichkeit und Einfachheit mit der Microsoft die Dienste im Fabric bündelt, gibt es zudem ein paar handfeste technologische Neuerungen:  

Mit „Direct Lake“ ist es nun möglich Dateien auf dem Lake aus Power BI abzufragen, OHNE dass wir zusätzlichen Compute wie z.B. Synapse Serverless benötigen oder etwa die Datasets regelmäßig aktualisieren müssen, um ein maximal performantes Nutzererlebnis durch importierte In-memory-Daten zu ermöglichen. Etwas ähnliches hat Tableau & Databricks über Delta Share zwar schon vor zwei Jahren angekündigt (Link), allerdings ist die Funktion bis heute nicht öffentlich verfügbar. Danke Microsoft für dieses Schmankerl! 

Auch Onelake fällt in eine Box, für die wir in unserem Beraterlager noch gar kein Label haben: Während Onelake viele aus dem Azure Data Lake Store Gen 2 (ADLS Gen 2) bekannte Funktionen mitbringt, hat auch hier Microsoft nochmal einen draufgesetzt: Es ist nun möglich mit dem altbekannten „abfss“-Treiber über OneLake nicht nur auf Daten in der Azure Cloud zuzugreifen und den Zugriff zu steuern, sondern sogar verbundene S3 Buckets können abgefragt werden. Für Abfragewerkzeuge innerhalb des Fabrics ist zusätzlich auch Row- und Columnlevel Security angekündigt. Das dies nur innerhalb des Fabrics funktioniert ist zwar schade, aber aus technischer Sicht absolut nachvollziehbar. 

Mit Fabric entwickelt sich Microsoft in die absolut richtige Richtung

Die Einfachheit mit dem Microsoft es schafft die Komplexität aus den verschiedensten Data Domänen zusammenzubringen hat uns wirklich beeindruckt. Damit rücken insbesondere alle Themen rund um Data Engineering ein gutes Stück näher an den Großteil der Datennutzer in Unternehmen. Und während das natürlich keine Ausrede für unsauberes Datenmanagement ist, kann Transparenz und Einfachheit gerade im Bereich Daten gar nicht hoch genug bewertet werden. 

Early Adopters aufgepasst: Aktuell gibt es noch viele Features die zwar angekündigt, allerdings aktuell noch nicht verfügbar sind. Das fällt uns bei der No-code-Komponente Data Activator deutlich einfacher als mit der fehlenden Zugriffssteuerung auf Tabellenebene.  

Unser Tipp: Wenn Sie mehr über Fabric wissen wollen, folgen Sie uns auf LinkedIn und Xing oder abonnieren Sie einfach unseren Newsletter. Wir bleiben an der Fabric dran und halten Sie über unsere Erkenntnisse und Learnings informiert.

Die neueste SAP-Evolution im Bereich Data & Analytics: SAP Datasphere

Erstellt am: Donnerstag, 13. April 2023 von Anja Gorbach

Aus SAP Data Warehouse Cloud wird SAP Datasphere! Was steckt hinter dem neuen Release? Bloß ein neuer Name – also anders ausgedrückt reines Marketing – oder verbirgt sich mehr hinter der neuesten Evolution aus dem Hause SAP?

Am 8. März 2023 launchte SAP Datasphere im Rahmen von SAP Data Unleashed, einem virtuellen Event rund um Neuerungen im Kontext Data & Analytics. Auch auf den diesjährigen DSAG-Technologietagen am 22. und 23. März in Mannheim war Datasphere eines der Hot Topics. Und so viel vorneweg: Die Neuausrichtung seitens SAP verspricht einiges und Datasphere bietet bereits einige spannende neue Features.

Werfen wir aber zunächst nochmal einen Blick zurück. Die Entwicklung der Data Warehouse Cloud (DWC) in den letzten anderthalb Jahren war wirklich rasant. Mit jedem neuen Release spürte und spürt man die Intensität und Manpower, mit denen hinter den Kulissen an neuen Features und der Verbesserung bestehender Funktionalitäten gearbeitet wird.

Auf einige der aktuellsten Neuerungen im Rahmen der Umbenennung zu Datasphere werde ich später noch genauer eingehen. Einen detaillierten Blick auf die neue strategische Data Warehousing Lösung von SAP hatte ich bereits in einem früheren WHITEPAPER: SAP Data Warehouse Cloud  – DAS neue strategische Data Warehouse der SAP gegeben.

In der Praxis zeigte sich in den letzten Monaten, dass die DWC insbesondere beim Thema Datendemokratisierung ein sehr interessanter und relevanter Baustein für Unternehmen werden kann. Durch die zentralen Elemente der Spaces, Sharing-Optionen zwischen den unterschiedlichen virtuellen Bereichen sowie Data Access Controls als wichtige Governance-Elemente auf der einen Seite und der Möglichkeit, Modelle auf Basis eines grafischen Editors zu erstellen. Auf der anderen Seite, ergeben sich mitunter komplett neue Möglichkeiten in der Zusammenarbeit zwischen IT und Business.

Ein Tool alleine ermöglicht natürlich keine Datendemokratisierung im Unternehmen – die technischen Möglichkeiten erfordern immer auch das Vorhandensein von Datenkompetenz innerhalb der involvierten Bereiche (Data Literacy) sowie klar definierte Data & Analytics-Rollen.

Die Agilität sowie die leichte und intuitive Bedienbarkeit bei der Erstellung neuer analytischer Modelle beziehungsweise semantischer Sichten auf vorhandene Datensets sind in der agilen und schnelllebigen Business-Welt ein absoluter Unterscheidungsfaktor im Analytics-Umfeld. Auf der anderen Seite wurden auch die Möglichkeiten aus Entwicklersicht stark erweitert. Ein Beispiel ist hier das Command Line Interface (CLI).

Seit einiger Zeit ist es über das DWC-CLI möglich, gewisse manuelle und vor allem wiederkehrende Tätigkeiten beim Administrieren des Tenants, der Userverwaltung oder dem Erstellen von Tabellen und Views mithilfe der Kommandozeile programmatisch zu lösen – oder besser gesagt zu automatisieren. Das DWC-CLI ist technisch gesehen ein eingeständiges Node.js-Modul. Voraussetzung ist die Installation der letzten node.js-Version auf dem Client. Mithilfe des CLI lassen sich lästige und wiederkehrende Mehrfacharbeiten in der UI reduzieren und wie bereits erwähnt automatisieren – und letztendlich auf diese Weise auch standardisieren.

Seit der Einführung der DWC wurden neue Innovationen im Bereich Data & Analytics nach und nach nur noch im neuen Cloud-Service integriert; ein Beispiel ist hier der Data Marketplace, der mittlerweile etliche Datenmodelle von Drittanbietern bereitstellt.

Ebenso hat man als Unternehmen die Möglichkeit, eigene Datenprodukte nach draußen zu verteilen. Hier denke man zum Beispiel an Lieferanten oder enge Partner, mit denen auf diese Weise noch enger kooperiert werden kann. Sogar innerhalb eines Unternehmens lässt sich der Marketplace nun einsetzen, um beispielsweise Datenprodukte an die eigenen Fachbereiche auszuliefern.

SAP Datasphere – auf dem Weg zur „Business Data Fabric“

Werfen wir nun einen genaueren Blick auf die neueste Evolutionsstufe im Data & Analytics-Portfolio von SAP. Was verbirgt sich hinter dem Begriff Datasphere? Zunächst einmal ändert sich für DWC-Kunden nicht sonderlich viel: Das Look&Feel des Tools ist gleich geblieben, lediglich der Name wurde ausgetauscht und bereits einige neue technische Features hinzugefügt.

Mit Datasphere möchte SAP den Data Fabric Ansatz stärker verfolgen und spricht in dem Zusammenhang nun von einer „Business Data Fabric“. Aber was versteht SAP eigentlich unter diesem Begriff?

SAPs Definition der Business Data Fabric ist im Kern eine Datenmanagementarchitektur für einen virtuellen oder persistierten semantischen Daten-Layer über der darunterliegenden Datenlandschaft (Beispiele: zentrales DWH, Lakehouse, MES- beziehungsweise Produktionsdaten, IoT-Daten etc.) eines Unternehmens. Die Basis für dieses Vorhaben soll mit SAP Datasphere und einem offenen Daten-Ökosystem, das im Zuge einiger strategischen Partnerschaften mit unter anderem Databricks, Collibra, Confluent und DataRobot angekündigt wurde, geschaffen werden. Das grundlegende Ziel, das SAP hiermit verfolgt, ist, einen skalierbaren und einheitlichen Datenzugriff ohne Datenduplikationen im Unternehmen zu ermöglichen.

Als Grundlage einer Business Data Fabric bringt Datasphere sämtliche Funktionalitäten eines modernen Data Tools mit, angefangen vom Datenzugriff via Self-Service & Data Discovery bis hin zur Datenintegration sowie Governance & Security. Data Warehousing, Virtualisierung, die semantische Modellierung von Businesslogik sowie Orchestrierung und Processing als zentrale Datenmanagementaufgaben gehören ebenso zum Funktionsumfang.

Auf dem Weg zum vollumfänglichen Data Tool 

Wer sich bereits mit der DWC beschäftigt hat, wird merken, dass dies nun erstmal nichts Neues ist, denn auch die DWC verfügte schon über die genannten Funktionalitäten. Rein technisch ist Datasphere daher aktuell vielmehr als das neueste Release der DWC zu interpretieren. Dennoch gibt es einige Neuigkeiten. die den Weg der der SAP Datasphere zum vollumfänglichen Data Tool aufzeigen.  Im Folgenden habe ich einige dieser Neuerungen für Sie aufgelistet:

Neue Datenintegrationsmöglichkeiten mit dem Cloud-basierten Replication Flow
Der Replication Flow ist ein Data Intelligence Feature, das nun in Datasphere integriert wurde. Mit der Komponente kann man eine Cloud-basierte Datenreplikation ohne Transformationslogik durchführen und somit große Datenmengen von A nach B bewegen. Ebenso unterstützt der neue Replication Flow den Change Data Capture (CDC). Stand heute ist der Funktionsumfang noch stark eingeschränkt. So stehen derzeit als Ziel beispielsweise lediglich SAP Datasphere, HANA Cloud und HANA Data Lake zur Auswahl. Es wurde jedoch angekündigt, dass zukünftig für den Replication Flow auch Third-Party-Applikationen als mögliches Ziel angeboten werden.

Neues analytisches Modell
Mit dem neuen Artefakt für die semantische Datenmodellierung hat SAP deutlich mehr Modellierungsmöglichkeiten geschaffen. Es ist nun in Datasphere möglich, ein auf die Anforderungen des Business abgestimmtes und optimiertes semantisches Datenmodell mit Variablen, eingeschränkten Kennzahlen und Filtern für die SAC bereitzustellen. Darüber hinaus bietet das neue analytische Modell eine wirklich sehr hilfreiche Datenvorschau bei der Modellierung und eine verbesserte Integration mit der SAC bei der späteren Nutzung.

Nächster Schritt Richtung Datendemokratisierung und Governance mit dem neuen Catalog
Mit Datasphere hat SAP nun auch einen Data Catalog gelauncht. Über den Catalog Crawler werden die Metadaten aus Datasphere automatisch in den Catalog geladen, ebenso lassen sich zusätzlich SAC-Instanzen mit wenigen Klicks integrieren.

Über den Catalog und dessen Suchfunktion kann man seinen Business Usern jetzt einen sehr guten Überblick über die verfügbaren Datenprodukte geben, KPIs definieren, kategorisieren und in den Assets pflegen sowie Business Terms in Form eines Glossars definieren. Über die Lineage lassen sich so schnell und einfach die Views und Tabellen in Datasphere ausfindig machen, auf die beispielsweise ein Report in der SAC auf Basis eines analytischen Modells aufsetzt.

Auf dem Data & Analytics Forum im Juni 2022 kündigte SAP das Projekt „SAP Data Suite“ an. Mit Datasphere präsentiert das Unternehmen aus Walldorf nun die ersten Ergebnisse.

Wenn die Entwicklung der neuen Data Suite von SAP mit der gleichen Geschwindigkeit wie in den vergangenen Monaten weitergeht, sind wir sehr optimistisch, dass die aktuell noch bestehenden Funktionslücken Schritt für Schritt geschlossen werden.

Beispielsweise verspricht der Blick auf die Roadmap im Laufe des Jahres eine nahtlose Integration der SAC-Planung mit Datasphere und die Erweiterung des neuen Catalogs hinsichtlich der Anbindung zusätzlicher SAP-Quellen. Ebenso soll es zukünftig möglich sein, User pro Space unterschiedlich zu berechtigen. Auch das analytische Modell wird weiter ausgebaut und um Multi-Fact sowie weitere Modellierungsfunktionen erweitert.

Aber es gibt auch noch genügend Themen, die dringend angegangen werden müssen. Insbesondere beim Thema Life-Cycle Management – Stichwort CI/CD – hat SAP Datasphere aktuell noch keine wirklich zufriedenstellende Antwort zu bieten.

Die Data & Analytics Zukunft mit SAP liegt in der Cloud

Erstellt am: Freitag, 20. Januar 2023 von Monika Düsterhöft

In der SAP-Strategie ist seit einiger Zeit ein klarer Trend zu Cloud-only festzustellen. SAP Datasphere kommt dabei eine zentrale Rolle zu.

Zusammen mit der SAP HANA Cloud, der SAP Analytics Cloud (SAC) und der SAP Data Intelligence Cloud bildet SAP Datasphere das Data-to-Value-Portfolio von SAP. Die SaaS-Applikation Datasphere ermöglicht es Unternehmen, sich dabei ganz auf ihre Analytics-Aktivitäten zu konzentrieren.

Mit SAP Datasphere können sowohl Cloud- als auch On-Premise-Datenquellen integriert werden. Die Komponente Data Flow bietet zudem ETL-Funktionalitäten, um Daten aus unterschiedlichsten Quellen zu extrahieren, zu transformieren und schließlich in lokalen Tabellen Datasphere zu speichern. Darüber hinaus gibt es mit dem Data Builder und dem Business Builder zwei separate Bereiche zur Datenmodellierung in Datasphere, und sie stellt einige Business-Content-Datenmodelle bereit, die mit wenigen Klicks für Standardanwendungsfälle verfügbar gemacht werden können.

Komfortabel zum „Data-Shopping“

Mit Dataspehre versucht SAP zudem, einen entscheidenden Schritt in Richtung Self-Service Data Warehousing zu gehen. Hierbei hat die IT weiterhin die Hoheit und Verantwortung für einheitliche, standardisierte Datenmodelle. Zugleich bekommt sie aber Unterstützung im Datenmanagement, denn der Fachbereich kann den letzten Schritt in Richtung Reporting allein und selbstständig machen.

Richtig umgesetzt erhöht dies die Agilität und beschleunigt die Analytics-Entwicklungen in den Unternehmen. Im Sinne eines „Data-Shopping“-Erlebnisses stehen den Endanwendern die Daten in einer einfachen, geführten Form zur Verfügung: Wiederverwendbare analytische Datenmodelle können verschiedene Geschäftsfragen beantworten.

Datasphere und SAC in kraftvoller Verbindung

Die Offenheit der Applikation basiert auf der Kombination mit der SAC als sogenanntem First-Class Consuming Citizen. Mit wenigen Klicks ist die Verbindung zwischen Datasphere und der SAC eingerichtet, dadurch lassen sich nachfolgend die Daten der freigeschalteten analytischen Datenmodelle von Datasphere per Live-Verbindung nutzen.

Ebenso können die Anwender aber auch mit Third-Party-Tools wie Tableau oder Microsoft Power BI auf die Daten zugreifen. Nicht zuletzt soll Datasphere künftig als zentrale Datendrehscheibe für Planungsszenarien in Kombination mit der SAC inklusive einer Retraktion von Forecast und Plan-Daten Richtung Dataspehre etabliert werden. Langfristig soll außerdem die Datasphere Verwendung auf allen gängigen Hyperscalern möglich sein.

Perfekte Symbiose

Da SAP den Service Datasphere als SaaS zur Verfügung stellt, müssen sich Kunden nicht mehr selbst um Produkt-Updates und neue Releases kümmern – gleichzeitig gewährleistet das automatische und zentrale Updaten durch SAP eine permanente Verbesserung und Optimierung des Produkts. Das neue Space-as-a-Service-Konstrukt macht zudem isolierte Einheiten oder auch separierte logische Layer in der Datasphere möglich.

Ein weiterer interessanter Aspekt: End-User können mithilfe des Business Builders selbstständig Business Entities für das Reporting erstellen. Über die Verknüpfung mit der SAC schafft die Einheitlichkeit von User Interface und Usability der beiden Applikationen eine perfekte Symbiose. Daher stellt sich die SAC zum Konsumieren von Datasphere-Datenmodellen als Frontend-Tool der Wahl dar.

Mein Tipp: Einen detaillierten Tool-Steckbrief zur SAP Analytics Cloud (SAC) und zu Microsoft Power BI sowie weitere spannende Learnings rund um das Thema Self Service BI und wie Sie damit Agilität im Fachbereich realisieren, finden Sie in der aktuellen Studie von the factlights.  STUDIE KOSTENFREI HOLEN

Zusammenspiel von Self Service- und Enterprise BI

Erstellt am: Freitag, 9. September 2022 von Monika Düsterhöft

BI-Werkzeuge punkten mit Benutzerfreundlichkeit im Frontend und Funktionalitäten für das Datenmanagement 

Der Siegeszug der Self Service-BI (SSBI), der in den letzten fünf Jahren verstärkt zu beobachten ist, lässt sich nicht zuletzt mit den in dieser Zeit auf den Markt drängenden neuen benutzerfreundlichen und skalierbaren BI-Werkzeugen in Verbindung bringen.

Diese umfassen in der Regel nicht nur ein schickes Frontend sondern auch Funktionen zur Erledigung einfacher Datenmanagementaufgaben. Sie erlauben es Nutzern selbstständig verschiedene Datenquellen zu verbinden, lokale Daten aus Excel-Dokumenten im Visualisierungstool zu integrieren oder Daten direkt aus dem Internet heraus anzuzapfen und so Unternehmensdaten einfach und schnell sowie weitgehend unabhängig von der IT-Abteilung auszuwerten.

Wenig verwunderlich nennen die Teilnehmer der aktuellen Studie von the factlights als ihre Top-3-Anwendungsfälle von SSBI die schnelle und individuelle Anpassung von Visualisierungen, die Abdeckung von zusätzlichen Informationen aufgrund von Individualbedarfen sowie die Zusammenführung von Daten aus mehreren Quellen.

Dabei wird SSBI von den Befragten nicht als eine ausschließliche Lösung, sondern vielmehr als integraler Bestandteil einer modernen Datenarchitektur verstanden. 9 von 10 der Befragten gaben an, ein Data Warehouse im Einsatz zu haben.

Clevere Kombination aus SSBI und Data Warehouse

Im Hinblick auf den verwendeten Technologie-Stack und das damit realisierte Zusammenspiel von SSBI und einem Data Warehouse lassen sich bei den Befragten vor allem drei verschiedene Architekturen identifizieren:

1. SSBI eigenständig, mit anderem Technologie-Stack als Enterprise BI

SSBI wird als eigenständige Lösung parallel zum Data Warehouse / Lakehouse betrieben. Als Datenbasis dienen vom Fachbereich erstellte und verwaltete Datenbanken. Das BI-Frontend-Tool orientiert sich nicht an den unternehmensweiten Vorgaben. Die SSBI Lösung läuft damit autark vom zentralen und qualitätsgesicherten Data Warehouse / Lakehouse sowie weitestgehend unkoordiniert.

2. SSBI eigenständig, mit gleichem Technologie-Stack wie Enterprise BI

SSBI wird als eigenständige Lösung parallel zum Data Warehouse / Lakehouse betrieben. Als Datenbasis dienen vom Fachbereich erstellte und verwaltete Datenbanken. Als Technologie wird das unternehmensweit verabschiedete BI-Frontend-Tool verwendet. Obwohl die SSBI Lösung nicht auf dem zentralen und qualitätsgesicherten Data Warehouse / Lakehouse aufsetzt, werden möglichst viele Synergien verwendet und SSBI in koordinierter Art und Weise betrieben.

3. SSBI aufbauend auf dem Data Warehouse / Lakehouse

Architektonisch und technologisch ist SSBI vollständig in die Architektur integriert. SSBI baut auf dem vorhandenen Data Warehouse / Lakehouse auf und verwendet dessen qualitätsgesicherte Datenbasis. Zusätzlich besteht die Möglichkeit, externe Daten zu ergänzen und diese zusammen mit den Daten des Data Warehouse / Lakehouse zu verwenden. Als Technologie wird das unternehmensweit verabschiedete BI-Frontend-Tool verwendet.

Nachhaltigen Erfolg bringt SSBI, wenn es nicht als Silo aufgebaut wird 

Die drittgenannte Architektur-Variante versteht die SSBI-Lösung nicht als technologisch eigenständig, sondern setzt diese sozusagen als „Disziplin“ auf ein bestehendes Data Warehouse auf. Sie verwendet Technologien, die sich in die Gesamtarchitektur einfügen. Diese Architektur ist vor allem beim Reifegrad der Frontrunner verbreitet und gilt damit als am erfolgreichsten. Zudem stellt the factlights fest, dass Anwender zufriedener sind, je integrativer SSBI in der Gesamtarchitektur umgesetzt ist.

Als probates Beispiel, wie mit einer SSBI-Lösung gestartet und diese zu einer integrierten Lösung weiterentwickelt werden kann, gilt der QUNIS-Ansatz der Scalable Self-Service BI.

Mein Tipp: Noch mehr Learnings, Extra Notes zu Organisation und Rollen sowie viele spannende Info-Grafiken und Tool-Steckbriefe zu Microsoft Power BI und zur SAP Analytics Cloud (SAC) finden Sie in der the factlights Studie „ Self Service BI – Agilität für den Fachbereich“.  STUDIE KOSTENFREI HOLEN

Digital Workplaces, Data Literacy, Cloud, Data Catalogs und mehr – das bewegt die Data & Analytics-Welt

Erstellt am: Dienstag, 31. Mai 2022 von Monika Düsterhöft

Das Thema Data & Analytics hat deutlich an Fahrt aufgenommen: Die Initiale für Projekte und Initiativen sind dabei so vielfältig wie nie zuvor. Die Herausforderungen und Antworten darauf ebenso.

Viele Organisationen stellen sich aktuell IT-seitig komplett neu auf

Aus selbst definierten strategischen Gründen oder auch weil technische Erweiterungen von Softwareherstellern eine komplett neue Ausrichtung erfordern. Dabei wird kaum noch monolithisch alles einer einzigen, zentralen Strategie unter­geordnet. Stattdessen eröffnen sich heterogene Welten beispielsweise mit Cloud-Angeboten, Spezialapplikationen unter anderem für Product-Lifecycle-Management oder Firmendatenbanken wie etwa Produktinformationssysteme.

Diese Entwicklung erfordert angesichts der Vielfalt und Komplexität der Aufgaben im Kontext von Data & Analytics umso mehr feste Konzepte für das Stamm- und Metadaten-Management. Schließlich gilt es, jederzeit den Überblick zu bewahren und Transparenz zu gewährleisten.

Ebenso geht nicht erst seit, aber forciert durch Corona der Trend hin zum verteilten Arbeiten. Sogar Unternehmen, die sich vor nicht allzu langer Zeit noch dagegen gesperrt haben, stellen mittlerweile Digital Workplaces bereit. Auch hier spielt die Cloud eine zunehmend wichtige Rolle, um den mobilen Zugriff auf die Systeme etablieren und von der Infrastruktur her überhaupt ausrollen zu können. Über die Technologie hinaus erfordert dies vielfach neue Konzepte und Handlungsweisen.

Zudem betrifft die Digitalisierung die unterschiedlichsten Bereiche in einem Unternehmen – ob in der Kommunikation, im Vertrieb, dem Kundenservice oder der HR-Abteilung. Neben dem elementaren Organisationsmanagement, das die Struktur des „Gesamtkonstrukts Digitalisierung“ steuern und optimieren soll, benötigen diese Transformations- oder vielmehr Veränderungsprozesse immer auch ein gutes Change Management. Denn nicht nur die Prozesse müssen stimmen, sondern die Menschen dahinter müssen abgeholt und mitgenommen werden, um die veränderten Prozesse dauerhaft und erfolgreich im Unternehmen zu etablieren.

Damit einher geht auch der steigende Bedarf an Kompetenzen, dem sogenannten Upskilling. Die zunehmend digitalisierte Arbeitswelt erfordert abteilungsübergreifende Kompetenzerweiterungen; das gilt für den IT- und Technik-Bereich, aber auch in Marketing & Kommunikation und erstreckt sich ebenso über Anforderungen wie Mitarbeiterentwicklung, Problemlösungskompetenzen oder Konfliktmanagement bzw. Teamwork. Das alles muss bedacht und umgesetzt werden, da sonst Digitalisierungsinseln entstehen und ein Scheitern des ganzheitlichen Ansatzes vorprogrammiert ist.

Datenlandschaften gehören erweitert, sichere Zugänge gewährleistet

Immer bedeutender werden die sogenannten Digitalen Zwillinge oder auch Digital Twins. Dabei handelt es sich um digitale Nachbauten von physischen Objekten, Produkten und Services. Diese müssen in die Prozesslandschaften integriert werden, damit Simulationen und Forecasts rein digital stattfinden können – interessant ist dies beispielsweise für Produktentwicklung oder Qualitäts­management.

Die Daten als erfolgsentscheidendes Asset zu begreifen und entsprechend zu nutzen, bedeutet in der Konsequenz: Alle Mitarbeiter müssen im Sinne von Data Literacy (ein neu aufge­kommenes Buzzword) möglichst einfachen Zugang zu den Daten haben – und dies umso mehr an den Stellen, an denen sie Potenzial zu einem echten Mehrwert mitbringen. Das zu ermöglichen, zeigt sich als weiterer Treiber für Data & Analytics-Projekte.

Durch all dies zieht sich der effiziente und nachhaltige Schutz der Daten wie ein roter Faden. Dabei geht es sowohl um alltägliche Dinge wie Zugriffsrechte als auch um heikle Themen, Stichwort Cyber-Kriminalität. Hier stellt der Gesetzgeber teils klare Forderungen. Vor diesem Hintergrund sind deutlich strukturiertere Vorgehensweisen erforderlich, als sie bislang vielerorts praktiziert wurden.

Das gilt ganz speziell für das Umfeld von Data & Analytics, wo aus bloßen Daten wahre Daten­schätze entstehen und zu schützen sind. Gerade in Cloud-Umgebungen muss man genau hinsehen, wo genau und wie die Daten gespeichert werden und wer Zugriff darauf hat.

Datengetriebene Produkte und Services schüren Innovationskraft

Sah es noch vor einem Jahr n ganz anders aus, so werden heute bei uns viel mehr Add-Ons zu den Bestands­produkten, Erweiterungen zu bestehenden Devices oder auch Zusatzservices und Dienstleistungen nachgefragt. Dieser Trend zur Anbindung von Geräten zeigt sich auch im privaten Umfeld, wo sich mittlerweile der Kühlschrank, die Heizung, das Auto und anderes mehr problemlos mit dem Internet verbinden lassen.

Viele Unternehmen wollen darüber ihr bisheriges Business-Modell von Verkaufen auf Vermieten umstellen, um so neuen Marktanforderungen gerecht zu werden. Auch hier entstehen große Mengen an hochwertigen Daten, die in der Analytics-Welt gewinnbringend genutzt werden können. Ein Beispiel von vielen: In unseren Kundenprojekten nehmen wir verstärkt einen Trend zur Produktindividualisierung wahr.

Hierfür stehen die Organisationen jedoch vor der Herausforderung, möglichst genau zu wissen, an welcher Stelle sie mit der Individualisierung ansetzen können und inwieweit dies überhaupt lohnenswert ist. Die notwendigen Daten dafür liefern Data & Analytics.

Technologie wird zum Service

Es zeichnet sich ganz allgemein eine Entwicklung dahingehend ab, dass die technologischen Konzepte, die in den vergangenen zehn bis fünfzehn Jahren gut funktioniert haben, in unseren zunehmend dynamischen Zeiten an ihr Limit stoßen: Aktuelle Herausforderungen erfordern moderne und innovative Methoden und Werkzeuge. Unternehmen müssen daher konkrete Über­legungen über ihre künftige Ausrichtung anstellen.

In diesem Kontext wird Technologie zum Service. So gehen derzeit zwischen 70 und 80 Prozent aller neu begonnenen Projekte von QUNIS in Richtung Cloud-orientierter Nutzung von Services. Die Organisationen bauen nicht mehr inhouse Technologien auf, sondern verwenden teils komplette Softwarelösungen verschiedener Cloud-Anbieter als Managed Services. Dabei wird je nach Anwendungsfall sehr häufig auch auf hybride Architekturen gesetzt, bestehend aus der Kombination von Cloud- und On-Premise-Systemen.

Generell jedoch ist festzustellen, dass Cloud-Architekturen nicht mehr nur auf dem Vormarsch sind, sondern speziell in der Data & Analytics-Welt sogar überwiegen.

Oft nämlich könnten die Unternehmen die angebotenen Services gar nicht eigenständig betreiben, weil ihnen die erforder­lichen Ressourcen und das entsprechende Know-how für die teils sehr komplexen Technologien fehlen. War es beispielsweise in früheren Zeiten noch mit dem Aufbau eines kleinen Data Ware­houses getan, sind heute deutlich mehr Spezialtechnologien notwendig wie etwa Machine-Learning-Algorithmen.

Immer mehr Daten werden in zunehmend mehr Anwendungsfällen verarbeitet. Aufgrund dessen wird eine nochmals verbessere Usability für die Nutzer mit möglichst niedrigen Eintritts­hürden schlichtweg erfolgsentscheidend bei der Anwendung der unterschiedlichen Technologie­produkte.

Hier bewähren sich Business-Glossars und Data Catalogs, mit denen sich die zunehmenden Datenvolumina automatisiert ordnen und vereinheitlichen lassen. Metadaten-Management-Lösungen können dabei helfen, mit den Daten und modellierten Inhalten besser und unkomplizierter zu arbeiten.

Data & Analytics wächst und weitet sich aus

Branchenübergreifend zeigt sich, dass Organisationen fachlich gesehen mit immer heterogeneren Datenformaten umzugehen haben, um daraus ihre Erkenntnisse zu gewinnen. Dazu zählen im Kontext von Data & Analytics beispielsweise Sensordaten und Texte, aber auch Bild- und Audio-Material.

Gleichzeitig werden die Anwendungsfälle tendenziell businesskritischer. Bislang beispielsweise war ein kurzfristiger Ausfall des BI-Systems nicht sonderlich problematisch, weil es nicht direkt relevant für die operative Ebene war, sondern lediglich steuernd und informativ. Heute hingegen greifen wir hierüber in Echtzeit tief in die Prozesse hinein und generieren Erkenntnis­gewinne für die operative Steuerung etwa von Produktions- oder Logistikprozessen oder hinsichtlich der Up- und Cross-Selling-Potenziale von Webshops.

Zudem verzeichnen wir stetig komplexere Self-Service-Anforderungen. Die Nutzer möchten etwa nicht mehr nur schnell ein einfaches Dashboard selbst bauen. Sie fordern vielmehr techno­logische Strukturen, um über den Self-Service-Ansatz beispielsweise Massendaten selbstständig auswerten zu können. Da es ihnen hierbei jedoch an der jahrelangen Erfahrung echter Experten mangelt, entsteht entsprechender Anleitungsbedarf – dabei müssen Standardisierung und Harmoni­sierung natürlich jederzeit gewährleistet bleiben.

Wahl der Plattform wird zweitrangig

Bei der Wahl der Infrastruktur gibt es für Unternehmen verschiedene Optionen: On-Premise, Public Cloud in Form von PaaS und SaaS oder Container-Strategien. Häufig nutzen Unternehmen auch eine Multi-Cloud-Strategie mit mehr als nur einem Hyperscaler. Eine wichtige Rolle spielt hier die Portierbarkeit, damit zu jeder Zeit die Flexibilität erhalten bleibt, den Cloud-Anbieter gegebenenfalls problemlos wechseln zu können. Alternativ entscheiden Organisationen sich von vornherein für eine hybride Lösung aus Cloud und On-Premise.

Nicht zuletzt wird die Rolle von Open-Source-Technologie zunehmend bedeutender. In der klassischen BI-Welt weniger eingesetzt, kommt sie im Umfeld von Streaming, Big Data, Machine Learning sowie bei Prozessen auf Basis von Massendaten jetzt verstärkter zum Einsatz – mit dem Potenzial, den Markt nahezu zu dominieren.

Data Management Units zur Umsetzung Ihrer Datenarchitektur 

Das Thema Architektur und wie sich Architekturen verändern kann man derzeit als klaren Trend am Markt erkennen. In diesem Zusammenhang bieten wir bei QUNIS je nach der Zielsetzung, die Unternehmen mit ihrer jeweiligen Data & Analytics-Strategie verfolgen, sogenannte Data Management Units (DM Units) an. Diese bilden das Herzstück der Datenverarbeitung und -speicherung bei Data & Analytics-Initiativen.

Mit Self-Service-BI, Data Warehouse, Data Warehouse & Data Lake, Lakehouse und Streaming stehen insgesamt fünf DM Units mit einem jeweils unterschiedlichen Leistungsspektrum zur Verfügung.

Welche DM Unit für ein Unternehmen infrage kommt, hängt dabei immer von der Ausrichtung der künftigen Architektur ab. Die Entscheidung darüber sollte stets vorab getroffen werden, weil sich etwa die eher pragmatische Variante Self-Service-BI im Nachhinein nicht so schnell in ein komplexeres Lakehouse umwandeln lässt. Mit verschiedenen Add-Ons lassen sich die zentrale Datenspeicherung und -verarbeitung der DM Units modular um zusätzliche Funktionen erweitern. In jedem Fall notwendig sind Visualization & Reporting, Monitoring und Process Control, hinzu kommen optionale, teils kombinierbare Add-Ons wie beispielsweise für API, Virtualisierung oder Metadaten-Management wählbar.

Ihr Thema ist mit dabei? Sie haben sich und Ihre aktuellen Herausforderungen widererkannt und wünschen sich dafür Beratung und Begleitung von QUNIS und unseren Experten?

Sprechen Sie einfach Ihren QUNIS-Berater*in an oder schreiben Sie direkt eine E-Mail an team@qunis.de und verraten Sie uns ein wenig mehr zu Ihrer Motivation, Ihren Zielen und Vorhaben. Wir freuen uns auf den Austausch und die Diskussion mit Ihnen.