Archiv für die Kategorie Power BI

SENEC: Implementierung einer Data & Analytics-Plattform im Bereich Erneuerbare Energien

Erstellt am: Dienstag, 18. Juli 2023 von Anja Gorbach

SENEC gehört zu den führenden Solarstromspeicheranbietern in Deutschland. Zusammen mit QUNIS hat das Unternehmen mit vielfältigen Technologien ein Data Lakehouse aufgesetzt, das dem schnellen Firmenwachstum gerecht wird und BI- und IoT-Analysen in einer zentralen Datenplattform unterstützt.

Wegen des starken Wachstums haben wir uns entschlossen,
einen Modern Data Stack auf Basis von Microsoft Azure einzuführen,
um mit den steigenden Reporting- und Analyseanforderungen
Schritt zu halten.


Armin Geisler,
Team Lead Data and Analytics,
SENEC GmbH

Eine Plattform für alle Datenprodukte

SENEC entwickelt und produziert intelligente Speicherlösungen für die Nutzung von Sonnenenergie. Mit SENEC.360 bietet das Unternehmen Privathaushalten passgenaue Lösungen für die Eigenversorgung mit Solarstrom, von der PV-Anlage über den smarten Stromspeicher bis hin zur E-Ladestation. Das dynamische Unternehmen trifft mit seinem Angebot den Nerv der Zeit und verzeichnet ein exponentielles Wachstum.

Das vorhandene BI-System konnte der schnellen Unternehmensentwicklung nicht mehr folgen und auch der steigende Bedarf an Big-Data-Applikationen war mit individuell programmierten Lösungen nicht mehr zu bewältigen. Die Auswertung von Streaming-Daten aus IoT-Produkten, Feldtestanalysen auf Basis von Batteriedaten oder ML-Anwendungen wie Predictive Maintenance gehören zur wachsenden Zahl an Use Cases bei SENEC, die eine neue IT-Umgebung für Data & Analytics erforderten.

Ziel der neuen Datenplattform war, dass sie sowohl die klassischen Geschäftsanalysen im Finanz- und Fachbereichscontrolling als auch die Big-Data-Analysen unterstützt – mit der Möglichkeit der kombinierten Auswertung aller Datenformate in Dashboards für Geschäftsanalysen und die Unternehmenssteuerung. Die Plattform sollte als Modern Data Stack mit verschiedenen Tools und Technologien aufgesetzt werden und als Single Point of Truth für sämtliche Datenprodukte fungieren.

Mindset-Pitch für eine gute Zusammenarbeit

Im Rahmen einer Ausschreibung und auf Empfehlung aus dem Netzwerk des Teams kam QUNIS als Realisierungspartner ins Spiel. Katja Both, Head of Business Intelligence & Processes bei SENEC, integrierte mit einem Mindset-Check den ausschlaggebenden Bewertungsansatz der Pitches. Hintergrund ist die Überzeugung, dass die gute Zusammenarbeit mit dem Dienstleister – insbesondere auf operativer Ebene – entscheidend für den Projekterfolg ist. Katja Both erläutert: „Uns war wichtig herauszufinden, ob unsere Engineers und Analysten gut mit denen des Dienstleisters zusammenarbeiten können.

Am Ende haben unsere Mitarbeiter:innen entschieden, wer unser Projektpartner wird. Damit hatten wir von Beginn an ein ausgeprägtes Committment aller Beteiligten, entscheidend für die benötigte Geschwindigkeit in diesem schnellwachsenden Hypergrowth Umfeld. QUNIS bringt die richtige Mischung aus strategischem Vorgehen und Pragmatismus mit und passt auch mit seinem Mindset gut zu unserem Team.“

Agile Entwicklung am Testsystem

Einmal beschlossen, ging die Konzeption und Implementierung der komplexen Plattform zügig voran. Die Strategie für die neue IT-Architektur, die Systemkonzeption und Themen wie Data Governance und Security haben QUNIS und SENEC ab Mitte 2022 innerhalb von zwei Monaten definiert. Im Herbst 2022 startete die Implementierung der IT-Architektur.

Im März 2023 war die Datenplattform betriebsbereit. Schon während der Strategieentwicklung hat QUNIS eine temporäre Testinfrastruktur als vereinfachte Version des Zielsystems installiert, was zur schnellen Realisierung beitrug: Das Team konnte die Plattform auf diese Weise im agilen Prototyping auf und ausbauen und parallel bereits erste Anforderungen der Fachbereiche und der Geschäftsleitung umsetzen.

Data Lakehouse als Modern Data Stack

Als Modern Data Stack besteht die Cloud-basierte Plattform aus einer Vielzahl von Technologien und Tools für die Erfassung, Speicherung, Verarbeitung und Analyse von Daten.

  • Die IT-Architektur ist ein Data Lakehouse auf Basis von Azure Databricks, das Elemente eines Data Warehouse mit einem Data Lake in der zentralen Plattform kombiniert. Die mit einer Staging und Cleansing Area, dem Core und einem Data Mart angelegte Lakehouse-Architektur ist in der Lage, Funktionen von Streaming Analytics, BI und maschinellem Lernen auf einer einzigen Plattform bereitzustellen.
  • Als Datenquellen sind u.a. eine Time Series Datenbank, eine Log-Datenbank, diverse relationale Datenbanken, SharePoint und klassische Business Systeme wie ERP, CRM usw. eingebunden. Zur Integration und Orchestrierung der Daten sind die Open-Source-Lösungen Airbyte und Airflow auf Kubernetes im Einsatz, zur Transformation von Daten im Lakehouse die Open-Source-Software dbt. Mit der kontinuierlichen Umsetzung neuer Use Cases werden schrittweise weitere Datenquellen angebunden. Die Anwender greifen über Microsoft Power BI auf die aufbereiteten Daten zu.
  • Power BI ist als strategisches Frontend für alle User im Einsatz. Das vielseitige Frontend unterstützt und visualisiert verschiedenste Use Cases in den Bereichen Unternehmens- und Marktinformationen sowie Produkt- und Qualitätskontrolle. Derzeit arbeiten von rund 550 Mitarbeitenden in Leipzig ca. 150 Konsumenten und Power User mit der BI-Lösung. Die Anzahl von aktuell 10 Designern soll kontinuierlich erhöht werden.

Starkes Data & Analytics-Team

Das hohe Realisierungstempo verdankt SENEC auch der konsequenten Personalstrategie, mit der Katja Both Schub in das Thema Data & Analytics bringt. Erst im Jahr 2021 wurde die erste BI-Lösung im Unternehmen etabliert. Im Rahmen der aktuellen Implementierung ist das BI-Team innerhalb weniger Monate zum Bereich Data & Analytics mit BI-Experten, Data Analysts, Data Engineers und Data Scientists angewachsen.

Das Team unterstützt und befähigt die Fachbereiche durch Self-Services, Trainings und Standards. Katja Both erläutert: „Durch die Herausbildung von dezentralen Daten-Experten erreichen wir eine hohe Autonomie in den Fachbereichen und werden damit dem starken Unternehmenswachstum gerecht.“

Bei der Implementierung sorgten der Einsatz von Best Practices und Frameworks, die umfangreiche Projekterfahrung von QUNIS und der permanente Know-how-Transfer zu SENEC für effiziente Projektschritte und schnelle Erfolge. Während das Thema Data & Analytics seinen Projektcharakter zunehmend verliert und in eine Linienfunktion übergeht, wird SENEC die Weiterentwicklung der Plattform künftig intern mit eigenen Experten vorantreiben.

Hoch skalierbare Datenplattform

  • Das Ziel der Implementierung ist erreicht: Der Modern Data Stack erfüllt alle Anforderungen an fortgeschrittene Datenanalysen im Bereich BI, KI und ML.
  • Von strukturierten Finanzdaten bis zu Streaming-Daten stehen unterschiedlichste Datenarten in einem zentralen Speicher für flexible Auswertungen bereit. Die hohe Systemperformance sorgt dabei für schnelle Analysen bei umfangreichem Datenvolumen.
  • Die Projektverantwortlichen heben zudem die Validität der Daten hervor. Die Herkunft und Verarbeitung von Kennzahlen ist nachvollziehbar und glaubwürdig, was das Vertrauen in die Plattform stärkt und hohe Nutzungsraten im gesamten Unternehmen fördert. Der Projektleiter Armin Geisler hält fest: „Wir gewinnen tiefere Insights für Geschäftsanalysen sowie Entscheidungen und einige Use Cases sind mit der leistungsstarken Plattform überhaupt erst möglich geworden.“
  • Lisa-Marie Krause, als Senior Data Engineer im Projekt verantwortlich für die technische Entwicklung, beschreibt den Status der IT-Umgebung zum Zeitpunkt der Inbetriebnahme: „Mit der Datenplattform steht das Gerüst. Wir haben Richtfest gefeiert und können jetzt in hoher Geschwindigkeit neue Use Cases für die Datenanalyse umsetzen.“
  • Die hohe Taktzahl bei der Skalierung ist notwendig, denn aus dem gesamten Unternehmen kommen vielfältige Anfragen nach Use Cases im Umfeld von BI, KI und ML. Ein wesentliches Ziel der zentralen Plattform ist, künftig mehr Datenkompetenz in der Breite im Unternehmen zu verankern. Auch Armin Geisler nennt die Generierung neuer Use Cases mit schnellem Time-to-Market als wesentlichen Mehrwert: „Wir haben im Bereich Data & Analytics deutlich an technischer und fachlicher Skalierbarkeit gewonnen.“

Auf Basis der Single Source of Truth sollen die Fachbereiche künftig ihre Reports selbst aufbauen können – auch damit wird der fachliche Ausbau beschleunigt und im gesamten Unternehmen vorangetrieben.

Mehr zu SENEC: Seit 2009 entwickelt die SENEC GmbH in Leipzig intelligente Stromspeichersysteme und speicherbasierte Energielösungen. Mit SENEC.360 bietet das Unternehmen ein abgestimmtes Ökosystem zur nachhaltigen Rundum-Eigenversorgung, unter anderem bestehend aus Stromspeicher (SENEC. Home), Solarmodulen (SENEC.Solar), virtuellem Stromkonto (SENEC.Cloud) sowie E-Auto Ladestation (SENEC.Wallbox). Die Marke SENEC zählt inzwischen europaweit zu den führenden Anbietern für innovative Energie- und Speicherlösungen rund um Einfamilienhäuser – mit mehr als 120.000 verkauften Systemen und einem Beratungsnetzwerk von über 1.200 Fachpartnern. Seit 2018 ist die SENEC GmbH eine 100 %-ige Tochtergesellschaft der EnBW Energie Baden-Württemberg AG und beschäftigt über 570 Mitarbeiter*innen an den Standorten Leipzig und Köln sowie in Italien und Australien. Mehr Informationen: www.senec.com

Mehr zu QUNIS ImplementierungQUNIS Implementierung

MEDIA Central Group: Moderne Prozesse und neue Geschäftsmodelle

Erstellt am: Dienstag, 20. Juni 2023 von Anja Gorbach

Die MEDIA Central Group ist der ganzheitliche Lösungsanbieter für 360°-Angebotskommunikation. Auf Basis branchenweit einzigartiger Daten, eigener Expertise in der Datenanalyse sowie eines spezialisierten Netzwerks bietet die Firmengruppe maßgeschneiderte Lösungen für die cross-mediale Angebotskommunikation. Zusammen mit QUNIS etabliert die MEDIA Central Group eine gruppenweite Datenplattform, die immer mehr datengetriebene Entscheidungen, optimierte Prozesse und innovative Geschäftsmodell ermöglicht.

Statt im extrem dynamischen Technologieumfeld selbst lange Lernkurven
oder mögliche Sackgassen in Kauf zu nehmen, nutzen wir die langjährige
Projekterfahrung und den tiefen Einblick in die Produktstrategien der
Softwarehersteller, die QUNIS uns bietet.

 

Rafael de Brito
Head of Corporate IT
MEDIA Central Group

QUNIS begleitet die digitale Transformation

Als Spezialist für haptische Angebotskommunikation steuert MEDIA Central über 15 Milliarden Prospekte jährlich, dazu kommen Anzeigen, Print-Mailings, Out-of-Home- und Radio/TV-Werbung sowie immer mehr digitale Kanäle. Das Kunden-Portfolio umfasst mehr als 100 international tätige Unternehmen aller Branchen, darunter den Großteil des deutschen Einzelhandels. Die gezielte Auswahl der passenden Kanäle, der Werbeformen, Reichweiten und Zeitpunkte basiert zunehmend auf automatisierten Analysen und datengetriebenen Entscheidungen. Mit der Offerista Group, dem europaweit führenden Experten für digitale Angebotskommunikation, dem Data-Science-Spezialisten Yagora und der europaweit führenden Drive-to-Store Technologieplattform ShopFully sind dabei in den letzten Jahren drei ausgewiesene Digitalisierungsexperten zur Unternehmensgruppe gestoßen.

Die konsequent vorangetriebene digitale Transformation ist der wesentliche Erfolgsfaktor der wachsenden Unternehmensgruppe. Rafael de Brito, Head of Corporate IT der MEDIA Central Group, sieht darin zugleich auch eine zentrale Herausforderung:

Den Wandel zum datengetriebenen Unternehmen gezielt, effizient und mit nachhaltigem Erfolg zu steuern, erfordert in der dynamischen Branche des Unternehmens und bei rapider technologischer Entwicklung einen soliden strategischen Plan – und darüber hinaus die kompetente Beurteilung neuer Situationen, die sich zwangsläufig im disruptiven Markt- und Technologie-Umfeld immer wieder ergeben.

Organisationale Ambidextrie als Leitfaden der Transformation

Das Schlüsselwort der erfolgreichen digitalen Transformation lautet für Rafael de Brito „Organisationale Ambidextrie“: die Fähigkeit von Organisationen, gleichzeitig effizient und flexibel zu sein. Im betriebswirtschaftlichen Umfeld ist damit die Balance zwischen effizienter Nutzung des Bestehenden (Exploitation) und der Erkundung von Neuem (Exploration) gemeint.

Vorhandene Systeme und Prozesse zu vernachlässigen und sich kopflos in neue Technologien und Methoden zu stürzen, kann natürlich nicht der richtige Weg sein. Im komplexen und dynamischen Entwicklungsumfeld immer den Überblick zu behalten, richtungsweisende Entscheidungen zu treffen und diese dann kompakt umzusetzen, ist jedoch für die internen IT- und Digitalisierungsexperten neben ihrem Tagesgeschäft schier unmöglich.

Gerade weil die MEDIA Central Group hoch spezialisierte Digitalisierungsexperten und Data Scientists im Haus hat, können diese die Situation gut beurteilen und wissen, an welcher Stelle man sich komplementäres Know-how von außen dazu holen sollte, weil in diesem Falle „buy“ statt „make“ effektiver und ökonomischer ist. Die MEDIA Central Group setzt daher auf die Zusammenarbeit mit QUNIS. Der Spezialist für Data & Analytics begleitet die digitale Transformation des Unternehmens seit dem Jahr 2018 als Beratungs- und Implementierungspartner.

Rafael de Brito erklärt: „Statt im extrem dynamischen Technologieumfeld selbst lange Lernkurven oder mögliche Sackgassen in Kauf zu nehmen, nutzen wir die langjährige Projekterfahrung und den tiefen Einblick in die Produktstrategien der Softwarehersteller, die QUNIS uns bietet. Das bedeutet für uns strategisch gut untermauerte Projekte, effektive Implementierung und Best Practices für sichere Projekterfolge.“ Sein anschaulicher Schluss lautet: „So wie wir die Firmenfahrzeuge unserer Außendienstmitarbeiter weder selber bauen noch reparieren, so handhaben wir es auch mit dem Data Warehouse. Unsere Kernkompetenz liegt darin, die Technik zu nutzen, nicht das Rad neu zu erfinden.“

Komplettbegleitung in allen Fragen von Data & Analytics

QUNIS kam vor allem als Partner für die Infrastruktur und Prozesse eines gruppenweiten Data Warehouse ins Spiel, das nach allen Richtungen offen und skalierbar für beliebige Datenquellen und Use Cases angelegt wurde. Heute schätzt Rafael de Brito die umfassende Begleitung auf allen Ebenen von Data & Analytics: von der Strategie, dem DWH-Ausbau, BI- und Reporting mit Auswahl, Design und Schulung des Frontends, Anbindung von Datenquellen samt Schnittstellenprogrammierung bis hin zum smarten Aufbau von Datenmodellen aus wirtschaftlicher Sicht. Besonders effizient er die Zusammenarbeit durch die strukturierte und direkte Kommunikation:

“Wir nutzen QUNIS als verlängerte Werkbank. Für das Projektmanagement und die Abwicklung von Anforderungen müssen wir kaum Zeit und Ressourcen aufbringen, da verlassen wir uns auf unsere vorausschauende QUNIS-Beraterin.“ Auch den Wissenstransfer bei der Erstellung von Reports und der Nutzung des DWH nennt Rafael de Brito als Vorteil der Zusammenarbeit. So kann sich das interne Team schnell eigenes Know-how aneignen und im Unternehmen weitergeben.

Im Bereich des eingesetzten Frontends Power BI beispielsweise hat MEDIA Central heute eigene Experten für den Berichtsaufbau, profitiert aber weiterhin von der Beratung der QUNIS-Spezialisten und nimmt nach Bedarf sehr individuelle Schulungen für ausgewählte Nutzergruppen in Anspruch. Derzeit klärt das Projektteam zudem gemeinsam die Frage, ob die Datenmodellierung in Data Marts oder Data Sets die bessere Alternative für künftige Auswertungen in Power BI ist.

Immer mehr Daten erschließen

Eine wichtige Aufgabe von QUNS ist die kontinuierliche Einbindung interner und externer Datenquellen in die zentrale Plattform. Das betrifft zum einen verschiedene Themen- und Fachbereiche, die in den Datenpool eingegliedert werden. Aber auch bei der Integration neuer Gesellschaften in die wachsende Firmengruppe verfolgt die MEDIA Central Group das Ziel, dass die vorhandenen Systemlandschaften bestehen bleiben und die benötigten Daten in die zentrale Plattform überspielen. Also kein Umbau der wachsenden heterogenen Systemlandschaft, sondern ein neu entstehender zentraler Datenlayer, der Informationen aus diversen Quellen integriert und harmonisiert zur Auswertung – auch wiederum für die neuen Gesellschaften – bereitstellt. Den Kern-Anwendungsbereich bilden dabei die gruppenübergreifenden Finanzauswertungen.

So ist eine schnelle Eingliederung in die Firmengruppe möglich, ohne den laufenden Systembetrieb neu hinzukommender Gesellschaften zu stören. QUNIS übernimmt die Schnittstellenintegration, die Definition der Aufbereitung der Daten und die Edition der Lade- und Qualitätsprüfungsprozesse beim Datenload. Für das Finanzreporting und erweiterte Analysen in alle operativen Bereiche wurden bisher u.a. diverse ERP-Systeme der Tochtergesellschaften, das FiBu-System, ein DMS, das Geoinformationssystem, QS/QM-Daten sowie zugekaufte Marktdaten angeschlossen.

Gemeinsam die Komplexität und Dynamik erfolgreich meistern

In enger Zusammenarbeit sorgt das Projektteam für den kontinuierlichen Ausbau der Datenplattform und die organisatorische Verankerung der damit zusammenhängenden Prozesse. Für neue Datenquellen und Use Cases ist die skalierbare Daten- und Systemarchitektur dabei jederzeit offen. Rafael de Brito bringt den entscheidenden Mehrwert der Data & Analytics-Plattform auf den Punkt:

„Wir wollen einen Datenschatz aufbauen und neue Insights generieren, von denen sowohl unsere internen Prozesse und Geschäftsmodelle als auch unsere Kunden und Lieferanten profitieren.“

Für die Kunden bedeutet mehr Wissen ein sehr gezieltes Marketing mit genauen Erfolgskontrollen. Das gilt auch für die analogen Werbeformen wie die klassischen Papier-Prospekte. Umfangreiche Datenanalysen sorgen dafür, dass die logistische Steuerung der Prospekte punktgenau mithilfe von Geo-soziologischen und -ökonomische Analysen oder finanziellen Erfolgskontrollen erfolgt. Die Ergebnisse samt Umsatzanalysen können die Kunden u.a. in einem Qualitätsportal nachvollziehen.

Erfolgsgesteuerte selektive Werbung statt mit der Gießkanne, budget- und ressourcenschonend sowie transparent bis hin zu den Kunden und Lieferanten – die smarte Prospektsteuerung ist nur ein Beispiel für optimierte Angebote durch „data driven decisions“. Die MEDIA Central Group wird ihre datengetriebenen Geschäftsmodelle gezielt und kreativ weiter ausbauen. Dass QUNIS dafür der richtige Beratungs- und Implementierungspartner ist, steht für Rafael de Brito fest: QUNIS trägt wesentlich dazu bei, dass wir die Komplexität und Dynamik der digitalen Transformation der MEDIA Central Group erfolgreich meistern.“

Mehr zu MEDIA Central Group: Starke Marken für starke Kommunikationslösungen: Die MEDIA Central Group ist der ganzheitliche Lösungsanbieter für 360°-Angebotskommunikation. Auf Basis branchenweit einzigartiger Geo-Daten und der eigenen Expertise in der Datenanalyse erkennt die MEDIA Central Group übergeordnete Zusammenhänge und bietet Kunden maßgeschneiderte Empfehlungen für erfolgreiche Handelskommunikation. Die MEDIA Central Group versteht sich als Reichweitenmanager und bringt die Werbebotschaft ihrer Kunden zur richtigen Zeit zur richtigen Zielgruppe.

Die Gruppe vereint unter ihrem Dach den marktführenden Spezialisten für haptische Angebotskommunikation MEDIA Central, die europaweit führende Drive-to-Store Technologieplattform ShopFully, die europaweit führenden Experten für digitale Angebotskommunikation Offerista Group, die Data-Science-Experten für den Moment der Kaufentscheidung Yagora sowie die Auslandsgesellschaften MC Tschechien und MC Polen. Als Marktführer in der unadressierten Haushaltswerbung steuert MEDIA Central jährlich über 15 Milliarden Prospekte. Die Offerista Group ist Europas größtes Netzwerk für digitales Handelsmarketing und bündelt im eigenen Native Network über 1.400 Plattformen und Reichweitenpartner. Als Experten für den Moment der Kaufentscheidung analysiert und optimiert die Yagora Maßnahmen im Bereich Shopper Marketing und ermöglicht so die Steigerung der POS-Performance. Die Gruppe ist mit über 900 Mitarbeitenden an 21 Standorten vertreten und betreut heute Kunden in über 30 Ländern aus allen Branchen. Mehr Informationen: . https://corporate.media-central.de/

Mehr zu QUNIS StrategieberatungQUNIS Strategie

Microsoft Fabric – Data Driven in einer Technologie 

Erstellt am: Donnerstag, 1. Juni 2023 von Monika Düsterhöft

Microsofts konsequente Reise hin zur Datendemokratisierung 

Letzte Woche hat Microsoft auf der “Build-Konferenz” einige Neuerungen vorgestellt. Unsere Data & Analytics Ohren sind dabei natürlich insbesondere bei dem Thema “Microsoft Fabric” hellhörig geworden. Seitdem ist ein bisschen Zeit vergangen, die wir genutzt haben, das Neue von Microsoft einmal intern in unseren Innovation Labs und mit unseren Kunden zusammen genauer unter die Lupe zu nehmen. 

Alles unter einem Dach

Mit Microsoft Fabric wiederholt Microsoft sein Power BI-Erfolgsrezept und bündelt eine ganze Palette an Werkzeugen, auch aus dem Datenmanagement Bereich, unter einem neuen Dach. Das Dach heißt Microsoft Fabric.

Die Werkzeuge umfassen alles, was das Data (& Science)-Herz begehrt:  Data Integration, Data Engineering, Data Warehousing, Data Science, Real Time Analytics und Power BI selbst. Dabei sind die meisten Funktionen, die sich hinter diesen Diensten verbergen, nicht komplett neu in Azure, so ist in der Fabric Data Integration ein großes Stück Azure Data Factory zu finden, und auch das Data Engineering Feature hat die Besten Stücke rund um die serverless Spark Pools in Azure Synapse erhalten. 

Was auffällt ist die Einfachheit, mit der es Microsoft gelungen ist, all die Dienste im neuen Haus unterzubringen.

Das gelingt insbesondere durch zwei konsequent verfolgte Prinzipien:

  • SaaS überall! Der Fokus bei Microsoft Fabric ist auf Software-as-a-Service (SaaS) ausgelegt. Das heißt: Kein händisches verwalten von Servern! 
  • Ein gemeinsamer Standard: Onelake & Delta Lake. Alle Daten in Microsoft Fabric (ja, auch die im „Warehousing“ Bereich), werden in Onelake als Delta Tabellen gespeichert. Das ermöglicht den nahtlosen Wechsel von Werkzeugen in Microsoft Fabric basierend auf dem immer gleichen Daten & Zugriffen, die durch Onelake sichergestellt werden. Wir hoffen in Zukunft auch noch auf die Unterstützung von Iceberg. 

Neben der ganzen Nutzerfreundlichkeit und Einfachheit mit der Microsoft die Dienste im Fabric bündelt, gibt es zudem ein paar handfeste technologische Neuerungen:  

Mit „Direct Lake“ ist es nun möglich Dateien auf dem Lake aus Power BI abzufragen, OHNE dass wir zusätzlichen Compute wie z.B. Synapse Serverless benötigen oder etwa die Datasets regelmäßig aktualisieren müssen, um ein maximal performantes Nutzererlebnis durch importierte In-memory-Daten zu ermöglichen. Etwas ähnliches hat Tableau & Databricks über Delta Share zwar schon vor zwei Jahren angekündigt (Link), allerdings ist die Funktion bis heute nicht öffentlich verfügbar. Danke Microsoft für dieses Schmankerl! 

Auch Onelake fällt in eine Box, für die wir in unserem Beraterlager noch gar kein Label haben: Während Onelake viele aus dem Azure Data Lake Store Gen 2 (ADLS Gen 2) bekannte Funktionen mitbringt, hat auch hier Microsoft nochmal einen draufgesetzt: Es ist nun möglich mit dem altbekannten „abfss“-Treiber über OneLake nicht nur auf Daten in der Azure Cloud zuzugreifen und den Zugriff zu steuern, sondern sogar verbundene S3 Buckets können abgefragt werden. Für Abfragewerkzeuge innerhalb des Fabrics ist zusätzlich auch Row- und Columnlevel Security angekündigt. Das dies nur innerhalb des Fabrics funktioniert ist zwar schade, aber aus technischer Sicht absolut nachvollziehbar. 

Mit Fabric entwickelt sich Microsoft in die absolut richtige Richtung

Die Einfachheit mit dem Microsoft es schafft die Komplexität aus den verschiedensten Data Domänen zusammenzubringen hat uns wirklich beeindruckt. Damit rücken insbesondere alle Themen rund um Data Engineering ein gutes Stück näher an den Großteil der Datennutzer in Unternehmen. Und während das natürlich keine Ausrede für unsauberes Datenmanagement ist, kann Transparenz und Einfachheit gerade im Bereich Daten gar nicht hoch genug bewertet werden. 

Early Adopters aufgepasst: Aktuell gibt es noch viele Features die zwar angekündigt, allerdings aktuell noch nicht verfügbar sind. Das fällt uns bei der No-code-Komponente Data Activator deutlich einfacher als mit der fehlenden Zugriffssteuerung auf Tabellenebene.  

Unser Tipp: Wenn Sie mehr über Fabric wissen wollen, folgen Sie uns auf LinkedIn und Xing oder abonnieren Sie einfach unseren Newsletter. Wir bleiben an der Fabric dran und halten Sie über unsere Erkenntnisse und Learnings informiert.

Zusammenspiel von Self Service- und Enterprise BI

Erstellt am: Freitag, 9. September 2022 von Monika Düsterhöft

BI-Werkzeuge punkten mit Benutzerfreundlichkeit im Frontend und Funktionalitäten für das Datenmanagement 

Der Siegeszug der Self Service-BI (SSBI), der in den letzten fünf Jahren verstärkt zu beobachten ist, lässt sich nicht zuletzt mit den in dieser Zeit auf den Markt drängenden neuen benutzerfreundlichen und skalierbaren BI-Werkzeugen in Verbindung bringen.

Diese umfassen in der Regel nicht nur ein schickes Frontend sondern auch Funktionen zur Erledigung einfacher Datenmanagementaufgaben. Sie erlauben es Nutzern selbstständig verschiedene Datenquellen zu verbinden, lokale Daten aus Excel-Dokumenten im Visualisierungstool zu integrieren oder Daten direkt aus dem Internet heraus anzuzapfen und so Unternehmensdaten einfach und schnell sowie weitgehend unabhängig von der IT-Abteilung auszuwerten.

Wenig verwunderlich nennen die Teilnehmer der aktuellen Studie von the factlights als ihre Top-3-Anwendungsfälle von SSBI die schnelle und individuelle Anpassung von Visualisierungen, die Abdeckung von zusätzlichen Informationen aufgrund von Individualbedarfen sowie die Zusammenführung von Daten aus mehreren Quellen.

Dabei wird SSBI von den Befragten nicht als eine ausschließliche Lösung, sondern vielmehr als integraler Bestandteil einer modernen Datenarchitektur verstanden. 9 von 10 der Befragten gaben an, ein Data Warehouse im Einsatz zu haben.

Clevere Kombination aus SSBI und Data Warehouse

Im Hinblick auf den verwendeten Technologie-Stack und das damit realisierte Zusammenspiel von SSBI und einem Data Warehouse lassen sich bei den Befragten vor allem drei verschiedene Architekturen identifizieren:

1. SSBI eigenständig, mit anderem Technologie-Stack als Enterprise BI

SSBI wird als eigenständige Lösung parallel zum Data Warehouse / Lakehouse betrieben. Als Datenbasis dienen vom Fachbereich erstellte und verwaltete Datenbanken. Das BI-Frontend-Tool orientiert sich nicht an den unternehmensweiten Vorgaben. Die SSBI Lösung läuft damit autark vom zentralen und qualitätsgesicherten Data Warehouse / Lakehouse sowie weitestgehend unkoordiniert.

2. SSBI eigenständig, mit gleichem Technologie-Stack wie Enterprise BI

SSBI wird als eigenständige Lösung parallel zum Data Warehouse / Lakehouse betrieben. Als Datenbasis dienen vom Fachbereich erstellte und verwaltete Datenbanken. Als Technologie wird das unternehmensweit verabschiedete BI-Frontend-Tool verwendet. Obwohl die SSBI Lösung nicht auf dem zentralen und qualitätsgesicherten Data Warehouse / Lakehouse aufsetzt, werden möglichst viele Synergien verwendet und SSBI in koordinierter Art und Weise betrieben.

3. SSBI aufbauend auf dem Data Warehouse / Lakehouse

Architektonisch und technologisch ist SSBI vollständig in die Architektur integriert. SSBI baut auf dem vorhandenen Data Warehouse / Lakehouse auf und verwendet dessen qualitätsgesicherte Datenbasis. Zusätzlich besteht die Möglichkeit, externe Daten zu ergänzen und diese zusammen mit den Daten des Data Warehouse / Lakehouse zu verwenden. Als Technologie wird das unternehmensweit verabschiedete BI-Frontend-Tool verwendet.

Nachhaltigen Erfolg bringt SSBI, wenn es nicht als Silo aufgebaut wird 

Die drittgenannte Architektur-Variante versteht die SSBI-Lösung nicht als technologisch eigenständig, sondern setzt diese sozusagen als „Disziplin“ auf ein bestehendes Data Warehouse auf. Sie verwendet Technologien, die sich in die Gesamtarchitektur einfügen. Diese Architektur ist vor allem beim Reifegrad der Frontrunner verbreitet und gilt damit als am erfolgreichsten. Zudem stellt the factlights fest, dass Anwender zufriedener sind, je integrativer SSBI in der Gesamtarchitektur umgesetzt ist.

Als probates Beispiel, wie mit einer SSBI-Lösung gestartet und diese zu einer integrierten Lösung weiterentwickelt werden kann, gilt der QUNIS-Ansatz der Scalable Self-Service BI.

Mein Tipp: Noch mehr Learnings, Extra Notes zu Organisation und Rollen sowie viele spannende Info-Grafiken und Tool-Steckbriefe zu Microsoft Power BI und zur SAP Analytics Cloud (SAC) finden Sie in der the factlights Studie „ Self Service BI – Agilität für den Fachbereich“.  STUDIE KOSTENFREI HOLEN

BOGNER: E-Commerce-Reporting in wenigen Wochen implementiert

Erstellt am: Dienstag, 22. Juni 2021 von Monika Düsterhöft

Die Sports Fashion Brand BOGNER setzt seit 1932 Maßstäbe für exklusive Sportmode. Neben dem globalen stationären Handel nimmt der Online-Shop bogner.com einen immer größeren Stellenwert ein. Für den E-Commerce-Bereich hat BOGNER mithilfe eines kompakten Projektmodells von QUNIS in kürzester Zeit ein individuelles, skalierbares Reporting aufgesetzt.

Mit dem Ansatz der Scalable Self Service BI von QUNIS konnten wir zügig und mit wenig Aufwand unser individuelles, jederzeit erweiterbares Reportingsystem implementieren. Power BI ermöglicht es uns dabei, sehr schnell aus verschiedenen Quellen Zahlen zusammenzuführen und direkt einen Look & Feel für Berichte zu generieren.


Florian Felber,
Director Head of Analytics & BI Systems
im Group Accounting bei BOGNER 

Ablöse des Excel-basierten Reportings gewünscht

BOGNER ist mit den Marken BOGNER Sport, BOGNER Fashion, FIRE+ICE sowie BOGNER Kids und Lizenzen weltweit vertreten. Für den wachsenden E-Commerce Bereich hat das BOGNER Headquarter in München ein neues OMS (Order Management System) eingeführt. In diesem Zuge sollte auch das Excel-basierte Reporting durch eine moderne BI-Lösung ersetzt werden, die neben den klassischen Umsatzkontrollen auch branchenspezifische Channel-Analysen unterstützt.

Der Finanzbereich von BOGNER wünschte sich eine schnell umsetzbare Lösung, die intern gesteuert und nach Bedarf ausgebaut werden kann. Dieser Vorstellung kam das Vorgehensmodell der Scalable Self Service BI für Microsoft Power BI von QUNIS sowohl technologisch als auch konzeptionell optimal entgegen. Mit dem Konzept von QUNIS sahen die Projektverantwortlichen die Möglichkeit, ihre Applikation sicher und zügig zu implementieren und selbstständig weiter zu entwickeln.

Kompaktes Coaching-Projekt

Gemäß des standardisierten Vorgehensmodells von QUNIS startete das Projekt mit einem halbtägigen Analyseworkshop zur Klärung von Anforderungen und Aufwand. Für BOGNER stand fest, dass der Projekttyp mit Coaching-Ansatz und möglichst viel Eigenleistung die richtige Wahl ist.

Die Entwicklung in Power BI startete Anfang Oktober 2020 auf einem separaten Testserver. Mit der Hilfe eines QUNIS-Beraters arbeitete das Team von BOGNER sich in die Anbindung von Datenquellen, die Datenmodellierung und die Erstellung von Reports ein. Bereits im Dezember 2020 konnte das Reporting in Betrieb genommen werden, und zwischen Januar und April 2021 wurden weitere Detailfragen mit dem QUNIS-Berater geklärt.

Bis April 2021 waren sieben der angesetzten zehn Beratertage in Anspruch genommen und zugleich bereits 90 Prozent der BI-Entwicklung bei BOGNER intern angesiedelt. Florian Felber, Head of Analytics & BI Systems im Group Accounting bei BOGNER, hält fest: „Wir haben hervorragend mit QUNIS zusammengearbeitet. Der Wissenstransfer hat bestens funktioniert und wir hatten sehr interessante und fruchtbare Workshop-Tage“

Als wesentlichen Erfolgsfaktor sehen die Entwicklungspartner die Teamzusammenstellung: Bei BOGNER standen ein Projektleiter, zwei BI-Experten für die Entwicklung von Datenmodellen und Reports sowie zwei Fachanwenderinnen aus den Bereichen Controlling und E-Commerce für das Projekt bereit. Auch die Terminierung der Workshops, die jeweils ausreichend Zeit für interne Vorbereitung und Abstimmung ließ, war aus Sicht des Projektteams zielgenau.

Individuelles Sales-Reporting

Die Anbindung von Datenquellen und der Entwurf von Berichten wurden direkt in Power BI umgesetzt. Power BI enthält zahlreiche Konnektoren zur Einbindung von On-Premises- oder Cloud-Datenquellen. Über den firmenweiten Data Lake von BOGNER hat das Team u.a. Vertriebsinformationen aus dem E-Commerce-System, historische Werte aus Microsoft AX, tagesaktuelle Währungskurse aus SAP, Plandaten aus Excel sowie Stammdaten aus dem CRM-System integriert und damit eine konsistente Core Access Ebene aufgebaut. Florian Felber erklärt: „Power BI ermöglicht es, sehr schnell aus verschiedenen Quellen Zahlen zusammenzuführen und direkt einen Look & Feel für Berichte zu generieren.“

Mit dem flexiblen BI-Frontend konnte das Team auch die gewünschten Reports und Dashboards in kurzer Zeit selbst erstellen. Fachlich stehen die Verkaufszahlen aus dem E-Commerce-Bereich im Fokus. Das Monatsreporting zeigt Umsatz- und Bestandsinformationen im E-Commerce-Bereich, gegliedert nach Divisions, inklusive Vorjahres- und Planabgleichen sowie Finanzkennzahlen.

Wichtige Auswertungen sind beispielsweise eine Bestenliste, Nachfrage-, Retouren- und Stornoraten, Warenkorbanalysen und die Ermittlung von Margen und Benchmarks. Als branchenspezifische Besonderheit sind bei den Auswertungen saisonale Logiken bzw. die regelmäßigen Erscheinungstermine neuer Kollektionen berücksichtigt. Das internationale Reporting ist in Englisch gehalten und wird jeweils auf Basis aktueller Währungskurse kalkuliert

Mobile Self-Service-BI

Die Nutzer in den USA und Europa greifen über die Power BI App auf die Cloud-Berichte zu. Die Datensicherheit wird dabei über das Power BI Gateway gewährleistet. Das Modul ermöglicht u.a. die zentrale Definition eines firmenweiten Berechtigungskonzepts und die einfache Verwaltung von Rollen und Zugriffsrechten. Derzeit sind das Group Accounting und Controlling, das Digital-Team und der Logistik-Partner von BOGNER als Nutzer eingebunden.

Die Anwender rufen die Reports je nach Vorlieben beispielsweise auf dem Smartphone oder Tablet, als App in Microsoft Teams oder als Excel Export ab. Das Nutzerszenario lässt sich über das Cloud-basierte Frontend schnell und kostengünstig anpassen und erweitern. Das internationale Rollout des Reportings war somit einfach umzusetzen, und auch neue Anwender können jederzeit nach Bedarf hinzugefügt werden.

Enterprise Data Warehouse

Ein wichtiger Aspekt der Scalable Self Service BI ist das strukturierte Datenmanagement. Die an den Enterprise Data Warehouse-Projekten von QUNIS ausgerichtete Datenmodellierung sorgt für klar definierte, skalierbare Datenmodelle und automatisierte Backend-Prozesse. Die standardisierte Reporting-Applikation kann im Nachgang jederzeit in eine vorhandene oder anvisierte Data-Warehouse-Architektur eingegliedert werden.

Hier liegt für das Projektteam von BOGNER einer der zentralen Vorteile des QUNIS-Konzepts: Der Finanzbereich plant sukzessive ein umfassendes Data Warehouse aufzubauen, um damit die heterogene IT-Landschaft verschiedener Geschäftsbereiche zu vereinheitlichen und eine Konzernsicht im hohen Detailgrad zu erstellen.

Bei BOGNER war das Reporting-Projekt Teil einer umfangreichen E-Commerce-Initiative samt Wechsel des Order Management Systems. Prozesse, Kennzahlen, Reports und das Datenmanagement wurden auch vor diesem Hintergrund stets bereichsübergreifend definiert und gut dokumentiert. Eine unternehmensweite Data Governance und eine übergreifende Datenkultur bilden hier beste Voraussetzungen für den sukzessiven Ausbau des E-Commerce-Reportings hin zu einem umfassenden Konzernreporting

Nachhaltige Berichtsplattform

Mit der einfach zu bedienenden Self-Service-BI-Applikation steht den Berichtsempfänger bei BOGNER nun ein dynamisches Reporting für die E-Commerce-Umsätze zur Verfügung. Der Scalable Self-Service BI-Ansatz hat sich dabei als ideale Projektmethode bewährt. Florian Felber sieht diese Vorgehensweise als guten Weg, sehr schnell und ohne großen Aufwand neue Projekte anzugehen.

Standardisierte Strukturen wie Datenmodelle und Logiken werden dann im zweiten Schritt in das Enterprise Data Warehouse übertragen, falls sie sich in der Praxis bewährt haben bzw. entsprechend angepasst wurden.

BOGNER will künftig Schritt für Schritt sein komplettes Konzernreporting in Power BI abbilden und in diesem Zuge ein nachhaltiges und gut zu pflegendes Financial Data Warehouse aufbauen. Die selbstständige Systemadministration und Entwicklung ist dabei für BOGNER ein wesentlicher Pluspunkt der Scalable Self Service BI

Mehr zu BOGNER: Die Willy Bogner GmbH & Co. KGaA mit Hauptsitz in München ist ein international erfolgreiches Lifestyle-Unternehmen und führende Anbieter von exklusiver Sportmode, luxuriöser Sportswear und Designermode. Das Unternehmen tritt in über 50 Ländern mit den Marken BOGNER (Woman, Man, Sport, Kids) und FIRE+ICE sowie Lizenzen auf. Das seit 1932 bestehende Unternehmen wird von Gerrit Schneider und Heinz Hackl geführt, Eigentümer ist Willy Bogner, vertreten durch den Treuhänder Arndt Geiwitz.

Mehr zu QUNIS Scalable Self Service BI: Steffen Vierkorn, Geschäftsführer QUNIS GmbH erklärt, was hinter dem QUNIS-Vorgehensmodell steckt, eine kostenfreie Checkliste steht zudem zum Download bereit. QUNIS Scalable Self Service BI

Dentsu: Zentrales Data Warehouse für Controlling und systemübergreifende Analytics, Data Enrichment und Datenkonsolidierung für automatisiertes Reporting

Erstellt am: Donnerstag, 21. Januar 2021 von Monika Düsterhöft

Die deutsche Tochtergesellschaft der international agierenden Medienagentur-Gruppe dentsu hat ihre heterogenen Datensilos in ein zentrales Financial Data Warehouse überführt. Damit können betriebswirtschaftliche Reports, Analysen, Planungen und Forecasts auf der einheitlichen Basis eines Single Point of Truth entstehen. Mithilfe seiner neuen BI-Lösung generiert dentsu Germany seine entscheidungsrelevanten Daten deutlich schneller und aktueller, aber auch zuverlässiger und sicherer.

Früher galt: heute gebaut und morgen veraltet. Das sollte dringend geändert werden. Erklärtes Ziel war eine übergreifende Datenbasis, die mehrfach täglich aktualisiert wird. Dies sollte eine deutschlandweit systemübergreifende Auswertbarkeit und Analysefähigkeit aller steuerungsrelevanten Finanzdaten ermöglichen.


Patrick Sura,
Director Business Intelligence DACH bei
Dentsu

Datengetriebenes Geschäftsmodell

Die Medienagentur-Gruppe dentsu International wurde 1901 in Japan gegründet. Fokussiert auf die Geschäftsbereiche Media, CRM und Creative bedient das weltumspannende Netzwerk mit seinen 66.000 Mitarbeitenden rund 11.000 Kunden in 143 Ländern. dentsu Germany zählt hierzulande zu den größten fünf Agenturen für Kommunikations- und Mediaberatung. Die 1.500 Beschäftigten verteilen sich auf den Firmensitz in Frankfurt am Main und weitere Standorte in Augsburg, Düsseldorf, Hamburg und München.

In der Media-Branche nehmen Daten ganz generell einen hohen Stellenwert ein. Sie lassen Vorhersagen zu über das Zielgruppenverhalten, um mit möglichst geringen Streuverlusten werben zu können. Zudem sind sie solide Basis für Mediapläne mit zu platzierenden Schaltungen, die das Kundenbudget optimal einsetzen. Datengetrieben sind bei dentsu Germany aber auch die betriebswirtschaftlichen Belange zur Steuerung der vernetzten Agenturen. Nur auf der Grundlage homogener Daten nämlich lassen sich valide Entscheidungen treffen, um das Unternehmen sicher auf Kurs zu halten und den eingeschlagenen Wachstumspfad weiter zu beschreiten.

Diesen Ansprüchen konnte jedoch die bisherige Vorgehensweise nicht mehr gerecht werden. „Jeder hatte mehr oder weniger Zugang zu vereinzelten Datentöpfen und baute sich seine Berichte bei Bedarf in Excel selbst zusammen“, blickt Patrick Sura zurück. „Weil es keinen Single Point of Truth gab, musste man in den Meetings zuerst zeitraubend klären, wer die richtigen Zahlen hat, bevor es an die strategischen Auswertungen gehen konnte.“ Vor diesem Hintergrund traf dentsu Germany die Entscheidung zum Aufbau eines Financial Data Warehouse.

Erfahrenen Projektleiter gewonnen

Hierfür wurde eigens eine neue Stelle geschaffen und 2017 mit Patrick Sura besetzt. Der aus Speyer stammende Diplom- Betriebswirt (FH) ist langjähriger Branchenkenner und hatte als Finance-Controller einschlägige Data-Warehouse-Projekte erfolgreich umgesetzt.

Damals wie heute war QUNIS präferierter Projektpartner. „Ich hatte auf einer Fortbildungsveranstaltung der controller akademie einen der Geschäftsführer kennen gelernt, der dort einen Vortrag hielt“, erinnert sich Patrick Sura an sein Treffen mit Hermann Hebben, das zum ersten gemeinsamen Data-Warehouse-Projekt führte.

Financial Data Warehouse als Single Point of Truth

Die IT-Infrastruktur von dentsu ist nur in geringem Maße global organisiert. Größtenteils unterhalten die Tochtergesellschaften in den Ländern lokale Systeme etwa für ERP (Enterprise Resource Planning), Datenhaltung und Controlling. Beim Antritt fand Patrick Sura rudimentäre BI-Strukturen vor, erste Ansätze über SAP BW waren ins Leere gelaufen.

Gemeinsam mit QUNIS startete er das Projekt zum Aufbau eines Financial Data Warehouse. Die bislang dezentral gehaltenen Finance-Daten sollten zusammengeführt werden für Verknüpfungen, um allgemeingültige Kennzahlen für ein flexibles Controlling zu gewinnen. Beim Aufbau auf technologischer Basis des Microsoft SQL Servers wurde die QUNIS Automation Engine eingesetzt – „mit immensen Vorteilen hinsichtlich Automatisierung und Standardisierung“, wie Patrick Sura betont. So erfolgte die Datenbankentwicklung weitestgehend automatisiert, genauso der komplette ELT (Extract, Load, Transform)-Prozess aus Vorsystemen wie SAP/R3, SAP BW und ein Mediasystem auf ORACLE-Basis.

„Die QUNIS Automation Engine führt auf einer komfortablen Web-Oberfläche durch die einzelnen Schritte. Man designt mit Metadaten und erhält den Quellcode des Data Warehouse, ohne nur eine Zeile dafür händisch geschrieben zu haben.“ Das geht viel schneller und minimiert die Fehlerpotenziale, unterstreicht der Projektleiter und ergänzt: „Der Engine-Logik folgend, wird stets nach dem gleichen Prinzip vorgegangen. Das macht das Ergebnis personenunabhängig und besser nachvollziehbar. Dadurch lassen sich auch spätere Anpassungen in allen relevanten Teilbereichen viel effizienter abbilden.“

Data Enrichment und Datenkonsolidierung

Schon in früher Projektphase wurde deutlich, dass die Stammdaten vor der Übernahme ins Data Warehouse zur Steigerung der Qualität überarbeitet und angereichert werden müssten. Hierfür griff Patrick Sura mit GAPTEQ auf eine „willkommene Alternative zum mühsamen und fehleranfälligen Weg via Excel“ zurück. Bei GAPTEQ handelt es sich um eine Low-Code-Technologie zur Realisierung von Oberflächen für SQL-Datenbanken. Das Einsatzspektrum reicht vom einfachen Web- Formular bis hin zur komplexen Business- Applikation – mit wenig Aufwand per Drag & Drop, smart und sehr schnell, wie sich im Projektverlauf bestätigte.

Top-aktuelle Analysen und Berichte auf Abruf

Nachts und mehrfach im Tagesverlauf werden die Daten im Data Warehouse automatisiert in den Analysis Services bereitgestellt, wo alle KPI (Key Performance Indicators) und Regeln hinterlegt sind. Wer die entsprechenden Power-BI-Dashboards und -Berichte zur Auswertung bereitgestellt bekommt, definiert ein ebenfalls mithilfe von GAPTEQ integriertes Security-Konzept. Nach erfolgtem Kickoff Ende 2018 und Beginn der Arbeiten Anfang 2019 konnten so bereits Ende Juli 2019 die ersten Reports mit der neuen BI-Lösung erstellt werden. Mittlerweile ist jeder Bericht an die Datenquellen des Data Warehouse angeschlossen, so dass Aktualisierungen jederzeit abgerufen und in derselben Ansicht dargestellt werden können.

Maßgeschneiderte Business-Applikationen

Data Enrichment und Security-Konzept ließen das Management erkennen, wie hoch die Potenziale von GAPTEQ sind: „Schier grenzenlos einsetzbar und mit unglaublich schnellen Ergebnissen – eine klassische Programmierung wäre x-fach teurer und langwieriger“, so Patrick Sura. Vor diesem Hintergrund sollten mit Applikationen wie der Target-App und den OPEX Forecasts zwei Business-Applikationen folgen.

  • Über die Target-App werden abgeleitet von der Gesamtplanung die jeweiligen Ziele für das Agenturen-Management in vier verschiedenen Kategorien festgelegt. In GAPTEQ sehen die Manager die vereinbarten Targets kombiniert mit den Ist-Zahlen aus dem Data Warehouse. Das zeigt, was schon erreicht wurde und noch zu tun ist. Sie können die Werte auch fortschreiben und per Knopfdruck sofort sichtbar aktualisieren. Nicht zuletzt dank der QAE und dem einhergehenden betont sauberen Datenmodell, auf dessen Basis die Target- App aufsetzt, hat die Einrichtung gerade mal drei Wochen benötigt.
  • Die OPEX-Forecasts über die Ausgaben für den operativen Geschäftsbetrieb waren nach nur sechs Wochen Projektzeit umgesetzt. GuV-Forecast auf Kontoebene, jeden Monat die Ist-Zahlen anschauen und bis zum Jahresende forecasten, dabei die Budgets abstimmen: Was ehedem mühsam und mit allen Nachteilen per Excel zu erledigen war, geht nun vollständig integriert vonstatten. Dank Security-Konzept können zudem die Ressortleiter zu Controlling-Zwecken auf relevante Kostenstellen zugreifen.

„Wir sammeln die Planzahlen je Kostenstelle von den Verantwortlichen ein und konsolidieren sie direkt auf dem Server mit dem einheitlichen Datenmodell“, erklärt Patrick Sura. „Somit können wir, wenn die Ist-Zahlen des Monats vorliegen, im Nachgang einen Plan-Ist-Vergleich ziehen.“ Als Sahnestückchen hat er auch noch den Drill-Through auf Belegebene integriert. So haben die berechtigten User die Möglichkeit, alle Buchungen zurückzuverfolgen und sich die dazugehörenden Detailinformationen anzeigen zu lassen.

Ergebnisse und Ausblick

Unterstützt von QUNIS hat dentsu Germany mit dem Financial Data Warehouse grundlegende Strukturen für ein schlagkräftiges Controlling geschaffen. In einem fließenden Prozess sind unter sukzessiver Einbeziehung der GAPTEQ-Technologie eine Security- Konzeption und mehrere Business-Applikationen entstanden. Diese ermöglichen eine sichere betriebswirtschaftliche Steuerung des Agenturnetzwerks von den Abteilungs- und Standortleitern über die Geschäftsführer der Agenturen bis hin zum Top-Management mit CFO und CEO.

„Wir generieren heute über Nacht und mehrmals täglich, was früher nur ein Mal im Monat möglich war. Um diesen hohen Grad der Automatisierung und Digitalisierung in unserer Berichterstattung zu erreichen, hätte man mich als Controller mit Faktor 50 klonen müssen. Dabei sind die Anwendungen denkbar einfach gehalten und erfordern keinerlei Schulungen: Wer ein iPhone bedienen kann, kriegt auch das hin“, resümiert Patrick Sura.

Bereits für 2021 ist jetzt das Ausrollen des Gesamtsystems auf die DACH-Region geplant.

Mehr zu dentsu: Dentsu international ist Teil von dentsu und besteht aus weltweit führenden Marken – Carat, dentsu X, iProspect, Isobar, dentsumcgarrybowen, Merkle, MKTG, Vizeum, Posterscope und seinen weiteren spezialisierten Agenturmarken. Dentsu International unterstützt seine Kunden, die Beziehungen zu ihren Konsumenten auszubauen und einen nachhaltigen Fortschritt für ihr Unternehmen zu erzielen. Mit exzellenten Dienstleistungen und Lösungen in den Bereichen Media, CXM und Creative ist dentsu international in über 145 Märkten weltweit mit mehr als 48.000 engagierten Spezialisten tätig. In Deutschland bietet dentsu mit seinem Agenturportfolio die komplette Wertschöpfungskette der Marketing Services an und ist präsent an den Standorten Frankfurt, Hamburg, Düsseldorf, Augsburg und München.

the factlights 2020 Studienergebnisse

Erstellt am: Freitag, 18. Dezember 2020 von Monika Düsterhöft

Die Zukunft gehört den Data Driven Companies – wo stehen Sie?

Die aktuelle Studie the factlights 2020 zeigt, wie sich Unternehmen im deutschsprachigen Raum der Digitalisierung stellen, welche Herausforderungen bestehen und welche Erkenntnisse sich daraus ergeben.

Adopter, Discoverer und Frontrunner: drei Unternehmenstypen kristallisieren sich beim digitalen Reifegrad heraus.

Von März bis Mitte Juni 2020 fand eine großangelegte Online-Erhebung mit über 1.000 Unternehmen aus dem deutschsprachigen Raum statt. Befragt wurden Mitarbeiter und Leitungsebene aus allen Branchen und Unternehmensbereichen. 671 Fragebögen (=n) wurden vollständig ausgefüllt und konnten ausgewertet werden.

Das Unternehmen jedes Befragten wurde basierend auf einem Scoring-Modell dem Grad der Digitalisierung von 0 (keine Anstrengungen) bis 3 (maximaler Fokus auf Digitalisierung) zugeordnet. Im Ergebnis haben sich drei Cluster mit unterschiedlichen Reifegraden herausgebildet. Das Cluster zwischen 0 bis 1,3 – die Adopter, das Cluster größer 1,3 bis 1,9 – die Discoverer und das Cluster mit einem Reifegrad über 1,9 bis 3 – die Frontrunner. Mit 51% ist die Masse der Umfrageteilnehmer in einem Unternehmen tätig, dass den Discoverern zugeordnet ist; 24% gehören zu den Frontrunnern und 25% sind den Adoptern zuzuordnen.

Chancen der Digitalisierung werden von Adoptern, Discoverern und Frontrunnern unterschiedlich bewertet

Adopter sehen die Hauptpotenziale vorrangig in den internen Prozessen. So beziehen sich deren Fokusthemen beispielsweise auf eine höhere Prozesseffizienz oder eine verbesserte Unternehmenssteuerung.

Frontrunner scheinen interne Hürden bereits überwunden zu haben und widmen sich vermehrt der Realisierung komplexerer Chancen. Dazu zählen der Aufbau neuer digitaler Geschäftsmodelle sowie Initiativen zur Umsatzsteigerung oder Produktindividualisierung.

Discoverer zeigen in ihrer Chancenwahrnehmung, dass sie sich inmitten des digitalen Transformationsprozesses zwischen Frontrunner und Adopter befinden. In ihrem Fokus liegen bereits vermehrt komplexere Aspekte wie beispielsweise digitale Geschäftsmodelle, aber auch intern gerichtete Themen wie die Prozesseffizienz oder eine verbesserte Unternehmenssteuerung haben noch ein großes Gewicht.

Veränderungen bei Produkten und Dienstleistungen korrelieren mit dem Digitalisierungsgrad

Produkte und Dienstleistungen verändern sich durch die technologischen Einflüsse der Digitalisierung! Diese Veränderung ist branchenübergreifend zu erkennen. Hinsichtlich der Digitalisierungscluster stechen besonders die Frontrunner und Discoverer als Vorreiter heraus.

Wie stark die technologischen Einflüsse die Produkte und Dienstleistungen bisher verändert haben, hängt durchaus mit dem Digitalisierungsgrad zusammen. Die Veränderungen sind umso größer, je höher der Digitalisierungsgrad ist. Während unter den Adoptern nur 40% von Produkt- und Dienstleistungsänderungen im Rahmen der Digitalisierung berichten, sind es bei den Discoverern bereits 84% und unter den Frontrunnern sogar 99%.

Smarte Zusatzservices sind allgegenwertig! Betrachtet man alle Befragten, bei denen die Digitalisierung zu Veränderungen von Produkten und Dienstleistungen geführt hat, dann geben durchschnittlich 76% an, dass ihr Unternehmen smarte Zusatzservices bereits etabliert hat. Digitalisierung birgt das Potenzial Produktlebenszyklen zu verkürzen! Bei der Umsetzung sind die Unternehmen jedoch noch etwas verhaltener. Mit positivem Beispiel gehen die Frontrunner voran, hier werden im Vergleich zu den Adoptern und Discoverern die Produktlebenszyklen mehr als doppelt so häufig verkürzt.

Der Bedarf nach einer geeigneten Datenwelt, einer strategischen Ausrichtung und Organisation sowie einem dazu passenden Mindset sind allen gemein.

Die Datennutzung verändert sich – Single Point of Truth und Freiheitsgrade sind gleichermaßen gefordert! Daten werden zunehmend demokratisiert – sie kommen unternehmensweit und in den unterschiedlichsten Bereichen zum Einsatz. Dies gilt auch für erweiterte Analysemethoden, die längst nicht mehr nur im Controlling ihren Einsatz finden.

Der Wert qualitativer Daten wird zumeist erkannt und verschiedene Branchen nutzen verschiedene Datenquellen (von interner Software und Applikationen über Hardware Devices, externe Daten bis hin zu Informationen aus sozialen Netzwerken) bereits mehr oder weniger intensiv. Für die effiziente Nutzung von Analytics gilt es jedoch noch einige Voraussetzungen zu schaffen. Ein durchgängiges Datenmanagement oder auch die passende Verankerung in der Organisation zählen dazu.

Viele weitere Erkenntnisse, Daten, Fakten, Extra Notes und Expert Quotes finden Sie in der Studienvollversion. Gleich persönliches Exemplar holen – direkt online und kostenfrei:

 

Holen Sie sich alle Ergebnisse der Studie the factlights 2020!

PERSÖNLICHES STUDIEN-EXEMPLAR HOLEN

 

Unser Tipp: Sie möchten ein Thema vertiefen oder mehr zur Datenerhebung und dem Einsatz von Data Science im Ramen der Studie erfahren? the factlights ist eine Initiative der QUNIS, sprechen Sie uns also gerne direkt dazu an KONTAKT

QUNIS Scalable Self Service BI – analytische Datenplattform mit Zukunft

Erstellt am: Mittwoch, 1. Juli 2020 von Monika Düsterhöft

Self Service BI: Der Ruf nach leichten auch von der Fachabteilung zu bedienenden Werkzeugen wurde erhört

Globalisierung, vernetzte Wertschöpfungsketten und nicht zuletzt Ausnahmesituationen wie die Finanz- und Corona-Krise zwingen Unternehmen, immer schneller auf neue Anforderungen zu reagieren. Die Fähigkeit, aus Daten agil Informationen zu generieren, um gute und sichere Entscheidungen zu treffen wird zum wichtigen Überlebens- und Wettbewerbsvorteil.

Der Anspruch an Agilität und Schnelligkeit setzt Fachanwender und Datenexperten unter Druck. Das geforderte Tempo mit den bisherigen BI-Enterprise-Vorgehensmodellen und dem Einsatz traditioneller BI-Tools zu halten, wird immer schwieriger. Aus diesem Leidensdruck heraus wurde in den letzten Jahren der Ruf nach einfacheren Werkzeugen, die sich auch von Fachanwendern bedienen lassen, immer lauter.

Die Softwarehersteller haben darauf mit der Entwicklung von Lösungen reagiert, die sie als „Self Service BI“ anbieten.

Die unter diesem Schlagwort rangierenden Tools und Plattformen umfassen in der Regel ein fachanwenderfreundliches Frontend gepaart mit Funktionen für das Erledigen einfacher Datenmanagementaufgaben. Letztere erlauben es den Nutzern, mehrere Datenquellen zu verbinden oder lokale Daten aus Excel-Dokumenten direkt im Visualisierungstool zu integrieren. Auch können sie Quellen aus dem Internet sofort mit anzapfen.

Self-Service-BI-Werkzeuge eignen sich also aufgrund ihrer sehr guten und anwenderfreundlichen Funktionen bestens dafür, individuelle Lösungen zu realisieren. Sie erlauben einen deutlich weniger komplexen und zeitintensiven Prozess bei der Abstimmung, bei der direkten Umsetzung mithilfe der Datenmanagementfunktionen und bei der unmittelbaren Publikation der Ergebnisse durch anforderungsnahe Anwender.

Jedoch, die Antwort für eine nachhaltige BI-Lösung liegt nicht allein im Frontend

Was bei der Euphorie für Self Service BI in vielen Fällen vergessen wird: Das wirklich komplexe an BI-Lösungen ist nicht die Gestaltung der Berichte und Dashboards im Visualisierungstool. Die weitaus größere Herausforderung liegt in der Aufbereitung von aussagekräftigen und wahrheitsgetreuen Datenräumen als Basis für die Visualisierungen.

Zur Umsetzung der dafür notwendigen, teilweise sehr vielschichtigen Datenmanagementaufgaben verfügen professionelle Datenbanken für Enterprise Data Warehouses und Data Lakes über zahlreiche Spezialfunktionen. Sie ermöglichen die Transformation von Daten, das dauerhafte Monitoring der Datenqualität sowie den möglichst automatisierten Ablauf des Ladens der Daten in den großen Datenspeicher.

Die Frage, die sich nun für Unternehmen stellt, die sowohl Self Service BI ermöglichen als auch Enterprise BI realisieren wollen: Wie setzt man Self Service BI so auf, dass es Hand in Hand mit einer Enterprise-Strategie funktioniert? Zudem haben BI-Initiativen nicht selten zum Ziel, die über Jahre gewachsenen individuellen Reporting-Inseln zu integrieren und Inhalte zu harmonisieren.

Das Geheimnis liegt im Bewusstsein und im Datenmodell

BI-Initiativen können nur gewinnen, wenn Self-Service-BI-Funktionen nicht als eigenständiges Werkzeug gesehen werden, sondern als Speedbooster oder als Ergänzung zum Enterprise Data Warehouse und zum Data Lake. Über die erweiterten Möglichkeiten von Self Service BI in der Visualisierung hinaus sind vor allem die neu gewonnenen Optionen im Datenmanagement für viele Architekturen relevant.

Denn Anforderungen einfach, schnell und agil umzusetzen muss nicht immer heißen, dass dieses Projekt später zwangsläufig in einem gesonderten Werkzeug oder in einem langfristigen Datenchaos endet.

QUNIS bringt den Profi-Boost für Self-Service-BI-Architekturen

Um die Vorteile von Self Service BI und Enterprise BI gleichsam zu nutzen, hat QUNIS den Ansatz des „Scalable Self Service BI“ entwickelt. Dieser ermöglicht schnelle Ergebnisse gepaart mit einem sauber aufgebauten Datenmanagement – ganz bewusst flankiert von Wissenstransfer und Empowerment.

Innerhalb weniger Wochen und mit punktuellem Coaching entstehen per „QUNIS Scalable Self Service BI“ und mit dem Einsatz von Micosoft Power BI komplette BI-Apps. Mit professionellem Design, basierend auf klaren Strukturen und durchgängiger Automatisierung der Prozesse.

  • Ein Self-Service-BI-Projekt bei QUNIS startet stets mit einer kompakten Schulung. Die Vertreter der Fachabteilung lernen die Grundlagen des eingesetzten Tools  kennen. Sie erfahren mehr zu den technischen Details und zur methodischen Vorgehensweise. Zudem bekommen sie beigebracht, wie man eine Datentransformation durchführt, wie man ein Datenmodell richtig aufgebaut und welche Best Practices es gibt.
  • Danach werden in einem meist halbtägigen Anforderungsworkshop die konkrete Problemstellung und die dafür gewünschte Lösung im Hinblick auf einen Self Service Use Case überprüft und der sinnvolle Umfang definiert.
  • Darauf aufbauend entsteht in einem Zeitraum von ca. drei bis zehn Tagen ein Modell, das für die gewünschte Datenmenge passt. Wichtig dabei: Dieses Modell entspricht in Bezug auf Qualität und Professionalität bereits den Kriterien eines Enterprise BI. So werden im Self-Service-BI-Modell etwa die gleichen Namensbezeichnungen und Schlüsselfelder wie in einem Enterprise-Data-Warehouse-Modell genutzt. Ebenso verfügt es über eine Schnittstelle zur Überführung in ein Enterprise BI inklusive einer automatisierten Dokumentation.
  • Anhand des aufgesetzten Self-Service-BI-Modells sehen die Beteiligten, worauf zu achten ist, welche Schritte notwendig sind und wie sich Berichte anfertigen lassen. Diese werden dann in einer Reporting-Mappe zusammengeführt.
  • Um die Lösung im Anschluss selbstständig zu erweitern, empfiehlt es sich zudem über eine Fokus-Schulung Know-how in der Formelsprache DAX (Data Analysis Expressions) anzueignen. So können Fachexperten wie Controller oder Produktionsleiter nachfolgend eigene Kennzahlen entwerfen und umsetzen.

Die mit dem QUNIS Scalable Self Service-Ansatz generierten Self-Service-BI-Lösungen bieten drei ganz zentrale Vorteile: Sie erfordern geringe Investitionskosten, weisen als managed Self-Service-BI eine hohe Qualität und Skalierbarkeit auf und vor allem, sie erfüllen bereits die Standards eines Enterprise Data Warehouse. Hinzu kommt, dass sich die User schon während des Self-Service-BI-Projektes dank entsprechender Schulungsanteile und intensivem Coaching ein umfassendes Prozess- und Technologie-Know-how aneignen.

Von Anfang an ist damit die Brücke für den späteren Transfer in die Enterprise-BI-Strategie gebaut. Sie sind bestens gerüstet, die Weiterentwicklung Ihrer BI-Applikation kompetent zu begleiten und gemeinsam mit den Experten weitere Lösungen aufzubauen. Wie das geht zeigt beispielsweise BOGNER in seinem Praxisbericht.

Oder sprechen Sie uns einfach an KONTAKT

Unser Tipp: Nutzen Sie unsere kostenfreien QUNIS-Webinare und Online-Power-Trainings sowie Schulungsangebote der QUNIS Academy rund um die Self Service BI Plattform „Microsoft Power BI“ und erfahren Sie von unseren Experten aus der Praxis, was für Sie drin steckt.

Holen Sie sich gleich die aktuelle Studie & Handbuch zum Thema „Self Service-BI – Agilität für den Fachbereich“ KOTENFREI HOLEN

So arbeiten Sie mit Microsoft Power BI. Siebenteilige Kurzfilmreihe erklärt wie‘s geht!

Erstellt am: Freitag, 1. Mai 2020 von Monika Düsterhöft

Microsoft Power BI – ein mächtiges Tool

Microsoft Power BI ist eine leistungsstarke Business Intelligence Plattform und Analytics-Lösung. Mit Microsoft Power BI kann man sehr schnell Daten aus nicht verbundenen Quellen zusammentragen, analysieren und visualisieren. Anschließend können die erstellten Inhalte auf Dashboards freigegeben und geteilt werden.

Die intuitive Bedienung erlaubt es bereits nach kurzer Einarbeitungszeit verschiedenste Daten zu übersichtlichen, interaktiven Graphiken zu kombinieren. So erstellen Sie aus verstreuten Daten, bedeutsame und interaktive Unternehmens-Insights.

QUNIS Power BI Minis erklären wie‘s geht

In einer siebenteiligen Kurzfilmreihe zeigt unser QUNIS Power BI Spezialist Patrick Eisner Schritt für Schritt, wie Sie mit Microsoft Power BI arbeiten und welche Möglichkeiten die BI-Plattform für Sie bereit hält:

  • Part 1 – Datenintegration
  • Part 2 – Datenvisualisierung
  • Part 3 – Berechtigungen, Hierarchien und Navigation
  • Part 4 – Ein bestehendes Datenmodell erweitern
  • Part 5 – Advanced Visuals
  • Part 6 – Mobile Devices
  • Part 7 – Power BI Web Portal

Alle QUNIS Power BI Minis finden Sie direkt in unserer QUNIS MEDIATHEK oder  im QUNIS YOUTUBE KANAL

Offen für viele verschiedene Datenquellen

Microsoft Power BI eröffnet die Möglichkeit verschiedene Datenquellen in Office 365 einzubinden. Die Auswahl an möglichen Datenquellen ist groß und wird stetig erweitert. Folgende Kategorien zählen dazu:

  • Dateien: Excel, Text, XML, JSON, Ordner, SharePoint Ordner
  • Datenbanken: SQL Server, Access, Oracle oder SAP HANA
  • Power BI: Datenmodelle, die mit Hilfe von Power BI Desktop erstellt wurden
  • Azure: Azure SQL-Datenbank, Azure SQL Data Warehouse oder Azure Analysis Services-Datenbank
  • Online-Dienste: Aktuell Konnektoren gibt es für mehr als 59 verschiedene Clouddienste wie besispielsweise SharePoint-Online Liste, Salesforce-Berichte, Google Analytics
  • Sonstige: Diese Kategorie umfasst weitere Datentypen wie Vertica (Beta), Web, SharePoint Liste, OData-Feed, Active Directory, Microsoft Exchange, Hadoop-Datei (HDFS), Spark, R-Skript, ODBC, OLE DB, Leere Abfragen

Mein Tipp: Die QUNIS Academy bietet ein breites Spektrum an Schulungen und Trainings. Nutzen Sie diese und lernen Sie die Bandbreite der mächtigen BI-lattform einsetzen und nutzen. Hier finden Sie alle aktuellen Themen und Termine: QUNIS ACADEMY

PUREN Pharma: Effiziente Prozesse und Datenanalysen im Web-Portal mit QUNIS

Erstellt am: Donnerstag, 12. März 2020 von Monika Düsterhöft

Das erfolgreiche Pharmaunternehmen PUREN Pharma hat mit Hilfe der QUNIS digitale End-to-End Geschäftsprozesse umgesetzt, zu denen auch fortgeschrittene Analysen mit zahlreichen internen und externen Datenarten gehören. Das spart viel Zeit und sichert die hohe Qualität von Prozessen und Informationen.

Wir haben mit QUNIS unsere komplexen Geschäftsprozesse unternehmensweit standardisiert und automatisiert. Basis ist ein zentrales Informations- und Analyse-Portal, in das wir jederzeit weitere Nutzer und Datenquellen oder neue On-Premise- und Cloud-Technologien einbinden können.


Christoph Gmeiner,
Teamlead Data Science & Business Intelligence,
PUREN Pharma GmbH & Co. KG

Die Anforderung: Umfangreiche Rechnungsbearbeitung

Generika von PUREN tragen entscheidend dazu bei, dass hochwertige Arzneimittel für jeden bezahlbar bleiben. In diesem Rahmen hat PUREN zudem zahlreiche Rabattverträge mit Krankenkassen abgeschlossen. Die Verwaltung der Verträge und der einzelnen Abschlagszahlungen an die Krankenkassen wurde für das erfolgreiche Pharmaunternehmen jedoch immer komplizierter.

Problematisch war vor allem, dass in einzeln geführten Excel-Listen der direkte Bezug zwischen den in den Apotheken getätigten Umsätzen und den monatlich, quartalsweise oder jährlich verrechneten Abschlagszahlungen an die Krankenkassen fehlte. Bei bundesweiten Verträgen mit rund 150 Krankenkassen, in denen u.a. unterschiedliche Abrechnungs-Zyklen, Rabatte und Dateiformate der Kassen zu berücksichtigen waren, entstand erheblicher manueller Aufwand für die Erfassung und Bearbeitung der Daten in einer Vielzahl von Excel-Dateien.

Das zuständige Team Data Science & Business Intelligence wollte den Prozess daher automatisieren und suchte nach einer Lösung, die einen einfach steuerbaren Freigabeworkflow für die Rechnungsbearbeitung mit einer zentralen Datenhaltung und Rechnungsprüfung im Backend verbindet. Die Systemlösung sollte flexibel und nach Bedarf skalierbar sein, um die wachsenden Anforderungen des Pharmaunternehmens dauerhaft abdecken zu können.

Die Lösung: Einfach steuerbare Prozess und Analyseplattform

Mit der Unterstützung von QUNIS hat PUREN seine ideale Lösung für anspruchsvolle Geschäftsprozesse gefunden und implementiert. Das Projektteam hat im ersten Schritt eine prozessorientierte BI-Plattform für die Bearbeitung der Abschlagsrechnungen realisiert und diese dann in Folgeprojekten systematisch zum umfassenden Portal für alle Fachbereiche ausgebaut.

Grundlage der umgesetzten Informations- und Analyseprozesse ist ein zentrales Data Warehouse auf Basis des Microsoft SQL Servers. Für die Auswertung der Daten werden je nach Bedarf OLAP-Analysen mit den Microsoft Analysis Services und Power BI sowie ML-Funktionalität (Machine Learning) aus der Cloud genutzt.

Als wesentlicher Erfolgsfaktor des Projekts hat sich der Einsatz eines anwenderfreundlichen Web-Frontends basierend  auf GAPTEQ erwiesen. Durch das einfache Handling der Software konnte das interne Projektteam von PUREN nach der anfänglichen Unterstützung durch QUNIS schnell eigenständig weitere Module umsetzen. Inzwischen sind neben einigen Detail-Anwendungen vor allem drei zentrale Geschäftsprozesse in GAPTEQ abgebildet:

1. Transparenter Prüf- und Freigabeworkflow für Abschlagsrechnungen

Was die Sachbearbeiter in der Buchhaltung früher einzeln in Excel und auf Papier erledigen mussten, läuft heute größtenteils automatisiert. Abschlagsrechnungen der Krankenkassen in verschiedensten Dateiformaten werden maschinell in GAPTEQ eingelesen und vom System geprüft. Die integrierte Power BI-Datenbank gleicht dafür Umsatz- und Absatzdaten sowie bereits geleistete Abschlagszahlungen, die per Schnittstelle aus dem ERP-System importiert werden, mit den Rechnungsdaten ab.

Automatisierte Datenströme sorgen für zuverlässige Ergebnisse, auf deren Basis dann der Workflow in GAPTEQ angesteuert wird. Gemäß der hinterlegten Matrix, z.B. je nach Höhe der Zahlungssumme, gelangt die Rechnung nach Freigabe durch die Sachbearbeiter oder ihre Vorgesetzten zur Zahlung an die Abteilungen Customer Service und die Finanzbuchahltung. Das Tracking und die Bearbeitung der zahlreichen Rabattverträge konnte PUREN so in einem übersichtlichen Standard-Workflow mit den Aktionen „Eingabe, Prüfung, Signatur, Zahlung“ umsetzen. Die Mitarbeiter der verschiedenen Abteilungen werden im anwenderfreundlichen Web-Portal sicher durch ihr Tagesgeschäft geführt, während aufwändige Arbeitsroutinen wie Datenimport, Berechnungen, Datenabgleich und Validierung automatisch im leistungsstarken Backend ablaufen.

2. Präziser Forecast für langwierige Bestell- und Lieferketten

Arzneimittel müssen für die Patienten jederzeit in ausreichender Menge verfügbar sein – in der globalisierten Pharmabranche sind jedoch lange Bestell- und Lieferketten üblich. So sind für Produkte, die PUREN Pharma von seiner indischen Muttergesellschaft bezieht, Vorlaufzeiten von bis zu sechs Monaten einzuplanen. Ein möglichst präziser Forecast der erwarteten Absatzzahlen als Grundlage für punktgenaue Besellungen ist daher erfolgsentscheidend.

Im Rahmen des „Tender Managements“ hat das interne BI-Team dafür eine Plattform für Planung und Forecast realisiert, die sich vom Vertrieb über das Bestands und Produkmanagement bis zum Einkauf durchzieht. Durch maschinell erzeugte Vorschlagswerte erreicht PUREN dabei eine sehr hohe Forecast-Genauigkeit. Die Vorschlagswerte werden mit Machine-Learning-Funktionalität aus der Cloud in drei verschiedenen Algorithmen berechnet.

Neben den historischen ERP-Daten fließen u.a. auch externe Marktdaten aus den Apotheken in die Kalkulationen ein. Die Planer können die Vorschlagswerte in ihren Planmasken dann übernehmen oder manuell anpassen. Durch übersichtlich visualierte Berichte, die z.B. die Entwicklung der Umsatzdaten und Marktanteile zeigen, werden sie bei ihrer Entscheidungsfindung unterstützt und können gegebenfalls Abweichungen vom Vorschlag fundiert herleiten und begründen.

Während früher Produktprognosen in Tausenden von Excel-Dateien gepflegt wurden, wird der Forecast heute in der leistungsfähigen Systemumgebung effizient und zuverlässig erstellt und täglich aktualisiert. Das Supply Chain Management kann für seine monatlichen Bestellungen auf sehr präzise Verkaufsprognosen im Portal zugreifen.

3. Strategische und operative Steuerung der Produktlaunches

Die Lösung unterstützt zudem sämtliche Prozesse rund um die Portfolio-Planung und die Einführung neuer Produkte. Sowohl die Entscheidungsfindung als auch die Umsetzung von Produkt-Launches wird dabei mit allen involvierten Fachbereichen in der einheitlichen Systemumgebung gesteuert. Da es sich um langfristige Projekte handelt, sind hier vor allem der hohe Standardisierungsgrad und die nachvollziehbare systemgestützte Dokumentation entscheidende Vorteile. Die Systemlösung reduziert damit die Risiken durch Spezialwissen, das an einzelne Mitarbeiter gebunden ist, und fördert
stattdessen die unternehmensweite Zusammenarbeit im mehrjährigen Projekt durch standardisierte Prozesse und klar definierte Workflows.

Der Launching-Prozess startet bei PUREN mit dem Monitoring auslaufender Patente. Der Zeithorizont bis zum Patent-Verfall der überwachten Produkte beträgt im Schnitt fünf bis sechs Jahre. Um erfolgsversprechende Kandidaten für die eigene Generika-Produktpalette zu ermitteln, werden dabei im System Business Cases durchgespielt und Szenarien mit vielfältigen Annahmen gebildet. Typische Parameter sind beispielsweise Marktdaten zu Absatz und Umsatz in den Apotheken, mögliche Verpackungsgrößen, verschiedene Rabattverträge, Zertifizierungs- und QM-Kosten, usw. Durch die mächtige Analyse-Power im Backend können die Fachanwender im Verlauf der Zeit auch jederzeit Szenarien mit veränderten Rahmenbedingungen oder Auswertungen der „Pipeline“ auf Knopfdruck erstellen.

Die Entscheidung für einen Produktlaunch fällt so auf der Basis genauer Zahlen und Fakten. Die operative Umsetzung eines Launches, der sich wiederum über rund 18 Monate ziehen kann, wird dann ebenfalls in der Systemlösung gesteuert und dokumentiert. Ab diesen Zeitpunkt wird das Projekt zu einem unternehmensweiten Workflow- Thema. GAPTEQ sorgt als Arbeitsumgebung mit transparenten Abläufen und Alerts für die sichere und effiziente Abwicklung des komplexen Prozesses. Alle Abteilungen arbeiten dabei mit einheitlichen Material- Stammdaten aus dem zugrundeliegenden Data Warehouse.

Die Vorteile: Transparenz, Effizienz und Qualität gesteigert

PUREN Pharma hat mit seiner flexiblen BI-Lösung zentrale Geschäftsprozesse automatisiert. Durch die Gestaltung digitalisierter End-to-End-Prozesse und die Integration unterschiedlichster Datenformen wurden die Effizienz und Qualität von Abläufen und Informationen erheblich gesteigert. Individuelle Anforderungen des Pharmaunternehmens konnten dabei flexibel in einem standardisierten Microsoft-Umfeld abgebildet werden. Entstanden ist ein unternehmensweites Portal für alle Nutzergruppen und verschiedene Themen.

Ein wesentlicher Vorteil ist die anwenderorientierte Nutzeroberfläche. GAPTEQ dient sowohl als einfach bedienbares Web-Frontend für die leistungsstarke Analyse-Architektur und unterstützt zugleich mit dezidierter Workflow- Funktionalität die unternehmensweite Zusammenarbeit und Kommunikation. Sämtliche Nutzer arbeiten dabei auf einer zentralen Datenbasis, und sämtliche Eingaben sind nachvollziehbar im System dokumentiert.

Das Projektteam von PUREN kann die Systemlösung jederzeit selbst weiter ausbauen, verschiedenste Daten integrieren, Eingabe-Formulare und Reports gestalten und Workflows mit dezidierten User-Berechtigungen definieren. Im nächsten Schritt sollen Pozesse für die Vertragsverwaltung, die Einkaufspreis-Steuerung und das Qualitätsmanagement umgesetzt werden. Die Microsoft Standardlösung, die bereits heute On-premise- und Cloud-Produkte in einer Hybrid-Architektur kombiniert, gewährleistet dabei einen jederzeit bedarfsgerecht skalierbaren und kosteneffizienten Systemausbau.

Die Projekt-Highlights

  • Komplexe Geschäftsprozesse digitalisiert, automatisiert und standardisiert
  • Transparente Workflows, aktive Nutzerführung mit Warnfunktionen
  • Anwenderfreundliche Nutzeroberfläche für ausgefeilte BI- und MLArchitektur
  • Schnelle Analyse und übersichtliche Visualisierung von Daten
  • Flexible Integration diverser Vorsysteme und Dateiformen
  • Effiziente und sichere Rechnungsprüfung und -Bearbeitung
  • Präziser Forecast mit maschinellen Vorschlagswerten
  • Sichere stragische und operative Steuerung mehrjähriger Launching-Projekte
  • Einheitliches Web-Portal mit zentraler Datenbasis für alle Fachbereiche
  • Valide Daten und Ergebnisse durch Automatisierung
  • Excel-Insellösungen reduziert
  • Investitionssichere, einfach skalierbare Standardsoftware

Mehr zu PUREN Pharma: Als deutsches Traditionsunternehmen mit einem über Jahrzehnte gewachsenen Produktportfolio für Praxis, Klinik und Selbstmedikation stellt PUREN die Weichen als ein zukunftsorientierter Partner im Gesundheitswesen. Mit über 120 kostengünstigen Produkten in Topqualität für den Einsatz in der Praxis, Klinik und Selbstmedikation bietet PUREN ein umfassendes, etabliertes Spektrum für fast alle relevanten Therapieoptionen. Durch umfassende Rabattverträge ist PUREN dabei ein starker Partner für Ärzte, Apotheken, Krankenkassen und Patienten zum Erhalt der Ökonomie im Gesundheitswesen. Es ist das erklärte Ziel von PUREN, durch hochwertige, preisgünstige Arzneimittel zur Gesunderhaltung aller Menschen beizutragen.