Archiv für die Kategorie Power BI

Dentsu: Zentrales Data Warehouse für Controlling und systemübergreifende Analytics, Data Enrichment und Datenkonsolidierung für automatisiertes Reporting

Erstellt am: Donnerstag, 21. Januar 2021 von Monika Düsterhöft

Die deutsche Tochtergesellschaft der international agierenden Medienagentur-Gruppe dentsu hat ihre heterogenen Datensilos in ein zentrales Financial Data Warehouse überführt. Damit können betriebswirtschaftliche Reports, Analysen, Planungen und Forecasts auf der einheitlichen Basis eines Single Point of Truth entstehen. Mithilfe seiner neuen BI-Lösung generiert dentsu Germany seine entscheidungsrelevanten Daten deutlich schneller und aktueller, aber auch zuverlässiger und sicherer.

Früher galt: heute gebaut und morgen veraltet. Das sollte dringend geändert werden. Erklärtes Ziel war eine übergreifende Datenbasis, die mehrfach täglich aktualisiert wird. Dies sollte eine deutschlandweit systemübergreifende Auswertbarkeit und Analysefähigkeit aller steuerungsrelevanten Finanzdaten ermöglichen.


Patrick Sura,
Director Business Intelligence DACH bei
Dentsu

Datengetriebenes Geschäftsmodell

Die Medienagentur-Gruppe dentsu International wurde 1901 in Japan gegründet. Fokussiert auf die Geschäftsbereiche Media, CRM und Creative bedient das weltumspannende Netzwerk mit seinen 66.000 Mitarbeitenden rund 11.000 Kunden in 143 Ländern. dentsu Germany zählt hierzulande zu den größten fünf Agenturen für Kommunikations- und Mediaberatung. Die 1.500 Beschäftigten verteilen sich auf den Firmensitz in Frankfurt am Main und weitere Standorte in Augsburg, Düsseldorf, Hamburg und München.

In der Media-Branche nehmen Daten ganz generell einen hohen Stellenwert ein. Sie lassen Vorhersagen zu über das Zielgruppenverhalten, um mit möglichst geringen Streuverlusten werben zu können. Zudem sind sie solide Basis für Mediapläne mit zu platzierenden Schaltungen, die das Kundenbudget optimal einsetzen. Datengetrieben sind bei dentsu Germany aber auch die betriebswirtschaftlichen Belange zur Steuerung der vernetzten Agenturen. Nur auf der Grundlage homogener Daten nämlich lassen sich valide Entscheidungen treffen, um das Unternehmen sicher auf Kurs zu halten und den eingeschlagenen Wachstumspfad weiter zu beschreiten.

Diesen Ansprüchen konnte jedoch die bisherige Vorgehensweise nicht mehr gerecht werden. „Jeder hatte mehr oder weniger Zugang zu vereinzelten Datentöpfen und baute sich seine Berichte bei Bedarf in Excel selbst zusammen“, blickt Patrick Sura zurück. „Weil es keinen Single Point of Truth gab, musste man in den Meetings zuerst zeitraubend klären, wer die richtigen Zahlen hat, bevor es an die strategischen Auswertungen gehen konnte.“ Vor diesem Hintergrund traf dentsu Germany die Entscheidung zum Aufbau eines Financial Data Warehouse.

Erfahrenen Projektleiter gewonnen

Hierfür wurde eigens eine neue Stelle geschaffen und 2017 mit Patrick Sura besetzt. Der aus Speyer stammende Diplom- Betriebswirt (FH) ist langjähriger Branchenkenner und hatte als Finance-Controller einschlägige Data-Warehouse-Projekte erfolgreich umgesetzt.

Damals wie heute war QUNIS präferierter Projektpartner. „Ich hatte auf einer Fortbildungsveranstaltung der controller akademie einen der Geschäftsführer kennen gelernt, der dort einen Vortrag hielt“, erinnert sich Patrick Sura an sein Treffen mit Hermann Hebben, das zum ersten gemeinsamen Data-Warehouse-Projekt führte.

Financial Data Warehouse als Single Point of Truth

Die IT-Infrastruktur von dentsu ist nur in geringem Maße global organisiert. Größtenteils unterhalten die Tochtergesellschaften in den Ländern lokale Systeme etwa für ERP (Enterprise Resource Planning), Datenhaltung und Controlling. Beim Antritt fand Patrick Sura rudimentäre BI-Strukturen vor, erste Ansätze über SAP BW waren ins Leere gelaufen.

Gemeinsam mit QUNIS startete er das Projekt zum Aufbau eines Financial Data Warehouse. Die bislang dezentral gehaltenen Finance-Daten sollten zusammengeführt werden für Verknüpfungen, um allgemeingültige Kennzahlen für ein flexibles Controlling zu gewinnen. Beim Aufbau auf technologischer Basis des Microsoft SQL Servers wurde die QUNIS Automation Engine eingesetzt – „mit immensen Vorteilen hinsichtlich Automatisierung und Standardisierung“, wie Patrick Sura betont. So erfolgte die Datenbankentwicklung weitestgehend automatisiert, genauso der komplette ELT (Extract, Load, Transform)-Prozess aus Vorsystemen wie SAP/R3, SAP BW und ein Mediasystem auf ORACLE-Basis.

„Die QUNIS Automation Engine führt auf einer komfortablen Web-Oberfläche durch die einzelnen Schritte. Man designt mit Metadaten und erhält den Quellcode des Data Warehouse, ohne nur eine Zeile dafür händisch geschrieben zu haben.“ Das geht viel schneller und minimiert die Fehlerpotenziale, unterstreicht der Projektleiter und ergänzt: „Der Engine-Logik folgend, wird stets nach dem gleichen Prinzip vorgegangen. Das macht das Ergebnis personenunabhängig und besser nachvollziehbar. Dadurch lassen sich auch spätere Anpassungen in allen relevanten Teilbereichen viel effizienter abbilden.“

Data Enrichment und Datenkonsolidierung

Schon in früher Projektphase wurde deutlich, dass die Stammdaten vor der Übernahme ins Data Warehouse zur Steigerung der Qualität überarbeitet und angereichert werden müssten. Hierfür griff Patrick Sura mit GAPTEQ auf eine „willkommene Alternative zum mühsamen und fehleranfälligen Weg via Excel“ zurück. Bei GAPTEQ handelt es sich um eine Low-Code-Technologie zur Realisierung von Oberflächen für SQL-Datenbanken. Das Einsatzspektrum reicht vom einfachen Web- Formular bis hin zur komplexen Business- Applikation – mit wenig Aufwand per Drag & Drop, smart und sehr schnell, wie sich im Projektverlauf bestätigte.

Top-aktuelle Analysen und Berichte auf Abruf

Nachts und mehrfach im Tagesverlauf werden die Daten im Data Warehouse automatisiert in den Analysis Services bereitgestellt, wo alle KPI (Key Performance Indicators) und Regeln hinterlegt sind. Wer die entsprechenden Power-BI-Dashboards und -Berichte zur Auswertung bereitgestellt bekommt, definiert ein ebenfalls mithilfe von GAPTEQ integriertes Security-Konzept. Nach erfolgtem Kickoff Ende 2018 und Beginn der Arbeiten Anfang 2019 konnten so bereits Ende Juli 2019 die ersten Reports mit der neuen BI-Lösung erstellt werden. Mittlerweile ist jeder Bericht an die Datenquellen des Data Warehouse angeschlossen, so dass Aktualisierungen jederzeit abgerufen und in derselben Ansicht dargestellt werden können.

Maßgeschneiderte Business-Applikationen

Data Enrichment und Security-Konzept ließen das Management erkennen, wie hoch die Potenziale von GAPTEQ sind: „Schier grenzenlos einsetzbar und mit unglaublich schnellen Ergebnissen – eine klassische Programmierung wäre x-fach teurer und langwieriger“, so Patrick Sura. Vor diesem Hintergrund sollten mit Applikationen wie der Target-App und den OPEX Forecasts zwei Business-Applikationen folgen.

  • Über die Target-App werden abgeleitet von der Gesamtplanung die jeweiligen Ziele für das Agenturen-Management in vier verschiedenen Kategorien festgelegt. In GAPTEQ sehen die Manager die vereinbarten Targets kombiniert mit den Ist-Zahlen aus dem Data Warehouse. Das zeigt, was schon erreicht wurde und noch zu tun ist. Sie können die Werte auch fortschreiben und per Knopfdruck sofort sichtbar aktualisieren. Nicht zuletzt dank der QAE und dem einhergehenden betont sauberen Datenmodell, auf dessen Basis die Target- App aufsetzt, hat die Einrichtung gerade mal drei Wochen benötigt.
  • Die OPEX-Forecasts über die Ausgaben für den operativen Geschäftsbetrieb waren nach nur sechs Wochen Projektzeit umgesetzt. GuV-Forecast auf Kontoebene, jeden Monat die Ist-Zahlen anschauen und bis zum Jahresende forecasten, dabei die Budgets abstimmen: Was ehedem mühsam und mit allen Nachteilen per Excel zu erledigen war, geht nun vollständig integriert vonstatten. Dank Security-Konzept können zudem die Ressortleiter zu Controlling-Zwecken auf relevante Kostenstellen zugreifen.

„Wir sammeln die Planzahlen je Kostenstelle von den Verantwortlichen ein und konsolidieren sie direkt auf dem Server mit dem einheitlichen Datenmodell“, erklärt Patrick Sura. „Somit können wir, wenn die Ist-Zahlen des Monats vorliegen, im Nachgang einen Plan-Ist-Vergleich ziehen.“ Als Sahnestückchen hat er auch noch den Drill-Through auf Belegebene integriert. So haben die berechtigten User die Möglichkeit, alle Buchungen zurückzuverfolgen und sich die dazugehörenden Detailinformationen anzeigen zu lassen.

Ergebnisse und Ausblick

Unterstützt von QUNIS hat dentsu Germany mit dem Financial Data Warehouse grundlegende Strukturen für ein schlagkräftiges Controlling geschaffen. In einem fließenden Prozess sind unter sukzessiver Einbeziehung der GAPTEQ-Technologie eine Security- Konzeption und mehrere Business-Applikationen entstanden. Diese ermöglichen eine sichere betriebswirtschaftliche Steuerung des Agenturnetzwerks von den Abteilungs- und Standortleitern über die Geschäftsführer der Agenturen bis hin zum Top-Management mit CFO und CEO.

„Wir generieren heute über Nacht und mehrmals täglich, was früher nur ein Mal im Monat möglich war. Um diesen hohen Grad der Automatisierung und Digitalisierung in unserer Berichterstattung zu erreichen, hätte man mich als Controller mit Faktor 50 klonen müssen. Dabei sind die Anwendungen denkbar einfach gehalten und erfordern keinerlei Schulungen: Wer ein iPhone bedienen kann, kriegt auch das hin“, resümiert Patrick Sura.

Bereits für 2021 ist jetzt das Ausrollen des Gesamtsystems auf die DACH-Region geplant.

Mehr zu dentsu: Dentsu international ist Teil von dentsu und besteht aus weltweit führenden Marken – Carat, dentsu X, iProspect, Isobar, dentsumcgarrybowen, Merkle, MKTG, Vizeum, Posterscope und seinen weiteren spezialisierten Agenturmarken. Dentsu International unterstützt seine Kunden, die Beziehungen zu ihren Konsumenten auszubauen und einen nachhaltigen Fortschritt für ihr Unternehmen zu erzielen. Mit exzellenten Dienstleistungen und Lösungen in den Bereichen Media, CXM und Creative ist dentsu international in über 145 Märkten weltweit mit mehr als 48.000 engagierten Spezialisten tätig. In Deutschland bietet dentsu mit seinem Agenturportfolio die komplette Wertschöpfungskette der Marketing Services an und ist präsent an den Standorten Frankfurt, Hamburg, Düsseldorf, Augsburg und München.

the factlights 2020 Studienergebnisse

Erstellt am: Freitag, 18. Dezember 2020 von Monika Düsterhöft

Die Zukunft gehört den Data Driven Companies – wo stehen Sie?

Die aktuelle Studie the factlights 2020 zeigt, wie sich Unternehmen im deutschsprachigen Raum der Digitalisierung stellen, welche Herausforderungen bestehen und welche Erkenntnisse sich daraus ergeben.

Adopter, Discoverer und Frontrunner: drei Unternehmenstypen kristallisieren sich beim digitalen Reifegrad heraus.

Von März bis Mitte Juni 2020 fand eine großangelegte Online-Erhebung mit über 1.000 Unternehmen aus dem deutschsprachigen Raum statt. Befragt wurden Mitarbeiter und Leitungsebene aus allen Branchen und Unternehmensbereichen. 671 Fragebögen (=n) wurden vollständig ausgefüllt und konnten ausgewertet werden.

Das Unternehmen jedes Befragten wurde basierend auf einem Scoring-Modell dem Grad der Digitalisierung von 0 (keine Anstrengungen) bis 3 (maximaler Fokus auf Digitalisierung) zugeordnet. Im Ergebnis haben sich drei Cluster mit unterschiedlichen Reifegraden herausgebildet. Das Cluster zwischen 0 bis 1,3 – die Adopter, das Cluster größer 1,3 bis 1,9 – die Discoverer und das Cluster mit einem Reifegrad über 1,9 bis 3 – die Frontrunner. Mit 51% ist die Masse der Umfrageteilnehmer in einem Unternehmen tätig, dass den Discoverern zugeordnet ist; 24% gehören zu den Frontrunnern und 25% sind den Adoptern zuzuordnen.

Chancen der Digitalisierung werden von Adoptern, Discoverern und Frontrunnern unterschiedlich bewertet

Adopter sehen die Hauptpotenziale vorrangig in den internen Prozessen. So beziehen sich deren Fokusthemen beispielsweise auf eine höhere Prozesseffizienz oder eine verbesserte Unternehmenssteuerung.

Frontrunner scheinen interne Hürden bereits überwunden zu haben und widmen sich vermehrt der Realisierung komplexerer Chancen. Dazu zählen der Aufbau neuer digitaler Geschäftsmodelle sowie Initiativen zur Umsatzsteigerung oder Produktindividualisierung.

Discoverer zeigen in ihrer Chancenwahrnehmung, dass sie sich inmitten des digitalen Transformationsprozesses zwischen Frontrunner und Adopter befinden. In ihrem Fokus liegen bereits vermehrt komplexere Aspekte wie beispielsweise digitale Geschäftsmodelle, aber auch intern gerichtete Themen wie die Prozesseffizienz oder eine verbesserte Unternehmenssteuerung haben noch ein großes Gewicht.

Veränderungen bei Produkten und Dienstleistungen korrelieren mit dem Digitalisierungsgrad

Produkte und Dienstleistungen verändern sich durch die technologischen Einflüsse der Digitalisierung! Diese Veränderung ist branchenübergreifend zu erkennen. Hinsichtlich der Digitalisierungscluster stechen besonders die Frontrunner und Discoverer als Vorreiter heraus.

Wie stark die technologischen Einflüsse die Produkte und Dienstleistungen bisher verändert haben, hängt durchaus mit dem Digitalisierungsgrad zusammen. Die Veränderungen sind umso größer, je höher der Digitalisierungsgrad ist. Während unter den Adoptern nur 40% von Produkt- und Dienstleistungsänderungen im Rahmen der Digitalisierung berichten, sind es bei den Discoverern bereits 84% und unter den Frontrunnern sogar 99%.

Smarte Zusatzservices sind allgegenwertig! Betrachtet man alle Befragten, bei denen die Digitalisierung zu Veränderungen von Produkten und Dienstleistungen geführt hat, dann geben durchschnittlich 76% an, dass ihr Unternehmen smarte Zusatzservices bereits etabliert hat. Digitalisierung birgt das Potenzial Produktlebenszyklen zu verkürzen! Bei der Umsetzung sind die Unternehmen jedoch noch etwas verhaltener. Mit positivem Beispiel gehen die Frontrunner voran, hier werden im Vergleich zu den Adoptern und Discoverern die Produktlebenszyklen mehr als doppelt so häufig verkürzt.

Der Bedarf nach einer geeigneten Datenwelt, einer strategischen Ausrichtung und Organisation sowie einem dazu passenden Mindset sind allen gemein.

Die Datennutzung verändert sich – Single Point of Truth und Freiheitsgrade sind gleichermaßen gefordert! Daten werden zunehmend demokratisiert – sie kommen unternehmensweit und in den unterschiedlichsten Bereichen zum Einsatz. Dies gilt auch für erweiterte Analysemethoden, die längst nicht mehr nur im Controlling ihren Einsatz finden.

Der Wert qualitativer Daten wird zumeist erkannt und verschiedene Branchen nutzen verschiedene Datenquellen (von interner Software und Applikationen über Hardware Devices, externe Daten bis hin zu Informationen aus sozialen Netzwerken) bereits mehr oder weniger intensiv. Für die effiziente Nutzung von Analytics gilt es jedoch noch einige Voraussetzungen zu schaffen. Ein durchgängiges Datenmanagement oder auch die passende Verankerung in der Organisation zählen dazu.

Viele weitere Erkenntnisse, Daten, Fakten, Extra Notes und Expert Quotes finden Sie in der Studienvollversion. Gleich persönliches Exemplar holen – direkt online und kostenfrei:

 

Holen Sie sich alle Ergebnisse der Studie the factlights 2020!

PERSÖNLICHES STUDIEN-EXEMPLAR HOLEN

 

Unser Tipp: Sie möchten ein Thema vertiefen oder mehr zur Datenerhebung und dem Einsatz von Data Science im Ramen der Studie erfahren? the factlights ist eine Initiative der QUNIS, sprechen Sie uns also gerne direkt dazu an KONTAKT

QUNIS Scalable Self Service BI – analytische Datenplattform mit Zukunft

Erstellt am: Mittwoch, 1. Juli 2020 von Monika Düsterhöft

Self Service BI: Der Ruf nach leichten auch von der Fachabteilung zu bedienenden Werkzeugen wurde erhört

Globalisierung, vernetzte Wertschöpfungsketten und nicht zuletzt Ausnahmesituationen wie die Finanz- und Corona-Krise zwingen Unternehmen, immer schneller auf neue Anforderungen zu reagieren. Die Fähigkeit, aus Daten agil Informationen zu generieren, um gute und sichere Entscheidungen zu treffen wird zum wichtigen Überlebens- und Wettbewerbsvorteil.

Der Anspruch an Agilität und Schnelligkeit setzt Fachanwender und Datenexperten unter Druck. Das geforderte Tempo mit den bisherigen BI-Enterprise-Vorgehensmodellen und dem Einsatz traditioneller BI-Tools zu halten, wird immer schwieriger. Aus diesem Leidensdruck heraus wurde in den letzten Jahren der Ruf nach einfacheren Werkzeugen, die sich auch von Fachanwendern bedienen lassen, immer lauter.

Die Softwarehersteller haben darauf mit der Entwicklung von Lösungen reagiert, die sie als „Self Service BI“ anbieten.

Die unter diesem Schlagwort rangierenden Tools und Plattformen umfassen in der Regel ein fachanwenderfreundliches Frontend gepaart mit Funktionen für das Erledigen einfacher Datenmanagementaufgaben. Letztere erlauben es den Nutzern, mehrere Datenquellen zu verbinden oder lokale Daten aus Excel-Dokumenten direkt im Visualisierungstool zu integrieren. Auch können sie Quellen aus dem Internet sofort mit anzapfen.

Self-Service-BI-Werkzeuge eignen sich also aufgrund ihrer sehr guten und anwenderfreundlichen Funktionen bestens dafür, individuelle Lösungen zu realisieren. Sie erlauben einen deutlich weniger komplexen und zeitintensiven Prozess bei der Abstimmung, bei der direkten Umsetzung mithilfe der Datenmanagementfunktionen und bei der unmittelbaren Publikation der Ergebnisse durch anforderungsnahe Anwender.

Jedoch, die Antwort für eine nachhaltige BI-Lösung liegt nicht allein im Frontend

Was bei der Euphorie für Self Service BI in vielen Fällen vergessen wird: Das wirklich komplexe an BI-Lösungen ist nicht die Gestaltung der Berichte und Dashboards im Visualisierungstool. Die weitaus größere Herausforderung liegt in der Aufbereitung von aussagekräftigen und wahrheitsgetreuen Datenräumen als Basis für die Visualisierungen.

Zur Umsetzung der dafür notwendigen, teilweise sehr vielschichtigen Datenmanagementaufgaben verfügen professionelle Datenbanken für Enterprise Data Warehouses und Data Lakes über zahlreiche Spezialfunktionen. Sie ermöglichen die Transformation von Daten, das dauerhafte Monitoring der Datenqualität sowie den möglichst automatisierten Ablauf des Ladens der Daten in den großen Datenspeicher.

Die Frage, die sich nun für Unternehmen stellt, die sowohl Self Service BI ermöglichen als auch Enterprise BI realisieren wollen: Wie setzt man Self Service BI so auf, dass es Hand in Hand mit einer Enterprise-Strategie funktioniert? Zudem haben BI-Initiativen nicht selten zum Ziel, die über Jahre gewachsenen individuellen Reporting-Inseln zu integrieren und Inhalte zu harmonisieren.

Das Geheimnis liegt im Bewusstsein und im Datenmodell

BI-Initiativen können nur gewinnen, wenn Self-Service-BI-Funktionen nicht als eigenständiges Werkzeug gesehen werden, sondern als Speedbooster oder als Ergänzung zum Enterprise Data Warehouse und zum Data Lake. Über die erweiterten Möglichkeiten von Self Service BI in der Visualisierung hinaus sind vor allem die neu gewonnenen Optionen im Datenmanagement für viele Architekturen relevant.

Denn Anforderungen einfach, schnell und agil umzusetzen muss nicht immer heißen, dass dieses Projekt später zwangsläufig in einem gesonderten Werkzeug oder in einem langfristigen Datenchaos endet.

QUNIS bringt den Profi-Boost für Self-Service-BI-Architekturen

Um die Vorteile von Self Service BI und Enterprise BI gleichsam zu nutzen, hat QUNIS den Ansatz des „Scalable Self Service BI“ entwickelt. Dieser ermöglicht schnelle Ergebnisse gepaart mit einem sauber aufgebauten Datenmanagement – ganz bewusst flankiert von Wissenstransfer und Empowerment.

Innerhalb weniger Wochen und mit punktuellem Coaching entstehen per „QUNIS Scalable Self Service BI“ und mit dem Einsatz von Micosoft Power BI komplette BI-Apps. Mit professionellem Design, basierend auf klaren Strukturen und durchgängiger Automatisierung der Prozesse.

  • Ein Self-Service-BI-Projekt bei QUNIS startet stets mit einer kompakten Schulung. Die Vertreter der Fachabteilung lernen die Grundlagen des eingesetzten Tools  kennen. Sie erfahren mehr zu den technischen Details und zur methodischen Vorgehensweise. Zudem bekommen sie beigebracht, wie man eine Datentransformation durchführt, wie man ein Datenmodell richtig aufgebaut und welche Best Practices es gibt.
  • Danach werden in einem meist halbtägigen Anforderungsworkshop die konkrete Problemstellung und die dafür gewünschte Lösung im Hinblick auf einen Self Service Use Case überprüft und der sinnvolle Umfang definiert.
  • Darauf aufbauend entsteht in einem Zeitraum von ca. drei bis zehn Tagen ein Modell, das für die gewünschte Datenmenge passt. Wichtig dabei: Dieses Modell entspricht in Bezug auf Qualität und Professionalität bereits den Kriterien eines Enterprise BI. So werden im Self-Service-BI-Modell etwa die gleichen Namensbezeichnungen und Schlüsselfelder wie in einem Enterprise-Data-Warehouse-Modell genutzt. Ebenso verfügt es über eine Schnittstelle zur Überführung in ein Enterprise BI inklusive einer automatisierten Dokumentation.
  • Anhand des aufgesetzten Self-Service-BI-Modells sehen die Beteiligten, worauf zu achten ist, welche Schritte notwendig sind und wie sich Berichte anfertigen lassen. Diese werden dann in einer Reporting-Mappe zusammengeführt.
  • Um die Lösung im Anschluss selbstständig zu erweitern, empfiehlt es sich zudem über eine Fokus-Schulung Know-how in der Formelsprache DAX (Data Analysis Expressions) anzueignen. So können Fachexperten wie Controller oder Produktionsleiter nachfolgend eigene Kennzahlen entwerfen und umsetzen.

Die mit dem QUNIS Scalable Self Service-Ansatz generierten Self-Service-BI-Lösungen bieten drei ganz zentrale Vorteile: Sie erfordern geringe Investitionskosten, weisen als managed Self-Service-BI eine hohe Qualität und Skalierbarkeit auf und vor allem, sie erfüllen bereits die Standards eines Enterprise Data Warehouse. Hinzu kommt, dass sich die User schon während des Self-Service-BI-Projektes dank entsprechender Schulungsanteile und intensivem Coaching ein umfassendes Prozess- und Technologie-Know-how aneignen.

Von Anfang an ist damit die Brücke für den späteren Transfer in die Enterprise-BI-Strategie gebaut. Sie sind bestens gerüstet, die Weiterentwicklung Ihrer BI-Applikation kompetent zu begleiten und gemeinsam mit den Experten weitere Lösungen aufzubauen. Interessiert? Sprechen Sie uns einfach an KONTAKT

Unser Tipp: Nutzen Sie unsere kostenfreien QUNIS-Webinare und Online-Power-Trainings sowie Schulungsangebote der QUNIS Academy rund um die Self Service BI Plattform „Microsoft Power BI“ und erfahren Sie von unseren Experten aus der Praxis, was für Sie drin steckt.

So arbeiten Sie mit Microsoft Power BI. Siebenteilige Kurzfilmreihe erklärt wie‘s geht!

Erstellt am: Freitag, 1. Mai 2020 von Monika Düsterhöft

Microsoft Power BI – ein mächtiges Tool

Microsoft Power BI ist eine leistungsstarke Business Intelligence Plattform und Analytics-Lösung. Mit Microsoft Power BI kann man sehr schnell Daten aus nicht verbundenen Quellen zusammentragen, analysieren und visualisieren. Anschließend können die erstellten Inhalte auf Dashboards freigegeben und geteilt werden.

Die intuitive Bedienung erlaubt es bereits nach kurzer Einarbeitungszeit verschiedenste Daten zu übersichtlichen, interaktiven Graphiken zu kombinieren. So erstellen Sie aus verstreuten Daten, bedeutsame und interaktive Unternehmens-Insights.

QUNIS Power BI Minis erklären wie‘s geht

In einer siebenteiligen Kurzfilmreihe zeigt unser QUNIS Power BI Spezialist Patrick Eisner Schritt für Schritt, wie Sie mit Microsoft Power BI arbeiten und welche Möglichkeiten die BI-Plattform für Sie bereit hält:

  • Part 1 – Datenintegration
  • Part 2 – Datenvisualisierung
  • Part 3 – Berechtigungen, Hierarchien und Navigation
  • Part 4 – Ein bestehendes Datenmodell erweitern
  • Part 5 – Advanced Visuals
  • Part 6 – Mobile Devices
  • Part 7 – Power BI Web Portal

Alle QUNIS Power BI Minis finden Sie direkt in unserer QUNIS MEDIATHEK oder  im QUNIS YOUTUBE KANAL

Offen für viele verschiedene Datenquellen

Microsoft Power BI eröffnet die Möglichkeit verschiedene Datenquellen in Office 365 einzubinden. Die Auswahl an möglichen Datenquellen ist groß und wird stetig erweitert. Folgende Kategorien zählen dazu:

  • Dateien: Excel, Text, XML, JSON, Ordner, SharePoint Ordner
  • Datenbanken: SQL Server, Access, Oracle oder SAP HANA
  • Power BI: Datenmodelle, die mit Hilfe von Power BI Desktop erstellt wurden
  • Azure: Azure SQL-Datenbank, Azure SQL Data Warehouse oder Azure Analysis Services-Datenbank
  • Online-Dienste: Aktuell Konnektoren gibt es für mehr als 59 verschiedene Clouddienste wie besispielsweise SharePoint-Online Liste, Salesforce-Berichte, Google Analytics
  • Sonstige: Diese Kategorie umfasst weitere Datentypen wie Vertica (Beta), Web, SharePoint Liste, OData-Feed, Active Directory, Microsoft Exchange, Hadoop-Datei (HDFS), Spark, R-Skript, ODBC, OLE DB, Leere Abfragen

Mein Tipp: Die QUNIS Academy bietet ein breites Spektrum an Schulungen und Trainings. Nutzen Sie diese und lernen Sie die Bandbreite der mächtigen BI-lattform einsetzen und nutzen. Hier finden Sie alle aktuellen Themen und Termine: QUNIS ACADEMY

PUREN Pharma: Effiziente Prozesse und Datenanalysen im Web-Portal mit QUNIS

Erstellt am: Donnerstag, 12. März 2020 von Monika Düsterhöft

Das erfolgreiche Pharmaunternehmen PUREN Pharma hat mit Hilfe der QUNIS digitale End-to-End Geschäftsprozesse umgesetzt, zu denen auch fortgeschrittene Analysen mit zahlreichen internen und externen Datenarten gehören. Das spart viel Zeit und sichert die hohe Qualität von Prozessen und Informationen.

Wir haben mit QUNIS unsere komplexen Geschäftsprozesse unternehmensweit standardisiert und automatisiert. Basis ist ein zentrales Informations- und Analyse-Portal, in das wir jederzeit weitere Nutzer und Datenquellen oder neue On-Premise- und Cloud-Technologien einbinden können.

Christoph Gmeiner,
Teamlead Data Science & Business Intelligence,
PUREN Pharma GmbH & Co. KG

Die Anforderung: Umfangreiche Rechnungsbearbeitung

Generika von PUREN tragen entscheidend dazu bei, dass hochwertige Arzneimittel für jeden bezahlbar bleiben. In diesem Rahmen hat PUREN zudem zahlreiche Rabattverträge mit Krankenkassen abgeschlossen. Die Verwaltung der Verträge und der einzelnen Abschlagszahlungen an die Krankenkassen wurde für das erfolgreiche Pharmaunternehmen jedoch immer komplizierter.

Problematisch war vor allem, dass in einzeln geführten Excel-Listen der direkte Bezug zwischen den in den Apotheken getätigten Umsätzen und den monatlich, quartalsweise oder jährlich verrechneten Abschlagszahlungen an die Krankenkassen fehlte. Bei bundesweiten Verträgen mit rund 150 Krankenkassen, in denen u.a. unterschiedliche Abrechnungs-Zyklen, Rabatte und Dateiformate der Kassen zu berücksichtigen waren, entstand erheblicher manueller Aufwand für die Erfassung und Bearbeitung der Daten in einer Vielzahl von Excel-Dateien.

Das zuständige Team Data Science & Business Intelligence wollte den Prozess daher automatisieren und suchte nach einer Lösung, die einen einfach steuerbaren Freigabeworkflow für die Rechnungsbearbeitung mit einer zentralen Datenhaltung und Rechnungsprüfung im Backend verbindet. Die Systemlösung sollte flexibel und nach Bedarf skalierbar sein, um die wachsenden Anforderungen des Pharmaunternehmens dauerhaft abdecken zu können.

Die Lösung: Einfach steuerbare Prozess und Analyseplattform

Mit der Unterstützung von QUNIS hat PUREN seine ideale Lösung für anspruchsvolle Geschäftsprozesse gefunden und implementiert. Das Projektteam hat im ersten Schritt eine prozessorientierte BI-Plattform für die Bearbeitung der Abschlagsrechnungen realisiert und diese dann in Folgeprojekten systematisch zum umfassenden Portal für alle Fachbereiche ausgebaut.

Grundlage der umgesetzten Informations- und Analyseprozesse ist ein zentrales Data Warehouse auf Basis des Microsoft SQL Servers. Für die Auswertung der Daten werden je nach Bedarf OLAP-Analysen mit den Microsoft Analysis Services und Power BI sowie ML-Funktionalität (Machine Learning) aus der Cloud genutzt.

Als wesentlicher Erfolgsfaktor des Projekts hat sich der Einsatz eines anwenderfreundlichen Web-Frontends basierend  auf GAPTEQ erwiesen. Durch das einfache Handling der Software konnte das interne Projektteam von PUREN nach der anfänglichen Unterstützung durch QUNIS schnell eigenständig weitere Module umsetzen. Inzwischen sind neben einigen Detail-Anwendungen vor allem drei zentrale Geschäftsprozesse in GAPTEQ abgebildet:

1. Transparenter Prüf- und Freigabeworkflow für Abschlagsrechnungen

Was die Sachbearbeiter in der Buchhaltung früher einzeln in Excel und auf Papier erledigen mussten, läuft heute größtenteils automatisiert. Abschlagsrechnungen der Krankenkassen in verschiedensten Dateiformaten werden maschinell in GAPTEQ eingelesen und vom System geprüft. Die integrierte Power BI-Datenbank gleicht dafür Umsatz- und Absatzdaten sowie bereits geleistete Abschlagszahlungen, die per Schnittstelle aus dem ERP-System importiert werden, mit den Rechnungsdaten ab.

Automatisierte Datenströme sorgen für zuverlässige Ergebnisse, auf deren Basis dann der Workflow in GAPTEQ angesteuert wird. Gemäß der hinterlegten Matrix, z.B. je nach Höhe der Zahlungssumme, gelangt die Rechnung nach Freigabe durch die Sachbearbeiter oder ihre Vorgesetzten zur Zahlung an die Abteilungen Customer Service und die Finanzbuchahltung. Das Tracking und die Bearbeitung der zahlreichen Rabattverträge konnte PUREN so in einem übersichtlichen Standard-Workflow mit den Aktionen „Eingabe, Prüfung, Signatur, Zahlung“ umsetzen. Die Mitarbeiter der verschiedenen Abteilungen werden im anwenderfreundlichen Web-Portal sicher durch ihr Tagesgeschäft geführt, während aufwändige Arbeitsroutinen wie Datenimport, Berechnungen, Datenabgleich und Validierung automatisch im leistungsstarken Backend ablaufen.

2. Präziser Forecast für langwierige Bestell- und Lieferketten

Arzneimittel müssen für die Patienten jederzeit in ausreichender Menge verfügbar sein – in der globalisierten Pharmabranche sind jedoch lange Bestell- und Lieferketten üblich. So sind für Produkte, die PUREN Pharma von seiner indischen Muttergesellschaft bezieht, Vorlaufzeiten von bis zu sechs Monaten einzuplanen. Ein möglichst präziser Forecast der erwarteten Absatzzahlen als Grundlage für punktgenaue Besellungen ist daher erfolgsentscheidend.

Im Rahmen des „Tender Managements“ hat das interne BI-Team dafür eine Plattform für Planung und Forecast realisiert, die sich vom Vertrieb über das Bestands und Produkmanagement bis zum Einkauf durchzieht. Durch maschinell erzeugte Vorschlagswerte erreicht PUREN dabei eine sehr hohe Forecast-Genauigkeit. Die Vorschlagswerte werden mit Machine-Learning-Funktionalität aus der Cloud in drei verschiedenen Algorithmen berechnet.

Neben den historischen ERP-Daten fließen u.a. auch externe Marktdaten aus den Apotheken in die Kalkulationen ein. Die Planer können die Vorschlagswerte in ihren Planmasken dann übernehmen oder manuell anpassen. Durch übersichtlich visualierte Berichte, die z.B. die Entwicklung der Umsatzdaten und Marktanteile zeigen, werden sie bei ihrer Entscheidungsfindung unterstützt und können gegebenfalls Abweichungen vom Vorschlag fundiert herleiten und begründen.

Während früher Produktprognosen in Tausenden von Excel-Dateien gepflegt wurden, wird der Forecast heute in der leistungsfähigen Systemumgebung effizient und zuverlässig erstellt und täglich aktualisiert. Das Supply Chain Management kann für seine monatlichen Bestellungen auf sehr präzise Verkaufsprognosen im Portal zugreifen.

3. Strategische und operative Steuerung der Produktlaunches

Die Lösung unterstützt zudem sämtliche Prozesse rund um die Portfolio-Planung und die Einführung neuer Produkte. Sowohl die Entscheidungsfindung als auch die Umsetzung von Produkt-Launches wird dabei mit allen involvierten Fachbereichen in der einheitlichen Systemumgebung gesteuert. Da es sich um langfristige Projekte handelt, sind hier vor allem der hohe Standardisierungsgrad und die nachvollziehbare systemgestützte Dokumentation entscheidende Vorteile. Die Systemlösung reduziert damit die Risiken durch Spezialwissen, das an einzelne Mitarbeiter gebunden ist, und fördert
stattdessen die unternehmensweite Zusammenarbeit im mehrjährigen Projekt durch standardisierte Prozesse und klar definierte Workflows.

Der Launching-Prozess startet bei PUREN mit dem Monitoring auslaufender Patente. Der Zeithorizont bis zum Patent-Verfall der überwachten Produkte beträgt im Schnitt fünf bis sechs Jahre. Um erfolgsversprechende Kandidaten für die eigene Generika-Produktpalette zu ermitteln, werden dabei im System Business Cases durchgespielt und Szenarien mit vielfältigen Annahmen gebildet. Typische Parameter sind beispielsweise Marktdaten zu Absatz und Umsatz in den Apotheken, mögliche Verpackungsgrößen, verschiedene Rabattverträge, Zertifizierungs- und QM-Kosten, usw. Durch die mächtige Analyse-Power im Backend können die Fachanwender im Verlauf der Zeit auch jederzeit Szenarien mit veränderten Rahmenbedingungen oder Auswertungen der „Pipeline“ auf Knopfdruck erstellen.

Die Entscheidung für einen Produktlaunch fällt so auf der Basis genauer Zahlen und Fakten. Die operative Umsetzung eines Launches, der sich wiederum über rund 18 Monate ziehen kann, wird dann ebenfalls in der Systemlösung gesteuert und dokumentiert. Ab diesen Zeitpunkt wird das Projekt zu einem unternehmensweiten Workflow- Thema. GAPTEQ sorgt als Arbeitsumgebung mit transparenten Abläufen und Alerts für die sichere und effiziente Abwicklung des komplexen Prozesses. Alle Abteilungen arbeiten dabei mit einheitlichen Material- Stammdaten aus dem zugrundeliegenden Data Warehouse.

Die Vorteile: Transparenz, Effizienz und Qualität gesteigert

PUREN Pharma hat mit seiner flexiblen BI-Lösung zentrale Geschäftsprozesse automatisiert. Durch die Gestaltung digitalisierter End-to-End-Prozesse und die Integration unterschiedlichster Datenformen wurden die Effizienz und Qualität von Abläufen und Informationen erheblich gesteigert. Individuelle Anforderungen des Pharmaunternehmens konnten dabei flexibel in einem standardisierten Microsoft-Umfeld abgebildet werden. Entstanden ist ein unternehmensweites Portal für alle Nutzergruppen und verschiedene Themen.

Ein wesentlicher Vorteil ist die anwenderorientierte Nutzeroberfläche. GAPTEQ dient sowohl als einfach bedienbares Web-Frontend für die leistungsstarke Analyse-Architektur und unterstützt zugleich mit dezidierter Workflow- Funktionalität die unternehmensweite Zusammenarbeit und Kommunikation. Sämtliche Nutzer arbeiten dabei auf einer zentralen Datenbasis, und sämtliche Eingaben sind nachvollziehbar im System dokumentiert.

Das Projektteam von PUREN kann die Systemlösung jederzeit selbst weiter ausbauen, verschiedenste Daten integrieren, Eingabe-Formulare und Reports gestalten und Workflows mit dezidierten User-Berechtigungen definieren. Im nächsten Schritt sollen Pozesse für die Vertragsverwaltung, die Einkaufspreis-Steuerung und das Qualitätsmanagement umgesetzt werden. Die Microsoft Standardlösung, die bereits heute On-premise- und Cloud-Produkte in einer Hybrid-Architektur kombiniert, gewährleistet dabei einen jederzeit bedarfsgerecht skalierbaren und kosteneffizienten Systemausbau.

Die Projekt-Highlights

  • Komplexe Geschäftsprozesse digitalisiert, automatisiert und standardisiert
  • Transparente Workflows, aktive Nutzerführung mit Warnfunktionen
  • Anwenderfreundliche Nutzeroberfläche für ausgefeilte BI- und MLArchitektur
  • Schnelle Analyse und übersichtliche Visualisierung von Daten
  • Flexible Integration diverser Vorsysteme und Dateiformen
  • Effiziente und sichere Rechnungsprüfung und -Bearbeitung
  • Präziser Forecast mit maschinellen Vorschlagswerten
  • Sichere stragische und operative Steuerung mehrjähriger Launching-Projekte
  • Einheitliches Web-Portal mit zentraler Datenbasis für alle Fachbereiche
  • Valide Daten und Ergebnisse durch Automatisierung
  • Excel-Insellösungen reduziert
  • Investitionssichere, einfach skalierbare Standardsoftware

 

Mehr zu PUREN Pharma: Als deutsches Traditionsunternehmen mit einem über Jahrzehnte gewachsenen Produktportfolio für Praxis, Klinik und Selbstmedikation stellt PUREN die Weichen als ein zukunftsorientierter Partner im Gesundheitswesen. Mit über 120 kostengünstigen Produkten in Topqualität für den Einsatz in der Praxis, Klinik und Selbstmedikation bietet PUREN ein umfassendes, etabliertes Spektrum für fast alle relevanten Therapieoptionen. Durch umfassende Rabattverträge ist PUREN dabei ein starker Partner für Ärzte, Apotheken, Krankenkassen und Patienten zum Erhalt der Ökonomie im Gesundheitswesen. Es ist das erklärte Ziel von PUREN, durch hochwertige, preisgünstige Arzneimittel zur Gesunderhaltung aller Menschen beizutragen.

Self Service Business Intelligence mit Microsoft Power BI

Erstellt am: Montag, 26. Juni 2017 von Sascha
Power BI ist Microsofts strategische Antwort auf den Wunsch in Anwenderorganisationen nach mehr Self Service in der Business Intelligence (BI). Informationsmitarbeiter sollen künftig ohne einen aufwändigen technologischen Unterbau flexibel an der Nutzung und Analyse von Daten partizipieren können, um so das Potenzial von BI besser auszuschöpfen. Um diesen Anspruch gerecht zu werden, wollte Microsoft ein leistungsfähiges Tool mit modernen Visualisierungsmöglichkeiten und starken Analyse-Features entwickeln, welches einfach zu bedienen ist und zugleich umfangreiche Kollaborationsmöglichkeiten für Informationsmitarbeiter bietet. Zugleich musste es aber auch für individuelle Anforderungen offen bleiben.

 

Das Ergebnis war Power BI. Die Software ist als Cloud-basierende Lösung konzipiert, kann aber ebenso On-Premises betrieben werden. Sie verfügt über eine weitreichende Office-365-Integration sowie offene Schnittstellen für eigene Entwicklungen. Nutzern steht damit ein umfangreiches Self-Service-BI-Tool zur Datenmodellierung, Analyse und Reporting zur Verfügung, das zudem regelmäßig aktualisiert wird. Power BI reiht sich sehr gut in das bestehende Microsoft-Portfolio ein und wird kontinuierlich weiterentwickelt. Zudem hat sich eine sehr aktive Community gebildet.

 

Berichte visuell ansprechend gestalten

Der übliche Entwicklungszyklus eines Power-BI-Berichtes beginnt in „Power BI Desktop“. Hierbei handelt es sich um die Desktop Applikation von Power BI. Sie verfügt über eine breite Palette an Datenkonnektoren, deren Umfang kontinuierlich erweitert wird. Hier ist auch der Platz, an welchem die Datenmodellierung unter Verwendung der Power-Query-Sprache „M“ stattfindet. Entsprechend dem eingesetzten Architekturszenario – QUNIS sieht hier vier mögliche Architekturvarianten – können die Daten aus der Cloud und oder von On-Premises- Systemen stammen. Sind die Daten nach Bedarf modelliert, lässt sich der Bericht erstellen. Dabei stehen im Standard mehr als 25 Visualisierungsmöglichkeiten zur Auswahl (Über 70 weitere Visualisierungen sind aktuell noch kostenfrei im Web erhältlich). Ist der Bericht vollendet, wird er üblicherweise im „Power BI Service“ in der Cloud oder in einer On-Premisis-Umgebung veröffentlicht. Diese Berichte lassen sich anschließend in Dashboards verwenden oder mit weiteren Usern teilen.

In dem von QUNIS definierten Frontend-Rollenkonzept deckt Power BI drei von vier vorhandenen Rollen ab. Es ist demnach ein passendes Tool für „End User“, „Ad Hoc User“ und „Power User“. Diese Rollen müssen immer unter Berücksichtigung der unternehmensinternen BI Governance identifiziert und besetzt werden, andernfalls kann es rasch zu einem unkontrollierbaren Berichtswildwuchs kommen (eine Übersicht zu den von der QUNIS in Projekten genutzten Software und Technologien finden Sie hier).

 

Ad-hoc Anforderungen effizient umsetzen

Power BI zeigt seine besondere Stärke, wenn es um Ad-hoc-Anforderungen mit einem hohen Bedarf an Visualisierung geht, und dass sowohl in der BI als auch im Big-Data-Umfeld. Es lässt sich damit auch für Ad-hoc Reporting sehr gut verwenden. Seine umfangreichen Datenkonnektoren spielen dabei eine wichtige Rolle. Ebenso sind Standardreporting und Dashboarding mit Power BI gut umsetzbar, aber es existieren leistungsfähigere Alternativen für dieses Spezialszenario – wie beispielsweise die Reporting Services von Microsoft. Ferner fehlt bis jetzt eine umfangreiche Parametrisierbarkeit und das Zusammenspiel der einzelnen Berichte könnte abgestimmter sein. Die heute noch fehlenden Funktionen verhindern jedoch keineswegs die einfache Nutzbarkeit der Software gemäß dem Self-Service-Gedanken.

 

Integration mit den Microsoft Reporting Services

Ein weiterer wichtiger Aspekt von Power BI ist die Integration auf Applikationsebene. Z.B. können Anwender Berichte, die mit den „Microsoft Reporting Services“ erstellt wurden, in den Power BI Services veröffentlichen und genauso funktioniert es auch andersherum. Wurden die Power-BI-Berichte im „Microsoft Report Server“ vormals lediglich als statisches Kachelsymbol dargestellt, so sind sie mittlerweile als Power-BI-Berichtsdatei verteilbar, und auch Dashboard-Elemente finden nun in Reporting-Services-Berichten Platz. Zukünftig soll eine vollständige Integration von Power-BI-Berichten in den Reporting Services möglich sein, womit Power BI als reine On-Premises-Lösung mit vollem Funktionsumfang betrieben werden könnte. Darüber hinaus bietet Power BI noch weitere Integrationsmöglichkeiten, wie zum Beispiel in die Software „BI Office“ von Pyramid Analytics oder in SharePoint, wenngleich hier noch Nachholbedarf besteht. Sehr hilfreich und beliebt ist die Integration in PowerPoint, wodurch Berichte und Dashboards mit nur wenigen Mausklicks und in ihrer gesamten Interaktivität in eine Präsentation eingebunden werden können. Damit zeigt sich, dass Power BI nicht nur im Cloud Umfeld nutzbar ist, sondern auch als On-Premises-Lösung, die schon heute gut mit anderen Applikationen interagiert.

 

Abschließend lässt sich sagen, dass Microsoft mit Power BI ein sehr interessantes Tool am Markt erfolgreich etabliert hat, dass sich durch eine starke Community schnell weiterentwickelt, immer mehr Anforderungen der Nutzer abdeckt und in Folge dessen ein ernstzunehmendes Produkt für Anforderungen in der BI aber auch im Big-Data-Umfeld darstellt. Der vollständige Funktionsumfang steht allerdings nur in der lizenzpflichtigen Pro Version zur Verfügung. Für das Microsoft Portfolio ist Power BI eine moderne Ergänzung, die sich als eigenständiges Self Service BI Tool sowohl in die bestehende Cloud- und On-Premises-BI- als auch Big-Data-Produktpalette des Anbieters integriert.

 

Weitere Blog-Beiträge, die Sie interessieren könnten: