Archiv für die Kategorie Data Warehouse

Digital Workplaces, Data Literacy, Cloud, Data Catalogs und mehr – das bewegt die Data & Analytics-Welt

Erstellt am: Dienstag, 31. Mai 2022 von Monika Düsterhöft

Das Thema Data & Analytics hat deutlich an Fahrt aufgenommen: Die Initiale für Projekte und Initiativen sind dabei so vielfältig wie nie zuvor. Die Herausforderungen und Antworten darauf ebenso.

Viele Organisationen stellen sich aktuell IT-seitig komplett neu auf

Aus selbst definierten strategischen Gründen oder auch weil technische Erweiterungen von Softwareherstellern eine komplett neue Ausrichtung erfordern. Dabei wird kaum noch monolithisch alles einer einzigen, zentralen Strategie unter­geordnet. Stattdessen eröffnen sich heterogene Welten beispielsweise mit Cloud-Angeboten, Spezialapplikationen unter anderem für Product-Lifecycle-Management oder Firmendatenbanken wie etwa Produktinformationssysteme.

Diese Entwicklung erfordert angesichts der Vielfalt und Komplexität der Aufgaben im Kontext von Data & Analytics umso mehr feste Konzepte für das Stamm- und Metadaten-Management. Schließlich gilt es, jederzeit den Überblick zu bewahren und Transparenz zu gewährleisten.

Ebenso geht nicht erst seit, aber forciert durch Corona der Trend hin zum verteilten Arbeiten. Sogar Unternehmen, die sich vor nicht allzu langer Zeit noch dagegen gesperrt haben, stellen mittlerweile Digital Workplaces bereit. Auch hier spielt die Cloud eine zunehmend wichtige Rolle, um den mobilen Zugriff auf die Systeme etablieren und von der Infrastruktur her überhaupt ausrollen zu können. Über die Technologie hinaus erfordert dies vielfach neue Konzepte und Handlungsweisen.

Zudem betrifft die Digitalisierung die unterschiedlichsten Bereiche in einem Unternehmen – ob in der Kommunikation, im Vertrieb, dem Kundenservice oder der HR-Abteilung. Neben dem elementaren Organisationsmanagement, das die Struktur des „Gesamtkonstrukts Digitalisierung“ steuern und optimieren soll, benötigen diese Transformations- oder vielmehr Veränderungsprozesse immer auch ein gutes Change Management. Denn nicht nur die Prozesse müssen stimmen, sondern die Menschen dahinter müssen abgeholt und mitgenommen werden, um die veränderten Prozesse dauerhaft und erfolgreich im Unternehmen zu etablieren.

Damit einher geht auch der steigende Bedarf an Kompetenzen, dem sogenannten Upskilling. Die zunehmend digitalisierte Arbeitswelt erfordert abteilungsübergreifende Kompetenzerweiterungen; das gilt für den IT- und Technik-Bereich, aber auch in Marketing & Kommunikation und erstreckt sich ebenso über Anforderungen wie Mitarbeiterentwicklung, Problemlösungskompetenzen oder Konfliktmanagement bzw. Teamwork. Das alles muss bedacht und umgesetzt werden, da sonst Digitalisierungsinseln entstehen und ein Scheitern des ganzheitlichen Ansatzes vorprogrammiert ist.

Datenlandschaften gehören erweitert, sichere Zugänge gewährleistet

Immer bedeutender werden die sogenannten Digitalen Zwillinge oder auch Digital Twins. Dabei handelt es sich um digitale Nachbauten von physischen Objekten, Produkten und Services. Diese müssen in die Prozesslandschaften integriert werden, damit Simulationen und Forecasts rein digital stattfinden können – interessant ist dies beispielsweise für Produktentwicklung oder Qualitäts­management.

Die Daten als erfolgsentscheidendes Asset zu begreifen und entsprechend zu nutzen, bedeutet in der Konsequenz: Alle Mitarbeiter müssen im Sinne von Data Literacy (ein neu aufge­kommenes Buzzword) möglichst einfachen Zugang zu den Daten haben – und dies umso mehr an den Stellen, an denen sie Potenzial zu einem echten Mehrwert mitbringen. Das zu ermöglichen, zeigt sich als weiterer Treiber für Data & Analytics-Projekte.

Durch all dies zieht sich der effiziente und nachhaltige Schutz der Daten wie ein roter Faden. Dabei geht es sowohl um alltägliche Dinge wie Zugriffsrechte als auch um heikle Themen, Stichwort Cyber-Kriminalität. Hier stellt der Gesetzgeber teils klare Forderungen. Vor diesem Hintergrund sind deutlich strukturiertere Vorgehensweisen erforderlich, als sie bislang vielerorts praktiziert wurden.

Das gilt ganz speziell für das Umfeld von Data & Analytics, wo aus bloßen Daten wahre Daten­schätze entstehen und zu schützen sind. Gerade in Cloud-Umgebungen muss man genau hinsehen, wo genau und wie die Daten gespeichert werden und wer Zugriff darauf hat.

Datengetriebene Produkte und Services schüren Innovationskraft

Sah es noch vor einem Jahr n ganz anders aus, so werden heute bei uns viel mehr Add-Ons zu den Bestands­produkten, Erweiterungen zu bestehenden Devices oder auch Zusatzservices und Dienstleistungen nachgefragt. Dieser Trend zur Anbindung von Geräten zeigt sich auch im privaten Umfeld, wo sich mittlerweile der Kühlschrank, die Heizung, das Auto und anderes mehr problemlos mit dem Internet verbinden lassen.

Viele Unternehmen wollen darüber ihr bisheriges Business-Modell von Verkaufen auf Vermieten umstellen, um so neuen Marktanforderungen gerecht zu werden. Auch hier entstehen große Mengen an hochwertigen Daten, die in der Analytics-Welt gewinnbringend genutzt werden können. Ein Beispiel von vielen: In unseren Kundenprojekten nehmen wir verstärkt einen Trend zur Produktindividualisierung wahr.

Hierfür stehen die Organisationen jedoch vor der Herausforderung, möglichst genau zu wissen, an welcher Stelle sie mit der Individualisierung ansetzen können und inwieweit dies überhaupt lohnenswert ist. Die notwendigen Daten dafür liefern Data & Analytics.

Technologie wird zum Service

Es zeichnet sich ganz allgemein eine Entwicklung dahingehend ab, dass die technologischen Konzepte, die in den vergangenen zehn bis fünfzehn Jahren gut funktioniert haben, in unseren zunehmend dynamischen Zeiten an ihr Limit stoßen: Aktuelle Herausforderungen erfordern moderne und innovative Methoden und Werkzeuge. Unternehmen müssen daher konkrete Über­legungen über ihre künftige Ausrichtung anstellen.

In diesem Kontext wird Technologie zum Service. So gehen derzeit zwischen 70 und 80 Prozent aller neu begonnenen Projekte von QUNIS in Richtung Cloud-orientierter Nutzung von Services. Die Organisationen bauen nicht mehr inhouse Technologien auf, sondern verwenden teils komplette Softwarelösungen verschiedener Cloud-Anbieter als Managed Services. Dabei wird je nach Anwendungsfall sehr häufig auch auf hybride Architekturen gesetzt, bestehend aus der Kombination von Cloud- und On-Premise-Systemen.

Generell jedoch ist festzustellen, dass Cloud-Architekturen nicht mehr nur auf dem Vormarsch sind, sondern speziell in der Data & Analytics-Welt sogar überwiegen.

Oft nämlich könnten die Unternehmen die angebotenen Services gar nicht eigenständig betreiben, weil ihnen die erforder­lichen Ressourcen und das entsprechende Know-how für die teils sehr komplexen Technologien fehlen. War es beispielsweise in früheren Zeiten noch mit dem Aufbau eines kleinen Data Ware­houses getan, sind heute deutlich mehr Spezialtechnologien notwendig wie etwa Machine-Learning-Algorithmen.

Immer mehr Daten werden in zunehmend mehr Anwendungsfällen verarbeitet. Aufgrund dessen wird eine nochmals verbessere Usability für die Nutzer mit möglichst niedrigen Eintritts­hürden schlichtweg erfolgsentscheidend bei der Anwendung der unterschiedlichen Technologie­produkte.

Hier bewähren sich Business-Glossars und Data Catalogs, mit denen sich die zunehmenden Datenvolumina automatisiert ordnen und vereinheitlichen lassen. Metadaten-Management-Lösungen können dabei helfen, mit den Daten und modellierten Inhalten besser und unkomplizierter zu arbeiten.

Data & Analytics wächst und weitet sich aus

Branchenübergreifend zeigt sich, dass Organisationen fachlich gesehen mit immer heterogeneren Datenformaten umzugehen haben, um daraus ihre Erkenntnisse zu gewinnen. Dazu zählen im Kontext von Data & Analytics beispielsweise Sensordaten und Texte, aber auch Bild- und Audio-Material.

Gleichzeitig werden die Anwendungsfälle tendenziell businesskritischer. Bislang beispielsweise war ein kurzfristiger Ausfall des BI-Systems nicht sonderlich problematisch, weil es nicht direkt relevant für die operative Ebene war, sondern lediglich steuernd und informativ. Heute hingegen greifen wir hierüber in Echtzeit tief in die Prozesse hinein und generieren Erkenntnis­gewinne für die operative Steuerung etwa von Produktions- oder Logistikprozessen oder hinsichtlich der Up- und Cross-Selling-Potenziale von Webshops.

Zudem verzeichnen wir stetig komplexere Self-Service-Anforderungen. Die Nutzer möchten etwa nicht mehr nur schnell ein einfaches Dashboard selbst bauen. Sie fordern vielmehr techno­logische Strukturen, um über den Self-Service-Ansatz beispielsweise Massendaten selbstständig auswerten zu können. Da es ihnen hierbei jedoch an der jahrelangen Erfahrung echter Experten mangelt, entsteht entsprechender Anleitungsbedarf – dabei müssen Standardisierung und Harmoni­sierung natürlich jederzeit gewährleistet bleiben.

Wahl der Plattform wird zweitrangig

Bei der Wahl der Infrastruktur gibt es für Unternehmen verschiedene Optionen: On-Premise, Public Cloud in Form von PaaS und SaaS oder Container-Strategien. Häufig nutzen Unternehmen auch eine Multi-Cloud-Strategie mit mehr als nur einem Hyperscaler. Eine wichtige Rolle spielt hier die Portierbarkeit, damit zu jeder Zeit die Flexibilität erhalten bleibt, den Cloud-Anbieter gegebenenfalls problemlos wechseln zu können. Alternativ entscheiden Organisationen sich von vornherein für eine hybride Lösung aus Cloud und On-Premise.

Nicht zuletzt wird die Rolle von Open-Source-Technologie zunehmend bedeutender. In der klassischen BI-Welt weniger eingesetzt, kommt sie im Umfeld von Streaming, Big Data, Machine Learning sowie bei Prozessen auf Basis von Massendaten jetzt verstärkter zum Einsatz – mit dem Potenzial, den Markt nahezu zu dominieren.

Data Management Units zur Umsetzung Ihrer Datenarchitektur 

Das Thema Architektur und wie sich Architekturen verändern kann man derzeit als klaren Trend am Markt erkennen. In diesem Zusammenhang bieten wir bei QUNIS je nach der Zielsetzung, die Unternehmen mit ihrer jeweiligen Data & Analytics-Strategie verfolgen, sogenannte Data Management Units (DM Units) an. Diese bilden das Herzstück der Datenverarbeitung und -speicherung bei Data & Analytics-Initiativen.

Mit Self-Service-BI, Data Warehouse, Data Warehouse & Data Lake, Lakehouse und Streaming stehen insgesamt fünf DM Units mit einem jeweils unterschiedlichen Leistungsspektrum zur Verfügung.

Welche DM Unit für ein Unternehmen infrage kommt, hängt dabei immer von der Ausrichtung der künftigen Architektur ab. Die Entscheidung darüber sollte stets vorab getroffen werden, weil sich etwa die eher pragmatische Variante Self-Service-BI im Nachhinein nicht so schnell in ein komplexeres Lakehouse umwandeln lässt. Mit verschiedenen Add-Ons lassen sich die zentrale Datenspeicherung und -verarbeitung der DM Units modular um zusätzliche Funktionen erweitern. In jedem Fall notwendig sind Visualization & Reporting, Monitoring und Process Control, hinzu kommen optionale, teils kombinierbare Add-Ons wie beispielsweise für API, Virtualisierung oder Metadaten-Management wählbar.

Ihr Thema ist mit dabei? Sie haben sich und Ihre aktuellen Herausforderungen widererkannt und wünschen sich dafür Beratung und Begleitung von QUNIS und unseren Experten?

Sprechen Sie einfach Ihren QUNIS-Berater*in an oder schreiben Sie direkt eine E-Mail an team@qunis.de und verraten Sie uns ein wenig mehr zu Ihrer Motivation, Ihren Zielen und Vorhaben. Wir freuen uns auf den Austausch und die Diskussion mit Ihnen.

Vetter: Umfassende BI & Analytics-Strategie

Erstellt am: Donnerstag, 19. Mai 2022 von Monika Düsterhöft

Der Pharma-Dienstleister Vetter hat seine BI-Lösung für die Unternehmenssteuerung bereits im Jahr 1998 eingeführt und entwickelt diese beständig weiter. QUNIS begleitet die BI-Experten von Vetter mit effektiver Strategieberatung, die eine sichere Basis für die interne Umsetzung bildet.

QUNIS berät uns ganzheitlich und nachhaltig zu den Themen Organisation, Prozessen, Tools, zur Systemarchitektur und Datenplattform. Bei der Entwicklung unserer Produktstrategie bringt QUNIS den Analysten-Blick auf Marktrends zusammen mit Technologie Know-how und langjähriger Projekterfahrung in die Beratung ein. Ein Partner, auf den ich nicht verzichten möchte.


Armin Rauch,
Vice President Controlling Systeme & BI bei Vetter 

Eine BI-Lösung, die mitwächst

Als global führender CDMO (Contract Development and Manufacturing Organization) bietet Vetter seinen Kunden umfassende Fill & Finish-Services, von der klinischen Entwicklung bis zur weltweiten Markteinführung der Kundenprodukte. Mit modernsten Produktionsstätten in Deutschland, den USA und Österreich sowie wachsender Präsenz in Asien besteht jahrzehntelange Erfahrung in der Zusammenarbeit mit großen wie kleinen Pharma- und Biotechnologieunternehmen und im Umgang mit einer breiten Palette an komplexen Wirkstoffen.

Eine langjährig betriebene BI-Lösung auf Basis von IBM Planning Analytics ist beständig mit dem Unternehmen mitgewachsen. Insbesondere für die Themen Financial Reporting, integrierte Unternehmensplanung und Konzernkonsolidierung wird die Lösung konzernweit eingesetzt. Ein Meilenstein war die Einführung von SAP und die Einrichtung von SAP BW als zentrales Data Warehouse in 2009, das seitdem auch als Datenquelle für die Data Marts der IBM-Umgebung dient.

Der Blick von außen ist wichtig 

Im mittelständischen Familienunternehmen setzt man auf die eigenen Ressourcen und packt selbst an. Bei Vetter gibt es folglich sowohl im Controlling als auch in der IT viel interne BI-Erfahrung. Um den Betrieb und Ausbau der BI- und Berichtslandschaft kümmert sich der Vice President Controlling Systeme & BI Armin Rauch, in enger Zusammenarbeit mit den IT-Kollegen.

Der Controllingleiter ist jedoch auch überzeugt: Eine kluge Entwicklungsstrategie, die für das Unternehmen sinnvolle Innovation anvisiert und zugleich nachhaltig sein soll, benötigt ab und zu einen Blick von außen. Den richtigen Beratungspartner hat Armin Rauch mit QUNIS gefunden. Seit 2015 trifft sich das BI- & Analytics Team von Vetter regelmäßig mit QUNIS zur Review der BI-Strategie und zur Weiterentwicklung der Data & Analytics-Aktivitäten, meist in Form kurzer Workshops zu den jeweils anstehenden Themen.

Eine der ersten Maßnahmen, die besprochen wurden, war die Einrichtung eines virtuellen BICC, in dem ein Kernteam aus Controlling und IT zusammenarbeitet. Zusätzlich wurden in den einzelnen Fachbereichen Key- bzw. Power User als Ansprechpartner und Multiplikatoren für das BI-Thema benannt, die je nach fachspezifischer Anforderung im BICC crossfunktional mitarbeiten.

Modernisierung mit Augenmaß

Seit der Zusammenarbeit mit QUNIS hat sich die klassische BI-Welt schrittweise hin zu einem modernen, zukunftsorientierten BI & Analytics-Bereich gewandelt. Wesentliche Ansatzpunkte waren dabei die organisatorische Weiterentwicklung, die Erarbeitung technologischer Herausforderungen sowie die kontinuierliche Verbreitung von Self-Service BI (SSBI) in den Fachbereichen.

Bei der Weiterentwicklung der BI-Landschaft verfolgt Vetter einen durchgängigen Steuerungsansatz, der die operativen Einheiten wie Vertrieb, Einkauf, Produktion oder Technik bis hin zur Unternehmensleitung in der standardisierten Berichtswelt verbindet. Die Ravensburger Zentrale agiert dabei auch für die Bereiche Controlling und BI im Sinne eines Shared Service Center.

Praxisnah und lösungsorientiert

Armin Rauch sieht die Zusammenarbeit mit QUNIS als äußerst effektiv. In wenigen Tagen wurden dabei klare Handlungsempfehlungen erarbeitet und konkrete Maßnahmen zur Umsetzung initiiert. Definierte Best Practices und Frameworks von QUNIS helfen bei der schnellen und sicheren Realisierung. So sind heute die Organisationsstrukturen und Prozesse auf Basis eines standardisierten Governance Frameworks von QUNIS klar geregelt.

Das QUNIS Rollenmodell für die BI-Organisation konnte Vetter übernehmen und einfach an die unternehmensspezifischen Anforderungen anpassen. Für die Erweiterung um Analytics-Anwendungen hat das BI & Analytics-Team Data Science Use Cases mit QUNIS gesammelt und zur Erarbeitung einer Referenzarchitektur herangezogen. Aber auch der Prozess zur Bewertung und Priorisierung von Advanced Analytics Use Cases basiert auf dem Erfahrungsaustausch mit QUNIS. 

Nachhaltig verankerte Governance und zukunftsfähige Tool-Strategie

Der aktuelle Entwicklungsschwerpunkt liegt in der Verankerung der Governance im Unternehmen. Dem Unternehmen als zentrale Instanz für Trusted Data Informationen zur Entscheidungsfindung zur Verfügung zu stellen und gleichzeitig Agilität und Flexibilität zu ermöglichen, ist kein Widerspruch. Die Voraussetzungen dafür schafft die richtige Organisation, eingebettet in eine unternehmensweite Governance. Daneben sind Entscheidungen in ein zukunftsfähiges BI & Analytics- Tool Portfolio wesentlich für Vetter – auch im Hinblick auf die unternehmensweite Cloud-Strategie.

Armin Rauch setzt hier auf den Marktüberblick von QUNIS und hebt zudem die fachliche Kompetenz und persönliche Integrität der QUNIS-Berater hervor.

Das schafft Vertrauen im gesamten Unternehmen und hilft auch, interne Diskussionen offen und konstruktiv zu führen – ein nicht zu unterschätzender Pluspunkt im oft politischen Umfeld unternehmensweiter BI- und Analytics-Projekte.

Mehr zu Vetter: Vetter ist ein internationaler Spezialist in der Fertigung von aseptisch vorgefüllten Injektionssystemen wie Spritzen, Karpulen und Vials. Das Familienunternehmen bietet umfassendes Know-how und hochmoderne Fertigungsanlagen für die frühen Phasen der klinischen Entwicklung bis hin zur behördlichen Zulassung und Markteinführung. Gegründet am Hauptsitz in Ravensburg, hat das Unternehmen heute 5.700 Mitarbeitende und Produktionsstätten in Deutschland, Österreich und den USA sowie Büros in Südkorea, Japan, China und Singapur..

Mehr zu QUNIS StrategieberatungQUNIS Strategie

Dentsu: Zentrales Data Warehouse für Controlling und systemübergreifende Analytics, Data Enrichment und Datenkonsolidierung für automatisiertes Reporting

Erstellt am: Donnerstag, 21. Januar 2021 von Monika Düsterhöft

Die deutsche Tochtergesellschaft der international agierenden Medienagentur-Gruppe dentsu hat ihre heterogenen Datensilos in ein zentrales Financial Data Warehouse überführt. Damit können betriebswirtschaftliche Reports, Analysen, Planungen und Forecasts auf der einheitlichen Basis eines Single Point of Truth entstehen. Mithilfe seiner neuen BI-Lösung generiert dentsu Germany seine entscheidungsrelevanten Daten deutlich schneller und aktueller, aber auch zuverlässiger und sicherer.

Früher galt: heute gebaut und morgen veraltet. Das sollte dringend geändert werden. Erklärtes Ziel war eine übergreifende Datenbasis, die mehrfach täglich aktualisiert wird. Dies sollte eine deutschlandweit systemübergreifende Auswertbarkeit und Analysefähigkeit aller steuerungsrelevanten Finanzdaten ermöglichen.


Patrick Sura,
Director Business Intelligence DACH bei
Dentsu

Datengetriebenes Geschäftsmodell

Die Medienagentur-Gruppe dentsu International wurde 1901 in Japan gegründet. Fokussiert auf die Geschäftsbereiche Media, CRM und Creative bedient das weltumspannende Netzwerk mit seinen 66.000 Mitarbeitenden rund 11.000 Kunden in 143 Ländern. dentsu Germany zählt hierzulande zu den größten fünf Agenturen für Kommunikations- und Mediaberatung. Die 1.500 Beschäftigten verteilen sich auf den Firmensitz in Frankfurt am Main und weitere Standorte in Augsburg, Düsseldorf, Hamburg und München.

In der Media-Branche nehmen Daten ganz generell einen hohen Stellenwert ein. Sie lassen Vorhersagen zu über das Zielgruppenverhalten, um mit möglichst geringen Streuverlusten werben zu können. Zudem sind sie solide Basis für Mediapläne mit zu platzierenden Schaltungen, die das Kundenbudget optimal einsetzen. Datengetrieben sind bei dentsu Germany aber auch die betriebswirtschaftlichen Belange zur Steuerung der vernetzten Agenturen. Nur auf der Grundlage homogener Daten nämlich lassen sich valide Entscheidungen treffen, um das Unternehmen sicher auf Kurs zu halten und den eingeschlagenen Wachstumspfad weiter zu beschreiten.

Diesen Ansprüchen konnte jedoch die bisherige Vorgehensweise nicht mehr gerecht werden. „Jeder hatte mehr oder weniger Zugang zu vereinzelten Datentöpfen und baute sich seine Berichte bei Bedarf in Excel selbst zusammen“, blickt Patrick Sura zurück. „Weil es keinen Single Point of Truth gab, musste man in den Meetings zuerst zeitraubend klären, wer die richtigen Zahlen hat, bevor es an die strategischen Auswertungen gehen konnte.“ Vor diesem Hintergrund traf dentsu Germany die Entscheidung zum Aufbau eines Financial Data Warehouse.

Erfahrenen Projektleiter gewonnen

Hierfür wurde eigens eine neue Stelle geschaffen und 2017 mit Patrick Sura besetzt. Der aus Speyer stammende Diplom- Betriebswirt (FH) ist langjähriger Branchenkenner und hatte als Finance-Controller einschlägige Data-Warehouse-Projekte erfolgreich umgesetzt.

Damals wie heute war QUNIS präferierter Projektpartner. „Ich hatte auf einer Fortbildungsveranstaltung der controller akademie einen der Geschäftsführer kennen gelernt, der dort einen Vortrag hielt“, erinnert sich Patrick Sura an sein Treffen mit Hermann Hebben, das zum ersten gemeinsamen Data-Warehouse-Projekt führte.

Financial Data Warehouse als Single Point of Truth

Die IT-Infrastruktur von dentsu ist nur in geringem Maße global organisiert. Größtenteils unterhalten die Tochtergesellschaften in den Ländern lokale Systeme etwa für ERP (Enterprise Resource Planning), Datenhaltung und Controlling. Beim Antritt fand Patrick Sura rudimentäre BI-Strukturen vor, erste Ansätze über SAP BW waren ins Leere gelaufen.

Gemeinsam mit QUNIS startete er das Projekt zum Aufbau eines Financial Data Warehouse. Die bislang dezentral gehaltenen Finance-Daten sollten zusammengeführt werden für Verknüpfungen, um allgemeingültige Kennzahlen für ein flexibles Controlling zu gewinnen. Beim Aufbau auf technologischer Basis des Microsoft SQL Servers wurde die QUNIS Automation Engine eingesetzt – „mit immensen Vorteilen hinsichtlich Automatisierung und Standardisierung“, wie Patrick Sura betont. So erfolgte die Datenbankentwicklung weitestgehend automatisiert, genauso der komplette ELT (Extract, Load, Transform)-Prozess aus Vorsystemen wie SAP/R3, SAP BW und ein Mediasystem auf ORACLE-Basis.

„Die QUNIS Automation Engine führt auf einer komfortablen Web-Oberfläche durch die einzelnen Schritte. Man designt mit Metadaten und erhält den Quellcode des Data Warehouse, ohne nur eine Zeile dafür händisch geschrieben zu haben.“ Das geht viel schneller und minimiert die Fehlerpotenziale, unterstreicht der Projektleiter und ergänzt: „Der Engine-Logik folgend, wird stets nach dem gleichen Prinzip vorgegangen. Das macht das Ergebnis personenunabhängig und besser nachvollziehbar. Dadurch lassen sich auch spätere Anpassungen in allen relevanten Teilbereichen viel effizienter abbilden.“

Data Enrichment und Datenkonsolidierung

Schon in früher Projektphase wurde deutlich, dass die Stammdaten vor der Übernahme ins Data Warehouse zur Steigerung der Qualität überarbeitet und angereichert werden müssten. Hierfür griff Patrick Sura mit GAPTEQ auf eine „willkommene Alternative zum mühsamen und fehleranfälligen Weg via Excel“ zurück. Bei GAPTEQ handelt es sich um eine Low-Code-Technologie zur Realisierung von Oberflächen für SQL-Datenbanken. Das Einsatzspektrum reicht vom einfachen Web- Formular bis hin zur komplexen Business- Applikation – mit wenig Aufwand per Drag & Drop, smart und sehr schnell, wie sich im Projektverlauf bestätigte.

Top-aktuelle Analysen und Berichte auf Abruf

Nachts und mehrfach im Tagesverlauf werden die Daten im Data Warehouse automatisiert in den Analysis Services bereitgestellt, wo alle KPI (Key Performance Indicators) und Regeln hinterlegt sind. Wer die entsprechenden Power-BI-Dashboards und -Berichte zur Auswertung bereitgestellt bekommt, definiert ein ebenfalls mithilfe von GAPTEQ integriertes Security-Konzept. Nach erfolgtem Kickoff Ende 2018 und Beginn der Arbeiten Anfang 2019 konnten so bereits Ende Juli 2019 die ersten Reports mit der neuen BI-Lösung erstellt werden. Mittlerweile ist jeder Bericht an die Datenquellen des Data Warehouse angeschlossen, so dass Aktualisierungen jederzeit abgerufen und in derselben Ansicht dargestellt werden können.

Maßgeschneiderte Business-Applikationen

Data Enrichment und Security-Konzept ließen das Management erkennen, wie hoch die Potenziale von GAPTEQ sind: „Schier grenzenlos einsetzbar und mit unglaublich schnellen Ergebnissen – eine klassische Programmierung wäre x-fach teurer und langwieriger“, so Patrick Sura. Vor diesem Hintergrund sollten mit Applikationen wie der Target-App und den OPEX Forecasts zwei Business-Applikationen folgen.

  • Über die Target-App werden abgeleitet von der Gesamtplanung die jeweiligen Ziele für das Agenturen-Management in vier verschiedenen Kategorien festgelegt. In GAPTEQ sehen die Manager die vereinbarten Targets kombiniert mit den Ist-Zahlen aus dem Data Warehouse. Das zeigt, was schon erreicht wurde und noch zu tun ist. Sie können die Werte auch fortschreiben und per Knopfdruck sofort sichtbar aktualisieren. Nicht zuletzt dank der QAE und dem einhergehenden betont sauberen Datenmodell, auf dessen Basis die Target- App aufsetzt, hat die Einrichtung gerade mal drei Wochen benötigt.
  • Die OPEX-Forecasts über die Ausgaben für den operativen Geschäftsbetrieb waren nach nur sechs Wochen Projektzeit umgesetzt. GuV-Forecast auf Kontoebene, jeden Monat die Ist-Zahlen anschauen und bis zum Jahresende forecasten, dabei die Budgets abstimmen: Was ehedem mühsam und mit allen Nachteilen per Excel zu erledigen war, geht nun vollständig integriert vonstatten. Dank Security-Konzept können zudem die Ressortleiter zu Controlling-Zwecken auf relevante Kostenstellen zugreifen.

„Wir sammeln die Planzahlen je Kostenstelle von den Verantwortlichen ein und konsolidieren sie direkt auf dem Server mit dem einheitlichen Datenmodell“, erklärt Patrick Sura. „Somit können wir, wenn die Ist-Zahlen des Monats vorliegen, im Nachgang einen Plan-Ist-Vergleich ziehen.“ Als Sahnestückchen hat er auch noch den Drill-Through auf Belegebene integriert. So haben die berechtigten User die Möglichkeit, alle Buchungen zurückzuverfolgen und sich die dazugehörenden Detailinformationen anzeigen zu lassen.

Ergebnisse und Ausblick

Unterstützt von QUNIS hat dentsu Germany mit dem Financial Data Warehouse grundlegende Strukturen für ein schlagkräftiges Controlling geschaffen. In einem fließenden Prozess sind unter sukzessiver Einbeziehung der GAPTEQ-Technologie eine Security- Konzeption und mehrere Business-Applikationen entstanden. Diese ermöglichen eine sichere betriebswirtschaftliche Steuerung des Agenturnetzwerks von den Abteilungs- und Standortleitern über die Geschäftsführer der Agenturen bis hin zum Top-Management mit CFO und CEO.

„Wir generieren heute über Nacht und mehrmals täglich, was früher nur ein Mal im Monat möglich war. Um diesen hohen Grad der Automatisierung und Digitalisierung in unserer Berichterstattung zu erreichen, hätte man mich als Controller mit Faktor 50 klonen müssen. Dabei sind die Anwendungen denkbar einfach gehalten und erfordern keinerlei Schulungen: Wer ein iPhone bedienen kann, kriegt auch das hin“, resümiert Patrick Sura.

Bereits für 2021 ist jetzt das Ausrollen des Gesamtsystems auf die DACH-Region geplant.

Mehr zu dentsu: Dentsu international ist Teil von dentsu und besteht aus weltweit führenden Marken – Carat, dentsu X, iProspect, Isobar, dentsumcgarrybowen, Merkle, MKTG, Vizeum, Posterscope und seinen weiteren spezialisierten Agenturmarken. Dentsu International unterstützt seine Kunden, die Beziehungen zu ihren Konsumenten auszubauen und einen nachhaltigen Fortschritt für ihr Unternehmen zu erzielen. Mit exzellenten Dienstleistungen und Lösungen in den Bereichen Media, CXM und Creative ist dentsu international in über 145 Märkten weltweit mit mehr als 48.000 engagierten Spezialisten tätig. In Deutschland bietet dentsu mit seinem Agenturportfolio die komplette Wertschöpfungskette der Marketing Services an und ist präsent an den Standorten Frankfurt, Hamburg, Düsseldorf, Augsburg und München.

Rothoblaas: Mobiles Reporting, Data Warehousing und saubere Daten für die weitere Expansion

Erstellt am: Donnerstag, 16. Juli 2020 von Monika Düsterhöft

Das international aufgestellte Südtiroler Unternehmen Rothoblaas mit weltweit 21 Tochter-Unternehmen hat sein veraltetes Reporting-System durch eine moderne BI-Lösung mit zentralem Data Warehouse ersetzt. Mit einem global verfügbaren mobilen Vertriebsreporting und einer jederzeit einfach skalierbaren, modernen Berichtsplattform ist das dynamische Unternehmen nun bestens für die Gegenwart und sein zukünftiges Wachstum aufgestellt.

Die Berichtsplattform mit zentralem Data Warehouse war für uns eine Investition in die Zukunft. Wir sind damit fit für weiteres Firmenwachstum und für den Umgang mit der Ressource Daten. Dass wir unsere Daten jetzt sauber hinterlegt haben und die Analysewelt flexibel ausbauen können, war der einzig richtige Weg.


Peter Prinoth,
Projektverantwortlicher Leiter ERP & BI,
Rothoblaas Srl

Mobile Informationsversorgung für beständig wachsendes Vertriebsteam mit altem System nicht mehr abbildbar

1991 von Robert Blaas gegründet, entwickelt Rothoblaas Produkte und Dienstleistungen für die Profis im Baugewerbe und ist heute ein international erfolgreiches Familienunternehmen. Neben der Zentrale in Kurtatsch in Südtirol ist Rothoblaas derzeit mit 21 Tochtergesellschaften sowie einer eigenen Verkaufsmannschaft in über 50 Ländern präsent und bearbeitet weltweit über 80 Märkte. Und Rothoblaas wächst kontinuierlich; jedes Jahr kommen zwei oder drei Gesellschaften zum Unternehmen dazu. Dazu trägt nicht zuletzt die weitgespannte internationale Vertriebsorganisation des Unternehmens bei.

Um den Außendienst bei seiner täglichen Arbeit vor Ort zu unterstützen, benötigte das dynamische Unternehmen ein zeitgemäßes Informationssystem für das unternehmensweite Vertriebsreporting. Die rund 250 Vertriebsmitarbeiter sollten per Web jederzeit Zugriff auf die aktuellen Kennzahlen zu ihren Kundenkontakten haben und diese auch überall mit ihrem Smartphone abrufen können.

Mit dem vorhandenen Reporting-Tool war diese Informationsversorgung nicht realisierbar. Die veraltete Lösung war von den steigenden Datenmengen überfordert, zu langsam und zu starr. Neue Auswertungen aus dem ERP-System beispielsweise mussten per SQL-Skripts definiert werden, und die Einbindung weiterer Vorsysteme als Datenquellen für kombinierte Auswertungen war kaum möglich. Rothoblaas entschloss sich daher zur Einführung einer modernen BI-Lösung auf Basis eines zentralen Data Warehouse.

QUNIS überzeugt mit Know-how und Chemie

Wichtig für die neue BI-Lösung war, dass alle Standorte auf einer zentralen Datenbasis mit konsistenten Zahlen und Strukturen arbeiten und dass neu hinzukommende Gesellschaften auch mit ihren eigenen ERP-Systemen barrierefrei eingegliedert werden können. Rothoblaas hat sich angeschaut, wie andere Unternehmen die Sache angehen und sind durch Empfehlungen auf QUNIS als Beratungs- und Realisierungspartner gestoßen.

Die guten Referenzen, die geballte Kompetenz und langjährige Erfahrung der Data- Warehouse- und BI-Spezialisten QUNIS wurde als sehr überzeugend empfunden, und von Anfang an hat die Chemie zwischen den Projektpartnern gestimmt.

Gemeinsam mit QUNIS startete das Projektteam Ende 2016 die Implementierung mit der Konzeption und dem Aufbau eines Data Warehouse auf Basis des Microsoft SQL Servers. Als Datenquelle wurde zunächst das vorhandene ERP-System Comarch per Schnittstelle angeschlossen, in weiteren Projektschritten kamen dann die Buchhaltung mit Microsoft Dynamics NAV, das CRM System und schließlich die Planungslösung Prevero dazu. Durch die Zusammenführung der verschiedenen Quelldaten sind seitdem jederzeit kombinierte Ad-hoc-Analysen auf Knopfdruck möglich.

Einfach Integration unterschiedlicher Quellsysteme ist einer der größten Vorteile der neuen BI-Lösung

Peter Prinoth sieht in der einfachen Integration unterschiedlicher Quellsysteme einen der größten Vorteile der BI-Lösung: „Durch die Einbindung von Microsoft Dynamics NAV können wir nun wesentlich schneller und detaillierter Profit- und Cost- Center-Analysen oder Zwischenbilanzen erstellen und die IC-Abstimmung durchführen. Aus Prevero fließen außerdem unsere Plandaten ein und stehen für Plan-Ist-Vergleiche von Umsätzen und Budgets bereit, und die CRM-Lösung steuert die Kundendaten bei. Wir wollen künftig noch weitere Datenquellen einbinden und können außerdem jederzeit neue Gesellschaften mit ihren bestehenden Systemen integrieren. Das gibt uns sowohl fachlich als auch hinsichtlich unserer Wachstumsstrategie volle Flexibilität für künftige Entwicklungen.“

Das weltweite Rollout des Vertriebsreportings wurde im Juni 2018 gestartet, und nach einer Testphase im Parallelbetrieb wurde das Altsystem Ende 2018 abgeschaltet. Seitdem wird die BI-Plattform kontinuierlich nach Bedarf weiter ausgebaut. QUNIS kümmert sich weiterhin um die Umsetzung neuer Anforderungen im Core des Data Warehouse, während das BI-Team von Rothoblaas eigenständig Anpassungen auf der Ebene der fachbezogenen Data Marts vornehmen kann. Viele Fragen können dabei auch schnell in telefonischen Webview- Sitzungen mit der QUNIS-Beraterin von Rothoblaas geklärt werden.

Etabliert und in beständiger Weiterentwicklung

Die BI-Lösung ist heute in allen Standorten weltweit etabliert. Die Vertriebs-Mitarbeiter greifen über die Microsoft Reporting Services (SSRS), das kostenlose Reporting-Frontend des Microsoft SQL Servers, auf ihre Standardreports zu und können damit ihre Zahlen beispielsweise nach Kunden, Produktgruppen oder Artikeln filtern. Die Berichte und Analysen stehen auf dem Smartphone in gleichem Umfang zur Verfügung. Die Bedienung ist einfach und selbsterklärend, so dass auch zur Einarbeitung der externen
Handelsvertreter ein von der Zentrale bereitgestellter Nutzungsleitfaden mit Screenshots ausreichte.

Inzwischen stehen Datencubes für klassische Analysen in den Bereichen Sales, Einkauf, Logistik und Finance bereit. Besonders hilfreich für die weltweite Anwendung ist dabei die automatische Währungsumrechnung, die in lokaler Währung verbuchte Umsätze direkt zum tagesaktuellen Kurs in Euro darstellt. Den Fachabteilungen und BI-Verantwortlichen von Rothoblaas gehen aber auch die Ideen für weitere Anwendungsbereiche nicht aus. In nächster Zeit sollen beispielsweise IC-Margen und -Flüsse im Reporting abgebildet, eine Produktqualitätskontrolle mit Lieferantenbewertung ergänzt und ein erst kürzlich im ERP-System umgesetztes Reklamationsmanagement für Auswertungen erschlossen werden.

Peter Prinoth sieht viel Potenzial für die Weiterentwicklung: „Das Data Warehouse bietet uns als zentrale Analysebasis vielfältigste Möglichkeiten für den Ausbau unseres Reportings, und wir erschließen ständig neue Datenfelder aus dem ERP-System für diesen Datentopf. Da wir organisatorische Änderungen oder neue fachliche Auswertungen selbst im System umsetzen können, funktioniert unsere Weiterentwicklung sehr schnell und kosteneffizient.“

Augenmerk auf Reportgestaltung zahlt sich aus

Neben dem Aufbau des Data Warehouse mit dem zugehörigen Datenmanagement bildet die Ausgestaltung des Reportings im Frontend den zweiten großen Schwerpunkt des BI-Projekts bei Rothoblaas. Basis dafür ist ein schlüssiges Informationskonzept, das sich gleichermaßen auf die Gestaltung des Backend- als auch des Frontend-Bereichs auswirkt.

Werden beispielsweise zu viele Kennzahlen und Detailinformationen auf Basis der entsprechend benötigten umfangreichen Datencubes in den Berichten abgebildet, sind Performance-Probleme im System absehbar – vor allem in großen Nutzer-Szenarien wie bei Rothoblaas. Moderne Informationssysteme zielen stattdessen darauf ab, dem Nutzer mit gezielten, übersichtlich visualisierten Informationen einen schnellen Überblick über sein Aufgabengebiet zu verschaffen, von dem aus er dann nach Bedarf in tiefere Analysen einsteigen kann. Dieser Aspekt war bei Rothoblaas insbesondere beim Übergang vom vorigen Tabellen-orientierten Reporting mit vielen Detailzahlen in die Welt der dynamischen Reports zu berücksichtigen.

Das Projektteam hat entsprechend viel Augenmerk auf die optimale Balance zwischen Übersichtlichkeit und Detailgrad der Berichte gelegt. Gerade an dieser Stelle profitiert Rothoblaas auch von der großen Projekterfahrung der QUNIS-Berater, wie Peter Prinoth bestätigt: „Die Planung einer passenden BI-Umgebung erfordert viel Know-how und Erfahrung auf unterschiedlichen Ebenen. Mit QUNIS haben wir den richtigen Partner an der Seite, auf dessen Fachwissen und Praxiserfahrung wir uns verlassen können.

Im Frontend-Bereich ist außerdem die Frage der Lizenzkosten ein zentrales Thema, das im Rahmen des Informationskonzepts vorab geklärt werden sollte. Hier ist zu berücksichtigen, wie viele Nutzer heute und in Zukunft zu erwarten sind und welche Anforderungen an das Reporting bestehen.

Mit den Microsoft Reporting Services (SSRS) konnte Rothoblaas den weltweiten Rollout des Vertriebsreportings kosteneffizient realisieren und alle Anforderungen abdecken. Das Werkzeug unterstützt wie gewünscht ein zuverlässiges Standardreporting mit Self-Service-Analysen und mobilem Datenzugriff. Beim weiteren Ausbau wird eventuell ein flexibleres BI-Frontend wie beispielsweise Pyramid Analytics interessant, das Rothoblaas dann einfach gegen die Reporting Services austauschen und auf das Data Warehouse aufsetzen kann.

Der richtige BI-Schritt in die Zukunft

Für Rothoblaas hat sich der Schritt in die zukunftsweisende BI-Welt gelohnt, wie Peter Prinoth festhält: „Die Berichtsplattform mit zentralem Data Warehouse war für uns eine Investition in die Zukunft, die jetzt und auf Dauer Mehrwert bringt. Einige Unternehmen in unserer Region waren am Anfang unseres Projekts noch skeptisch, weil sie eine Data-Warehouse-Lösung für ein Unternehmen unserer Größenordnung für überdimensioniert hielten – inzwischen haben die meisten selbst ähnliche Projekte gestartet, mehrere davon zusammen mit QUNIS, deren guter Ruf sich in Südtirol schnell herumgesprochen hat.“

Mehr zu Rothoblaas: Rothoblaas ist ein multinationales Unternehmen mit Ursprung in den Südtiroler Alpen, welches marktführend in der Entwicklung von technologisch hochwertigen Lösungen für den Holzbau ist. Rothoblaas entwickelt Produkte und Dienstleistungen für die Profi s im Baugewerbe: Holzbauer, Zimmerer, Ingenieure, Architekten und Monteure von Absturzsicherungssystemen. Die Produkte aus der Reihe HOLZ TECHNIC befriedigen zudem alle Anforderungen und Bedürfnisse der Fachhändler von Baumaterialien.

PUREN Pharma: Effiziente Prozesse und Datenanalysen im Web-Portal mit QUNIS

Erstellt am: Donnerstag, 12. März 2020 von Monika Düsterhöft

Das erfolgreiche Pharmaunternehmen PUREN Pharma hat mit Hilfe der QUNIS digitale End-to-End Geschäftsprozesse umgesetzt, zu denen auch fortgeschrittene Analysen mit zahlreichen internen und externen Datenarten gehören. Das spart viel Zeit und sichert die hohe Qualität von Prozessen und Informationen.

Wir haben mit QUNIS unsere komplexen Geschäftsprozesse unternehmensweit standardisiert und automatisiert. Basis ist ein zentrales Informations- und Analyse-Portal, in das wir jederzeit weitere Nutzer und Datenquellen oder neue On-Premise- und Cloud-Technologien einbinden können.


Christoph Gmeiner,
Teamlead Data Science & Business Intelligence,
PUREN Pharma GmbH & Co. KG

Die Anforderung: Umfangreiche Rechnungsbearbeitung

Generika von PUREN tragen entscheidend dazu bei, dass hochwertige Arzneimittel für jeden bezahlbar bleiben. In diesem Rahmen hat PUREN zudem zahlreiche Rabattverträge mit Krankenkassen abgeschlossen. Die Verwaltung der Verträge und der einzelnen Abschlagszahlungen an die Krankenkassen wurde für das erfolgreiche Pharmaunternehmen jedoch immer komplizierter.

Problematisch war vor allem, dass in einzeln geführten Excel-Listen der direkte Bezug zwischen den in den Apotheken getätigten Umsätzen und den monatlich, quartalsweise oder jährlich verrechneten Abschlagszahlungen an die Krankenkassen fehlte. Bei bundesweiten Verträgen mit rund 150 Krankenkassen, in denen u.a. unterschiedliche Abrechnungs-Zyklen, Rabatte und Dateiformate der Kassen zu berücksichtigen waren, entstand erheblicher manueller Aufwand für die Erfassung und Bearbeitung der Daten in einer Vielzahl von Excel-Dateien.

Das zuständige Team Data Science & Business Intelligence wollte den Prozess daher automatisieren und suchte nach einer Lösung, die einen einfach steuerbaren Freigabeworkflow für die Rechnungsbearbeitung mit einer zentralen Datenhaltung und Rechnungsprüfung im Backend verbindet. Die Systemlösung sollte flexibel und nach Bedarf skalierbar sein, um die wachsenden Anforderungen des Pharmaunternehmens dauerhaft abdecken zu können.

Die Lösung: Einfach steuerbare Prozess und Analyseplattform

Mit der Unterstützung von QUNIS hat PUREN seine ideale Lösung für anspruchsvolle Geschäftsprozesse gefunden und implementiert. Das Projektteam hat im ersten Schritt eine prozessorientierte BI-Plattform für die Bearbeitung der Abschlagsrechnungen realisiert und diese dann in Folgeprojekten systematisch zum umfassenden Portal für alle Fachbereiche ausgebaut.

Grundlage der umgesetzten Informations- und Analyseprozesse ist ein zentrales Data Warehouse auf Basis des Microsoft SQL Servers. Für die Auswertung der Daten werden je nach Bedarf OLAP-Analysen mit den Microsoft Analysis Services und Power BI sowie ML-Funktionalität (Machine Learning) aus der Cloud genutzt.

Als wesentlicher Erfolgsfaktor des Projekts hat sich der Einsatz eines anwenderfreundlichen Web-Frontends basierend  auf GAPTEQ erwiesen. Durch das einfache Handling der Software konnte das interne Projektteam von PUREN nach der anfänglichen Unterstützung durch QUNIS schnell eigenständig weitere Module umsetzen. Inzwischen sind neben einigen Detail-Anwendungen vor allem drei zentrale Geschäftsprozesse in GAPTEQ abgebildet:

1. Transparenter Prüf- und Freigabeworkflow für Abschlagsrechnungen

Was die Sachbearbeiter in der Buchhaltung früher einzeln in Excel und auf Papier erledigen mussten, läuft heute größtenteils automatisiert. Abschlagsrechnungen der Krankenkassen in verschiedensten Dateiformaten werden maschinell in GAPTEQ eingelesen und vom System geprüft. Die integrierte Power BI-Datenbank gleicht dafür Umsatz- und Absatzdaten sowie bereits geleistete Abschlagszahlungen, die per Schnittstelle aus dem ERP-System importiert werden, mit den Rechnungsdaten ab.

Automatisierte Datenströme sorgen für zuverlässige Ergebnisse, auf deren Basis dann der Workflow in GAPTEQ angesteuert wird. Gemäß der hinterlegten Matrix, z.B. je nach Höhe der Zahlungssumme, gelangt die Rechnung nach Freigabe durch die Sachbearbeiter oder ihre Vorgesetzten zur Zahlung an die Abteilungen Customer Service und die Finanzbuchahltung. Das Tracking und die Bearbeitung der zahlreichen Rabattverträge konnte PUREN so in einem übersichtlichen Standard-Workflow mit den Aktionen „Eingabe, Prüfung, Signatur, Zahlung“ umsetzen. Die Mitarbeiter der verschiedenen Abteilungen werden im anwenderfreundlichen Web-Portal sicher durch ihr Tagesgeschäft geführt, während aufwändige Arbeitsroutinen wie Datenimport, Berechnungen, Datenabgleich und Validierung automatisch im leistungsstarken Backend ablaufen.

2. Präziser Forecast für langwierige Bestell- und Lieferketten

Arzneimittel müssen für die Patienten jederzeit in ausreichender Menge verfügbar sein – in der globalisierten Pharmabranche sind jedoch lange Bestell- und Lieferketten üblich. So sind für Produkte, die PUREN Pharma von seiner indischen Muttergesellschaft bezieht, Vorlaufzeiten von bis zu sechs Monaten einzuplanen. Ein möglichst präziser Forecast der erwarteten Absatzzahlen als Grundlage für punktgenaue Besellungen ist daher erfolgsentscheidend.

Im Rahmen des „Tender Managements“ hat das interne BI-Team dafür eine Plattform für Planung und Forecast realisiert, die sich vom Vertrieb über das Bestands und Produkmanagement bis zum Einkauf durchzieht. Durch maschinell erzeugte Vorschlagswerte erreicht PUREN dabei eine sehr hohe Forecast-Genauigkeit. Die Vorschlagswerte werden mit Machine-Learning-Funktionalität aus der Cloud in drei verschiedenen Algorithmen berechnet.

Neben den historischen ERP-Daten fließen u.a. auch externe Marktdaten aus den Apotheken in die Kalkulationen ein. Die Planer können die Vorschlagswerte in ihren Planmasken dann übernehmen oder manuell anpassen. Durch übersichtlich visualierte Berichte, die z.B. die Entwicklung der Umsatzdaten und Marktanteile zeigen, werden sie bei ihrer Entscheidungsfindung unterstützt und können gegebenfalls Abweichungen vom Vorschlag fundiert herleiten und begründen.

Während früher Produktprognosen in Tausenden von Excel-Dateien gepflegt wurden, wird der Forecast heute in der leistungsfähigen Systemumgebung effizient und zuverlässig erstellt und täglich aktualisiert. Das Supply Chain Management kann für seine monatlichen Bestellungen auf sehr präzise Verkaufsprognosen im Portal zugreifen.

3. Strategische und operative Steuerung der Produktlaunches

Die Lösung unterstützt zudem sämtliche Prozesse rund um die Portfolio-Planung und die Einführung neuer Produkte. Sowohl die Entscheidungsfindung als auch die Umsetzung von Produkt-Launches wird dabei mit allen involvierten Fachbereichen in der einheitlichen Systemumgebung gesteuert. Da es sich um langfristige Projekte handelt, sind hier vor allem der hohe Standardisierungsgrad und die nachvollziehbare systemgestützte Dokumentation entscheidende Vorteile. Die Systemlösung reduziert damit die Risiken durch Spezialwissen, das an einzelne Mitarbeiter gebunden ist, und fördert
stattdessen die unternehmensweite Zusammenarbeit im mehrjährigen Projekt durch standardisierte Prozesse und klar definierte Workflows.

Der Launching-Prozess startet bei PUREN mit dem Monitoring auslaufender Patente. Der Zeithorizont bis zum Patent-Verfall der überwachten Produkte beträgt im Schnitt fünf bis sechs Jahre. Um erfolgsversprechende Kandidaten für die eigene Generika-Produktpalette zu ermitteln, werden dabei im System Business Cases durchgespielt und Szenarien mit vielfältigen Annahmen gebildet. Typische Parameter sind beispielsweise Marktdaten zu Absatz und Umsatz in den Apotheken, mögliche Verpackungsgrößen, verschiedene Rabattverträge, Zertifizierungs- und QM-Kosten, usw. Durch die mächtige Analyse-Power im Backend können die Fachanwender im Verlauf der Zeit auch jederzeit Szenarien mit veränderten Rahmenbedingungen oder Auswertungen der „Pipeline“ auf Knopfdruck erstellen.

Die Entscheidung für einen Produktlaunch fällt so auf der Basis genauer Zahlen und Fakten. Die operative Umsetzung eines Launches, der sich wiederum über rund 18 Monate ziehen kann, wird dann ebenfalls in der Systemlösung gesteuert und dokumentiert. Ab diesen Zeitpunkt wird das Projekt zu einem unternehmensweiten Workflow- Thema. GAPTEQ sorgt als Arbeitsumgebung mit transparenten Abläufen und Alerts für die sichere und effiziente Abwicklung des komplexen Prozesses. Alle Abteilungen arbeiten dabei mit einheitlichen Material- Stammdaten aus dem zugrundeliegenden Data Warehouse.

Die Vorteile: Transparenz, Effizienz und Qualität gesteigert

PUREN Pharma hat mit seiner flexiblen BI-Lösung zentrale Geschäftsprozesse automatisiert. Durch die Gestaltung digitalisierter End-to-End-Prozesse und die Integration unterschiedlichster Datenformen wurden die Effizienz und Qualität von Abläufen und Informationen erheblich gesteigert. Individuelle Anforderungen des Pharmaunternehmens konnten dabei flexibel in einem standardisierten Microsoft-Umfeld abgebildet werden. Entstanden ist ein unternehmensweites Portal für alle Nutzergruppen und verschiedene Themen.

Ein wesentlicher Vorteil ist die anwenderorientierte Nutzeroberfläche. GAPTEQ dient sowohl als einfach bedienbares Web-Frontend für die leistungsstarke Analyse-Architektur und unterstützt zugleich mit dezidierter Workflow- Funktionalität die unternehmensweite Zusammenarbeit und Kommunikation. Sämtliche Nutzer arbeiten dabei auf einer zentralen Datenbasis, und sämtliche Eingaben sind nachvollziehbar im System dokumentiert.

Das Projektteam von PUREN kann die Systemlösung jederzeit selbst weiter ausbauen, verschiedenste Daten integrieren, Eingabe-Formulare und Reports gestalten und Workflows mit dezidierten User-Berechtigungen definieren. Im nächsten Schritt sollen Pozesse für die Vertragsverwaltung, die Einkaufspreis-Steuerung und das Qualitätsmanagement umgesetzt werden. Die Microsoft Standardlösung, die bereits heute On-premise- und Cloud-Produkte in einer Hybrid-Architektur kombiniert, gewährleistet dabei einen jederzeit bedarfsgerecht skalierbaren und kosteneffizienten Systemausbau.

Die Projekt-Highlights

  • Komplexe Geschäftsprozesse digitalisiert, automatisiert und standardisiert
  • Transparente Workflows, aktive Nutzerführung mit Warnfunktionen
  • Anwenderfreundliche Nutzeroberfläche für ausgefeilte BI- und MLArchitektur
  • Schnelle Analyse und übersichtliche Visualisierung von Daten
  • Flexible Integration diverser Vorsysteme und Dateiformen
  • Effiziente und sichere Rechnungsprüfung und -Bearbeitung
  • Präziser Forecast mit maschinellen Vorschlagswerten
  • Sichere stragische und operative Steuerung mehrjähriger Launching-Projekte
  • Einheitliches Web-Portal mit zentraler Datenbasis für alle Fachbereiche
  • Valide Daten und Ergebnisse durch Automatisierung
  • Excel-Insellösungen reduziert
  • Investitionssichere, einfach skalierbare Standardsoftware

Mehr zu PUREN Pharma: Als deutsches Traditionsunternehmen mit einem über Jahrzehnte gewachsenen Produktportfolio für Praxis, Klinik und Selbstmedikation stellt PUREN die Weichen als ein zukunftsorientierter Partner im Gesundheitswesen. Mit über 120 kostengünstigen Produkten in Topqualität für den Einsatz in der Praxis, Klinik und Selbstmedikation bietet PUREN ein umfassendes, etabliertes Spektrum für fast alle relevanten Therapieoptionen. Durch umfassende Rabattverträge ist PUREN dabei ein starker Partner für Ärzte, Apotheken, Krankenkassen und Patienten zum Erhalt der Ökonomie im Gesundheitswesen. Es ist das erklärte Ziel von PUREN, durch hochwertige, preisgünstige Arzneimittel zur Gesunderhaltung aller Menschen beizutragen.

Datenqualität in BI und Big Data – wo liegt der Unterschied und wie funktioniert es zusammen?

Erstellt am: Freitag, 4. Januar 2019 von Monika Düsterhöft

In einer klassischen BI-Umgebung lagern typischerweise strukturierte Daten aus internen Vorsystemen wie Enterprise Resource Planning (ERP), Customer Relationship Management (CRM) oder der Buchhaltung. Für die Qualitätssicherung gibt es Best Practices und erprobte Technologien – man weiß genau, wie und wo man bei der Optimierung ansetzen kann, wenn der Bedarf da ist.

Unklar ist hingegen die Qualitätssicherung bei den für Predictive Analytics nötigen Big-Data-Quellen. Nutzen und Wertschöpfung der anvisierten Vorhersagemodelle hängt auch hier maßgeblich von der Qualität der zugrundeliegenden Daten ab. Systemarchitekten diskutieren nun, wie sie die Qualität von riesigen semi- und polystrukturierten Daten bewerten und sichern, welche Systemarchitekturen dabei ins Spiel kommen und wie das Datenmanagement funktioniert.

Das Data Warehouse bleibt der Single Point of Truth

Das klassische Data Warehouse hat als Kern einer typischen BI-Umgebung auch in der Welt der fortgeschrittenen Analysen seine Daseinsberechtigung. Es ist die beste Grundlage für standardisierte Berichts- und Analyseprozesse mit den unverzichtbaren Finanz- und Steuerungskennzahlen. Geht es um vorausschauende Unternehmenssteuerung, so sind diese Berichtsstandards um Trendanalysen und Prognosen aus der Big-Data-Welt zu ergänzen. In der Praxis erweist sich der sogenannte Data Lake als pragmatischer Implementierungsansatz, um hochstrukturierte Daten aus Transaktionssystemen und wenig strukturierte Big Data zusammenzuführen.

Ausgehend von der bewährten BI-Architektur mit offenen Schnittstellen lassen sich damit Big-Data-Komponenten in eine vorhandene Informationsplattform integrieren. Wichtig dabei ist, dass das zentrale Data Warehouse seinen Anspruch als Single Point of Truth im Unternehmen behält. Will man das Datenmanagement und die Qualität der Datenbasis für Advanced Analytics optimieren, ist es daher eine gute Idee, mit dem meist vorhandenen Data Warehouse zu starten.

Wie die Projektpraxis zeigt, besteht hier nämlich oft noch Handlungsbedarf. Abgesehen von Qualitätsmängeln und inkonsistenten Datenstrukturen wird mit dem Trend zu Self-Service-BI auch das bekannte Problem von Insellösungen und Datensilos wieder akut, das früher durch diverse Excel-Lösungen der Fachabteilungen verursacht wurde. Self-Service im Fachbereich ist praktisch und hat seine Berechtigung, aber das zentrale Business Intelligence Competence Center oder der BI-Verantwortliche müssen die Datenströme unter Kontrolle halten und darauf achten, dass der Single Point of Truth nicht ausgehebelt wird.

Data Warehouse Automation sichert die Datenqualität

Sind die Datenströme gut modelliert, bestehen große Chancen für eine dauerhaft hohe Datenqualität im BI-System. Durchweg strukturierte Daten von der operativen bis zur dispositiven Ebene, standardisierte Auswertungsverfahren und mächtige ETL-Werkzeuge (Extraktion, Transformation, Laden) mit integrierten Prüffunktionen ermöglichen eine hohe Automatisierung der Datenauswertung.

Für den effizienten Aufbau, die Anpassung und die Optimierung von Data Warehouses gibt es inzwischen ausgereifte Verfahren, die Standardisierung und Automatisierung erhöhen und damit die Fehlerrisiken auf ein Minimum senken. Diese Data Warehouse Automation beruht auf Frameworks, die bereits Best Practices für ETL nach etablierten Verfahren sowie Prüflogiken zur Sicherung der Datenqualität enthalten beziehungsweise deren Modellierung auf Meta-Ebene unterstützen. Neben einer effizienten Entwicklung und Administration vermeidet dieser lösungsorientierte Ansatz Konstruktionsfehler und sorgt dafür, dass für eine saubere Datenverarbeitung Best Practices zum Einsatz kommen.

Da Business Intelligence die Business-Realität möglichst genau abbilden will, ist ein hohe Datenqualität unverzichtbar. Klassische Kriterien wie Exaktheit und Vollständigkeit sind dabei zentrale Anforderungen. Schon ein Datenfehler oder eine Lücke im operativen Bestand kann das Ergebnis einer aggregierten Kennzahl verfälschen. Im Rahmen des internen und externen Berichtswesens stehen damit schnell falsche Entscheidungen oder Compliance-Verstöße im Raum.

Bei Big Data steuert der Business Case die Governance

In der Big-Data-Welt gestaltet sich die Datenqualität anders. Hier geht es zunächst darum, die relevanten Datenquellen zu bestimmen, die Daten abzuholen und zu speichern. Das ist nicht immer trivial angesichts einer Bandbreite von Daten aus dem Internet of Things, unstrukturierten Informationen aus Blogs und Social Networks, Sensordaten aus Kassensystemen und Produktionsanlagen, Messdaten aus Leitungsnetzen bis zu Datensätzen aus Navigationssystemen.

Im Gegensatz zur BI-Welt bestehen hier für die interne Datenarbeit keine allgemeingültigen Geschäftsregeln und Standards. Da es um die statistische Auswertung von Massendaten geht, sind die BI-typischen Qualitätskriterien Vollständigkeit und Exaktheit weniger wichtig. Im Rahmen der statistischen Verfahren fallen einzelne Fehler und Lücken nicht ins Gewicht, und Ausreißer lassen sich regelbasiert eliminieren. Wie groß die kritische Masse für belastbare Ergebnisse ist, wie genau, vollständig oder aktuell die Datenbasis sein muss und in welcher Form Informationen nutzbar gemacht werden, das ist für Big-Data-Analysen fallbezogen zu klären.

Die Vielfalt der Einsatzbereiche und damit die Rahmenbedingungen für die Bewertung und Bearbeitung von Daten sind nahezu unbegrenzt. Geht es etwa beim Internet of Things um die grobe Ressourcenplanung von Wartungsarbeiten für angebundene Geräte, sind Ausfälle einzelner Geräte-Meldesysteme irrelevant, da die Ermittlung von Peaks ausreicht. Im Rahmen von Predictive Maintenance ist dagegen jede konkrete Ausfallmeldung eines Gerätes wichtig. Für Kundenzufriedenheitsindizes auf Basis von Weblog-Analysen kommt es nicht auf jeden Beitrag an. Vielmehr geht es darum, Trends abzuleiten und diese in sinnvoll definierte Kennzahlen zu überführen.

Bei Big-Data-Anwendungen fallen also Datenqualitätsmanagement und Governance ebenso individuell aus wie das Analyseszenario des jeweiligen Business Case. In hoch automatisierten Anwendungen wie Autonomes Fahren oder Predictive Maintanance, in denen ausschließlich Maschinen über die Ergebnisse und Auswirkungen von Datenanalyen entscheiden, ist die Data Governance besonders wichtig. Die Quellen von Big Data liegen häufig außerhalb des Einflussbereichs der internen Prozesse: Maschinen-Output, Nutzereingaben oder Internet-Datenströme lassen sich nicht über interne organisatorische Maßnahmen kontrollieren. Bei permanent fließenden, unstrukturierten Datenquellen wie Chatforen greifen auch die klassischen ETL-Methoden nicht, und Störungen wie etwa eine Leitungsunterbrechung können nicht durch Wiederholung oder das Wiederherstellen des Datenbestands ausgeglichen werden.

Eine profunde Konzeption sichert den Projekterfolg

Das Potenzial von Predictive Analytics ist riesig, und viele Unternehmen erschließen sich gerade neue Dimensionen der Informationsgewinnung. Durch Cloud-Betriebsmodelle lassen sich neue Anwendungen schnell und kosteneffizient umsetzen. Voraussetzung dafür ist eine profunde Konzeption, die den kompletten Wertschöpfungsprozess der Daten mit Blick auf ein präzise formuliertes Projektziel abdeckt. Für ein erfolgreiches Projekt müssen anspruchsvolle Fragen der Fachlichkeit, Technik und Organisation geklärt werden. Hier empfiehlt es sich, die Erfahrung eines ganzheitlich orientierten Beratungsunternehmens hinzuzuziehen, um sich zeitraubende Umwege und schmerzhafte Lernzyklen zu ersparen.

Mehr zum QUNIS Data Lake Konzept erfahren.

Vom guten Sinn eines Data Warehouse

Erstellt am: Freitag, 13. Oktober 2017 von Monika Düsterhöft

Natürlich kann ich meine Business Intelligence Reports, Ad-hoc-Abfragen und Analysen, ja sogar Self Service BI direkt auf Basis meines ERP-Systems erstellen bzw. durchführen. Dass diese Praxis jedoch ihre natürlichen Grenzen hat, merke ich spätestens, wenn die ERP-Anwender in Scharen zu mir strömen, um sich über fehlende Performance bei ihren Erfassungsarbeiten zu beschweren.
Oder aber dann, wenn ich – da ich ja für meine Reports nicht nur Daten aus einem System benötige, sondern auch diverse Ergänzungen und Zusatzberechnungen in meinen Reports unterbringen muss – mir ein nahezu unentwirrbares System aus zusätzlicher Logik gebastelt habe, welches ich mir für weitere Auswertungen im schlimmsten Fall immer wieder neu konstruieren muss.

Steigender Aufwand im Reporting ohne ein Data Warehouse

Auch macht mich die stetig zunehmende Aktualisierungsdauer meiner Reports alles andere als glücklich. Dass meine Berichte zwangsläufig immer langsamer laufen, da die Komplexität meiner Abfragen darin stetig zunimmt und ich immer mehr zusätzliche Logik darin verbaut habe, ist mir sehr wohl bewusst. Indes sehe ich bei meiner über die Jahre gewachsenen Landschaft mittlerweile kein Entrinnen mehr. Heißt es nicht: Never change a running System?
Ein weiterer schlimmer Nebeneffekt ist, dass ich einmal erzeugte Reports auf ewig aufheben muss, da ich diese Auswertung im Bedarfsfall nicht mehr zu einem bestimmten Stichtag wiederholen kann, denn die Daten haben sich mittlerweile geändert. Einmal gültige Zuordnungen, beispielsweise von Vertretern zu Kunden, sind Schnee von gestern und heute nicht mehr gleichermaßen zugänglich.

Data Warehouse mit praxiserprobter Methode aufbauen

All dies und noch unzählige weitere gute Gründe sollten Anwender darüber nachdenken lassen, was ein solides Data Warehouse für einen Wert bedeutet. Insbesondere wenn es auf einem so wohldurchdachten und nachhaltigen Konzept wie bei der QUNIS basiert. Zeit also, die eigene Business-Intelligence-Landschaft endlich auf stabile und profitable Beine zu stellen!
Wir von der QUNIS haben aufgrund all dieser Erfahrungen aus unzähligen erfolgreichen Projekten ein „Data Warehouse Framework“ geschaffen, das all die beschriebenen Probleme und Stolpersteine beseitigt. Es umfasst alle notwendigen Strategien und Methoden, mit denen sich die Daten in einem Data Warehouse optimal strukturieren, die bestmögliche Verarbeitungs- und Abfrage-Performance sowie eine umfassende Datenversionierung erzielen lassen, um jederzeit historisch korrekte Reports und vieles mehr zu erzeugen.

Neugierig geworden? Dann lassen Sie sich von unserer ganzheitlichen Methodik überzeugen! Rufen Sie uns doch einfach einmal unverbindlich an oder schreiben Sie uns eine Email! Wir freuen uns auf Ihre Anfrage!

Phone +49 8035 95790 0,
E-Mail info@qunis.de

Weitere Beiträge zum Thema:

Der Chief Data Officer – Eine neue Rolle etabliert sich

Erstellt am: Mittwoch, 27. September 2017 von Monika Düsterhöft

Die digitale Transformation von Unternehmen ist eng verknüpft mit der Organisation und Weiterentwicklung des bisherigen Information Managements. Dies führt unter anderem zur Entwicklung neuer Rollen, denen eine strategische Aufgabe bei der Umsetzung zukommt. Damit Daten tatsächlich operativ nutzbar werden, müssen sie auch technisch verfügbar, korrekt und standardisiert (Governance) vorliegen. Um diese Vorgaben umzusetzen und zu überwachen, haben manche Organisationen damit begonnen, die Rolle eines „Chief Data Officers“ (CDO) zu definieren und zu besetzen. Nicht zu verwechseln mit der Rolle eines „Chief Digital Officers“ (ebenfalls CDO abgekürzt) definiert der Datenverantwortliche, wie Daten künftig erfasst, verwaltet, geschützt und letztlich zu Geld gemacht werden sollen. Ob dies in der Praxis bereits gelingt, hat nun die vom US-Anbieter Experian in Auftrag gegebene Umfrage „The Chief Data Officer: Powering business opportunities with data“ näher beleuchtet. 200 CIOs und 50 CDOs aus den USA nahmen laut der Autoren teil. Sie stammen aus Unternehmen mit mehr als 500 Mitarbeitern und aus diversen Branchen. Nachfolgend einige Ergebnisse aus dieser Untersuchung.

Big Data verstärkt den Bedarf an Chief Data Officer

Häufigstes Motiv für die Schaffung einer dedizierten CDO-Rolle ist danach der Wunsch, durch sein Wirken die Nutzung von Big Data profitabel zu machen sowie einen datengetriebenen Ansatz zu finden, der strategische Vorteile schafft, bei gleichzeitig überschaubaren Projektrisiken. Selbst zwei Drittel aller CIOs, in deren Unternehmen bislang keine entsprechende Position existiert, erklärten, dass sie sich mit den oben erwähnten Themen im Datenmanagement überfordert fühlten und daher einen Chief Data Officer begrüßen würden.

Doch Anspruch und Wirklichkeit klaffen in der Praxis offenbar noch häufig auseinander – was angesichts der noch „jungen“ Rolle nicht verwundert. So erklärte fast jeder zweite CDO, er habe seine Positionen angetreten, ohne dass der Aufgabenbereich und die Verantwortlichkeiten zuvor geklärt worden seien. Zwar wären im weiteren Verlauf der Karriere bei etwa 40 Prozent der Befragten die ebenfalls knappen Ressourcen und Budgets etwas aufgestockt und auch der bis dato meist beschränkte Zugriff auf die Datenhaltungen gelockert worden. Viele würden sich aber bis heute nicht mit der innovativen Nutzung von Daten beschäftigen, sondern müssten vor allem Projekte zur Kostenersparnis treiben.

Die Gründe für diesen Widerspruch führen die Autoren nicht allein auf unklare Rollendefinitionen zurück, sondern auch auf die Tatsache, dass in vielen Organisationen das Datenmanagement grundsätzlich noch erhebliche Defizite aufweise. So sehen laut Umfrage insbesondere die CIOs im fehlenden Datenzugriff das häufigste Hindernis auf dem Weg zu einer stärker datengetriebenen Organisation. Die von den CDOs beklagten schmalen Budgets würden Investitionen in entsprechende Dateninfrastrukturen erschweren, und es fehle nach Ansicht vieler Befragter an Skills in den Unternehmen. Daran könnte auch ein Chief Data Officer so schnell nichts ändern (Hilfe bei der Schaffung einer gemeinsamen, performanten Datenarchitektur für Big Data und Data-Warehouse-Systemen bietet die praxiserprobte QUNIS-Methodik).

Chief Data Officer – eher operativ oder strategisch tätig?

Hinzu kommt, dass sich der CDO in der Praxis offenbar häufig in einer schwierigen Position zwischen IT und Fachbereich befindet. Während die Business User immer lauter über den fehlenden Datenzugang klagten, müsse der CDO oft erst bei der IT anfragen, um hier Änderungen zu bewirken, so die Autoren. Diese könne oft Stunden oder gar Tage dauern. Zudem werde sich der Druck auf den Chief Data Officer in den kommenden zwei Jahren weiter verstärken, da Themen wie Datenschutz, die rasante technologische Entwicklung und steigende Kundenerwartungen viel Arbeit machten. QUNIS kann diese sehr operativ beschriebene Arbeitsweise eines CDOs aus ersten Kundenprojekten in Deutschland nicht bestätigen. Vielmehr stehen nach unserer Erfahrung eindeutig strategische Aufgaben im Vordergrund.

Konkurrenz zwischen Chief Data Officer und CIO

Viele CDOs beklagten in der Umfrage zudem, dass sie nicht zum C-Level gehörten, sondern häufig nur ein Junior Partner für das Top-Management seien. Auch bei den CIOs scheint diese Einstufung immer mehr zu überwiegen. So sahen vor zwei Jahren in einer vergleichbaren Umfrage von Experian  noch 16 Prozent mehr von ihnen den CDO als gleichrangigen Kollegen an als es jetzt der Fall ist. Ob diese Zurückstufung eher strategische, organisatorische oder vielleicht finanzielle Gründe hat, vermochten die Autoren nicht sicher zu sagen. Bei der QUNIS können wir diese Konstellation innerhalb der Hierarchie bislang nicht bestätigen. Vielmehr genießen die uns bekannten CDOs ein hohes Ansehen im Management und übernehmen strategische Aufgaben, die als sehr sinnvoll für die Organisation betrachtet werden. Möglich aber, dass in manchen der befragten Unternehmen eine Konkurrenzsituation zwischen CIO und CDO dahinter steckt. So bezeichneten über 40 Prozent der CDOs ihr Verhältnis zum CIO als „distanziert“ oder „nicht existent“. Umgekehrt bewerteten über 60 Prozent der CIOs ihre Beziehung zum Chief Data Officer als „positiv“, also in ihrem Sinne. Aktuell berichten etwa 40 Prozent der CDOs an den CEO, über die Hälfte hingegen an die IT oder Leiter von Geschäftsbereichen.

 

 

 

Business Intelligence – No Cloud, Hybrid oder All Cloud?

Erstellt am: Donnerstag, 21. September 2017 von Monika Düsterhöft

Schaut man sich die aktuelle Situation bei Kunden an, so finden sich sehr unterschiedliche Szenarien für den Betrieb der Business-Intelligence-Lösungen. Das reicht von No Cloud über Hybrid bis hin zu All-Cloud-Strategien. Sobald das Thema Cloud ins Spiel kommt, ist zudem zwischen einer „Plattform as a Service“ (PaaS) und „Infrastructure as a Service“ (IaaS) zu unterscheiden. IaaS ist vergleichbar mit einer Virtuellen Maschine (VM). Der Anwender bekommt einen virtuellen Server, muss sich aber immer noch um alles selber kümmern (Installation, Wartung, Konfiguration etc). Bei PaaS erhält er hingegen ein Stück Software, wofür er sonst eine VM oder physikalischen Server hätte aufsetzen müssen, als fertig nutzbare Komponente. Das kann zum Beispiel eine relationale Datenbank sein. Im Fall von PaaS muss sich der Kunde also nicht um die Installation, Wartung, Konfiguration etc. kümmern.

Business Intelligence als On-Premises-Lösung

Bei No-Cloud-Anwendern wird heute immer noch alles On-Premises abgebildet. Dies ist immer noch die häufigste Lösung für BI-Systeme beim Kunden. Dieser Ansatz schließt nicht nur die BI-Lösung, sondern auch anderen Systeme ein. Je nach Bedarf wird dabei die notwendige Infrastruktur für das BI-System durch physikalische oder virtualisierte Server zur Verfügung gestellt. Unternehmen, die auf dieses Szenario setzen, starten gerne virtualisiert, um sich einen Eindruck von der maximalen Performance und Wartbarkeit der Lösung verschaffen zu können. Genügt diese nicht, bleibt die Option, später auf physikalische Server umzustellen. Dieses Vorgehen ist bei No Cloud meiner Meinung nach auch zu empfehlen, weil man virtuell schneller auf Anforderungen reagieren kann und meistens keine neue Hardware anschaffen muss. Ist hingegen absehbar, dass die geplante Lösung virtuell nicht abbildbar ist, startet man natürlich gleich mit physikalischen Servern.

Nach den konkreten Gründen für No Cloud gefragt, erhält man unterschiedliche Antworten. So kann es sich zum Beispiel um Daten handeln, die aus Gründen des Datenschutzes oder aufgrund von Unternehmensrichtlinien nicht außerhalb des Unternehmens gespeichert werden dürfen. Oder aber das Dritte solche Vorgaben machen (Gesetzgeber, Verbände, etc.). Ebenso erfährt man, dass die Option gewählt wurde, weil man sich mit dem Thema noch nicht ausgiebig beschäftigt hat oder das Know-how im Hause fehlt. Die Beratungspraxis zeigt hier aber, dass Unternehmen immer mehr eine Öffnung für die Cloud vornehmen, wenn man ihnen fachliche und organisatorisch zur Seite steht (einen Einblick in die weltweite Nutzung von Cloud-Diensten für Business Intelligence und Data Warehousing finden Sie hier) .

Cloud und On-Premises – Hybridlösung für Business Intelligence

Eine zweite Gruppe an Unternehmen setzt bis dato auf Hybrid-Lösungen. Hierbei werden Teile der BI-Gesamtlösung in die Cloud verlagert. Das können Komponenten sein, die nur in der Cloud erhältlich sind, wie zum Beispiel spezielle Frontends mit besonderen Features. Oder der Anwender nutzt Teil der Lösung in der Cloud, weil er sie in der Form, Flexibilität, Qualität (Know-how) und Verfügbarkeit nicht On-Premises betreiben kann. Beim Beispiel Frontend in der Cloud bleibt die Datenhaltung und Bewirtschaftung On-Premises, während der Zugriff auf die Daten für Analysezwecke über die Cloud stattfindet. Diese Lösung findet man in der Tat immer häufiger beim Kunden.

Business Intelligence komplett in der Cloud

Unternehmen mit einer All-Cloud-Strategie wollen die gesamt BI-Lösung in der Cloud abbilden und nichts davon On-Premises betreiben. Datenhaltung, Bewirtschaftung und Analysemöglichkeiten werden durch Cloud-Komponenten zur Verfügung gestellt. Sofern die Vorsysteme (ERP, CRM, etc.) nicht auch in der Cloud laufen, erfolgt die Anbindung zwischen Cloud und On-Premises-Umgebung meist über Tunnel-Technik (VPN). Dieses Szenario wird meiner Ansicht nach die Zukunft sein. Zum einen hat die Cloud in der Vergangenheit enorme Fortschritte gemacht und bietet immer mehr Möglichkeiten für den Betrieb von Anwendungen und Infrastruktur. Zum anderen steigen mit der Nutzung und Kombination von Big Data, Machine Learning und Business Intelligence die Anforderungen und erfordern sehr viel Know-How und Infrastruktur, um entsprechende Lösungen On-Premises abzubilden. In dem Fall kann die Cloud viele Vorteile bieten. Im Einzelnen nennen Kunden folgende Vorteile, die sie in Cloud-Lösungen sehen:

  • Skalierbarkeit / Flexibilität
  • Verfügbarkeit
  • Konzentration auf Kernkompetenzen / Know-how im eigenen Team
  • Einsparung bzw. bessere Nutzung von Ressourcen
  • Kosten
  • Sicherheit
  • Softwareaktualität
  • Spezielle Features (z.B. Georedundanz)

Herausforderungen und Umsetzung von BI-Cloud-Lösungen

Aber natürlich bringt wie jedes Szenario auch die Cloud-Nutzung ihre Herausforderungen mit sich. Diese beginnen damit, dass ein Unternehmen die passende Cloud-Strategie für sich finden muss. Ebenso gilt es, den richtigen Cloud-Anbieter und die passenden Komponenten zu finden. Die Möglichkeiten sind heute vielfältig, zumal sich die Cloud-Dienste verschiedener Anbieter auch kombinieren lassen. Ist eine strategische Entscheidung gefallen, stellen sich bei der Umsetzung typische Fragen:

  • Wie bringt man die On-Premises-Infrastruktur mit der Cloud zusammen?
  • Wie integriert man die Cloud Komponenten in die BI-Lösung?
  • Wie stellt man Autorisierung und Authentifizierung sicher?
  • Wie gut ist die Netz-Anbindung an die Cloud?
  • Wie bekommt man das Know-how ins Team?
  • Wie flexibel und mit welchem Aufwand lassen sich Standard-Cloud-Lösungen an Kundenwünsche anpassen?

Eine fertige, vollumfängliche und rein auf Standards basierende Cloud-Lösung für Business Intelligence gibt es meines Wissens bislang noch von keinem Hersteller. Doch sind viele Komponenten erhältlich, die man als Unternehmen je nach Bedarf dafür einsetzen kann – vorausgesetzt man verfügt über das Wissen, die passenden Komponenten richtig einzusetzen. So gibt es in Microsoft Azure einige Komponenten, die sich für eine reine BI-Cloud-Lösung verwenden lassen. Aber auch hier braucht man eine klare Vision, wie die Lösung aussehen soll, damit es am Ende funktioniert. Hier gibt es Abhängigkeiten und Grenzen, die zu beachten sind. QUNIS hat dank langjähriger Praxiserfahrung mit seinem „Data Warehouse Framework“ (DWH-Framework) ein Angebot entwickelt, das die Essenz all unserer Best Practices, Strategien, Methoden und Techniken zum Aufbau eines hochqualitativen, performanten und vor allem stabilen Data Warehouse vereint. Gemeinsam mit Microsoft haben wir dazu auch ein Architektur-Bild auf Basis der Azure-Komponenten entwickelt, welche den Anforderungen an eine moderne und zukunftssichere BI-Lösung in der Cloud gerecht wird. Darüber hinaus haben wir dieses Architektur-Bild in Azure mit unserem DWH-Framework umgesetzt und verprobt. Der Anpassungsaufwand am DWH-Framework war wider Erwarten gering. Bis auf ein paar Fallstricke funktionierte das meiste ohne große Anpassungen.

Möchten Sie Näheres zum DWH-Framework sowie zur Definition und Umsetzung von Cloud-Strategien erfahren. Dann kommen Sie gern auf uns zu!

 

Business Intelligence und Data Warehousing in der Cloud auf dem Vormarsch

Erstellt am: Donnerstag, 14. September 2017 von Monika Düsterhöft

Ob Analyse und Reporting oder Data Warehousing: die Nutzung von Cloud-Dienste in der Verwaltung und Auswertung von Unternehmensdaten etabliert sich. Dies können wir auch aus den QUNIS-Kundenprojekten berichten, in denen immer öfter neue Anwendungen für Big Data und Advanced Analytics oder klassisches Data Warehousing in der Cloud (Microsoft Azure) entstehen.
Ein Stimmungsbild zur Cloud-Nutzung gab kürzlich auch die Online-Umfrage „BI and Data Management in the Cloud: Issues and Trends“ vom BARC und der Eckerson Group. Danach gaben 43 Prozent der 370 Unternehmensvertreter an, bereits heute zumindest Teile ihrer Business-Intelligence- oder Daten-Management-Vorhaben mit Hilfe von Cloud-Diensten umzusetzen. Die größte Gruppe unter den Teilnehmer der Umfrage stammten nach Region aus Europa (47 Prozent) und Nordamerika (37 Prozent).

Business Intelligence Tools am häufigsten in der Cloud

Von den rund 160 Cloud-Nutzern erklärte über die Hälfte, sie würde Business-Intelligence-Werkzeuge (62 Prozent) und -Server (51 Prozent) nutzen. Stark zugenommen hat in den letzten drei Jahren auch der Einsatz von Tools für die Datenexploration (49 Prozent). Die Gründe hierfür lägen laut der Autoren in der allgemein zunehmenden Verbreitung solcher Werkzeuge sowie dem großen Interesse insbesondere unter den „Power Usern“ an solchen visuellen Tools. Power User seien aktuell die stärkste Nutzergruppe von Cloud-Lösungen. Werkzeuge für Advanced Analytics werden in jedem vierten Unternehmen in der Cloud betrieben. Auf dem Gebiet des Datenmanagements in der Cloud dominieren Data-Warehouse-Systeme (42 Prozent) vor Datenintegrationswerkzeugen (35 Prozent).

Public Cloud bevorzugt

Beim Betrieb von Cloud-Lösungen setzen Unternehmen laut Umfrage vor allem auf die „Public Cloud“, während interne Systeme („Private Cloud“) oder hybride Ansätze weniger oft genannt wurden. Public Clouds (wie der Microsoft Azure Stack) sind einfach und vergleichsweise kostengünstig nutzbar, während im Vergleich dazu intern aufgebaute Lösungen von hohen Infrastrukturinvestitionen begleitet sind. Hybride Ansätze, so die Autoren, wären zudem schwieriger zu verwalten und würden Sicherheitsbedenken auslösen, weil sich beispielsweise ein BI-Anwendung in der Cloud durch die Unternehmens-Firewall mit der internen Lösung verbinden (Tunneling) muss.

Einen praxisorientierten Einblick in die derzeitige Cloud-Nutzung für Business Intelligence und Datenmanagement gibt Ihnen unser Blog-Beitrag Business Intelligence – No Cloud, Hybrid oder All Cloud?