Archiv für die Kategorie Unternehmensplanung

Vetter: Umfassende BI & Analytics-Strategie

Erstellt am: Donnerstag, 19. Mai 2022 von Monika Düsterhöft

Der Pharma-Dienstleister Vetter hat seine BI-Lösung für die Unternehmenssteuerung bereits im Jahr 1998 eingeführt und entwickelt diese beständig weiter. QUNIS begleitet die BI-Experten von Vetter mit effektiver Strategieberatung, die eine sichere Basis für die interne Umsetzung bildet.

QUNIS berät uns ganzheitlich und nachhaltig zu den Themen Organisation, Prozessen, Tools, zur Systemarchitektur und Datenplattform. Bei der Entwicklung unserer Produktstrategie bringt QUNIS den Analysten-Blick auf Marktrends zusammen mit Technologie Know-how und langjähriger Projekterfahrung in die Beratung ein. Ein Partner, auf den ich nicht verzichten möchte.


Armin Rauch,
Vice President Controlling Systeme & BI bei Vetter 

Eine BI-Lösung, die mitwächst

Als global führender CDMO (Contract Development and Manufacturing Organization) bietet Vetter seinen Kunden umfassende Fill & Finish-Services, von der klinischen Entwicklung bis zur weltweiten Markteinführung der Kundenprodukte. Mit modernsten Produktionsstätten in Deutschland, den USA und Österreich sowie wachsender Präsenz in Asien besteht jahrzehntelange Erfahrung in der Zusammenarbeit mit großen wie kleinen Pharma- und Biotechnologieunternehmen und im Umgang mit einer breiten Palette an komplexen Wirkstoffen.

Eine langjährig betriebene BI-Lösung auf Basis von IBM Planning Analytics ist beständig mit dem Unternehmen mitgewachsen. Insbesondere für die Themen Financial Reporting, integrierte Unternehmensplanung und Konzernkonsolidierung wird die Lösung konzernweit eingesetzt. Ein Meilenstein war die Einführung von SAP und die Einrichtung von SAP BW als zentrales Data Warehouse in 2009, das seitdem auch als Datenquelle für die Data Marts der IBM-Umgebung dient.

Der Blick von außen ist wichtig 

Im mittelständischen Familienunternehmen setzt man auf die eigenen Ressourcen und packt selbst an. Bei Vetter gibt es folglich sowohl im Controlling als auch in der IT viel interne BI-Erfahrung. Um den Betrieb und Ausbau der BI- und Berichtslandschaft kümmert sich der Vice President Controlling Systeme & BI Armin Rauch, in enger Zusammenarbeit mit den IT-Kollegen.

Der Controllingleiter ist jedoch auch überzeugt: Eine kluge Entwicklungsstrategie, die für das Unternehmen sinnvolle Innovation anvisiert und zugleich nachhaltig sein soll, benötigt ab und zu einen Blick von außen. Den richtigen Beratungspartner hat Armin Rauch mit QUNIS gefunden. Seit 2015 trifft sich das BI- & Analytics Team von Vetter regelmäßig mit QUNIS zur Review der BI-Strategie und zur Weiterentwicklung der Data & Analytics-Aktivitäten, meist in Form kurzer Workshops zu den jeweils anstehenden Themen.

Eine der ersten Maßnahmen, die besprochen wurden, war die Einrichtung eines virtuellen BICC, in dem ein Kernteam aus Controlling und IT zusammenarbeitet. Zusätzlich wurden in den einzelnen Fachbereichen Key- bzw. Power User als Ansprechpartner und Multiplikatoren für das BI-Thema benannt, die je nach fachspezifischer Anforderung im BICC crossfunktional mitarbeiten.

Modernisierung mit Augenmaß

Seit der Zusammenarbeit mit QUNIS hat sich die klassische BI-Welt schrittweise hin zu einem modernen, zukunftsorientierten BI & Analytics-Bereich gewandelt. Wesentliche Ansatzpunkte waren dabei die organisatorische Weiterentwicklung, die Erarbeitung technologischer Herausforderungen sowie die kontinuierliche Verbreitung von Self-Service BI (SSBI) in den Fachbereichen.

Bei der Weiterentwicklung der BI-Landschaft verfolgt Vetter einen durchgängigen Steuerungsansatz, der die operativen Einheiten wie Vertrieb, Einkauf, Produktion oder Technik bis hin zur Unternehmensleitung in der standardisierten Berichtswelt verbindet. Die Ravensburger Zentrale agiert dabei auch für die Bereiche Controlling und BI im Sinne eines Shared Service Center.

Praxisnah und lösungsorientiert

Armin Rauch sieht die Zusammenarbeit mit QUNIS als äußerst effektiv. In wenigen Tagen wurden dabei klare Handlungsempfehlungen erarbeitet und konkrete Maßnahmen zur Umsetzung initiiert. Definierte Best Practices und Frameworks von QUNIS helfen bei der schnellen und sicheren Realisierung. So sind heute die Organisationsstrukturen und Prozesse auf Basis eines standardisierten Governance Frameworks von QUNIS klar geregelt.

Das QUNIS Rollenmodell für die BI-Organisation konnte Vetter übernehmen und einfach an die unternehmensspezifischen Anforderungen anpassen. Für die Erweiterung um Analytics-Anwendungen hat das BI & Analytics-Team Data Science Use Cases mit QUNIS gesammelt und zur Erarbeitung einer Referenzarchitektur herangezogen. Aber auch der Prozess zur Bewertung und Priorisierung von Advanced Analytics Use Cases basiert auf dem Erfahrungsaustausch mit QUNIS. 

Nachhaltig verankerte Governance und zukunftsfähige Tool-Strategie

Der aktuelle Entwicklungsschwerpunkt liegt in der Verankerung der Governance im Unternehmen. Dem Unternehmen als zentrale Instanz für Trusted Data Informationen zur Entscheidungsfindung zur Verfügung zu stellen und gleichzeitig Agilität und Flexibilität zu ermöglichen, ist kein Widerspruch. Die Voraussetzungen dafür schafft die richtige Organisation, eingebettet in eine unternehmensweite Governance. Daneben sind Entscheidungen in ein zukunftsfähiges BI & Analytics- Tool Portfolio wesentlich für Vetter – auch im Hinblick auf die unternehmensweite Cloud-Strategie.

Armin Rauch setzt hier auf den Marktüberblick von QUNIS und hebt zudem die fachliche Kompetenz und persönliche Integrität der QUNIS-Berater hervor.

Das schafft Vertrauen im gesamten Unternehmen und hilft auch, interne Diskussionen offen und konstruktiv zu führen – ein nicht zu unterschätzender Pluspunkt im oft politischen Umfeld unternehmensweiter BI- und Analytics-Projekte.

Mehr zu Vetter: Vetter ist ein internationaler Spezialist in der Fertigung von aseptisch vorgefüllten Injektionssystemen wie Spritzen, Karpulen und Vials. Das Familienunternehmen bietet umfassendes Know-how und hochmoderne Fertigungsanlagen für die frühen Phasen der klinischen Entwicklung bis hin zur behördlichen Zulassung und Markteinführung. Gegründet am Hauptsitz in Ravensburg, hat das Unternehmen heute 5.700 Mitarbeitende und Produktionsstätten in Deutschland, Österreich und den USA sowie Büros in Südkorea, Japan, China und Singapur..

Mehr zu QUNIS StrategieberatungQUNIS Strategie

BOGNER: E-Commerce-Reporting in wenigen Wochen implementiert

Erstellt am: Dienstag, 22. Juni 2021 von Monika Düsterhöft

Die Sports Fashion Brand BOGNER setzt seit 1932 Maßstäbe für exklusive Sportmode. Neben dem globalen stationären Handel nimmt der Online-Shop bogner.com einen immer größeren Stellenwert ein. Für den E-Commerce-Bereich hat BOGNER mithilfe eines kompakten Projektmodells von QUNIS in kürzester Zeit ein individuelles, skalierbares Reporting aufgesetzt.

Mit dem Ansatz der Scalable Self Service BI von QUNIS konnten wir zügig und mit wenig Aufwand unser individuelles, jederzeit erweiterbares Reportingsystem implementieren. Power BI ermöglicht es uns dabei, sehr schnell aus verschiedenen Quellen Zahlen zusammenzuführen und direkt einen Look & Feel für Berichte zu generieren.


Florian Felber,
Director Head of Analytics & BI Systems
im Group Accounting bei BOGNER 

Ablöse des Excel-basierten Reportings gewünscht

BOGNER ist mit den Marken BOGNER Sport, BOGNER Fashion, FIRE+ICE sowie BOGNER Kids und Lizenzen weltweit vertreten. Für den wachsenden E-Commerce Bereich hat das BOGNER Headquarter in München ein neues OMS (Order Management System) eingeführt. In diesem Zuge sollte auch das Excel-basierte Reporting durch eine moderne BI-Lösung ersetzt werden, die neben den klassischen Umsatzkontrollen auch branchenspezifische Channel-Analysen unterstützt.

Der Finanzbereich von BOGNER wünschte sich eine schnell umsetzbare Lösung, die intern gesteuert und nach Bedarf ausgebaut werden kann. Dieser Vorstellung kam das Vorgehensmodell der Scalable Self Service BI für Microsoft Power BI von QUNIS sowohl technologisch als auch konzeptionell optimal entgegen. Mit dem Konzept von QUNIS sahen die Projektverantwortlichen die Möglichkeit, ihre Applikation sicher und zügig zu implementieren und selbstständig weiter zu entwickeln.

Kompaktes Coaching-Projekt

Gemäß des standardisierten Vorgehensmodells von QUNIS startete das Projekt mit einem halbtägigen Analyseworkshop zur Klärung von Anforderungen und Aufwand. Für BOGNER stand fest, dass der Projekttyp mit Coaching-Ansatz und möglichst viel Eigenleistung die richtige Wahl ist.

Die Entwicklung in Power BI startete Anfang Oktober 2020 auf einem separaten Testserver. Mit der Hilfe eines QUNIS-Beraters arbeitete das Team von BOGNER sich in die Anbindung von Datenquellen, die Datenmodellierung und die Erstellung von Reports ein. Bereits im Dezember 2020 konnte das Reporting in Betrieb genommen werden, und zwischen Januar und April 2021 wurden weitere Detailfragen mit dem QUNIS-Berater geklärt.

Bis April 2021 waren sieben der angesetzten zehn Beratertage in Anspruch genommen und zugleich bereits 90 Prozent der BI-Entwicklung bei BOGNER intern angesiedelt. Florian Felber, Head of Analytics & BI Systems im Group Accounting bei BOGNER, hält fest: „Wir haben hervorragend mit QUNIS zusammengearbeitet. Der Wissenstransfer hat bestens funktioniert und wir hatten sehr interessante und fruchtbare Workshop-Tage“

Als wesentlichen Erfolgsfaktor sehen die Entwicklungspartner die Teamzusammenstellung: Bei BOGNER standen ein Projektleiter, zwei BI-Experten für die Entwicklung von Datenmodellen und Reports sowie zwei Fachanwenderinnen aus den Bereichen Controlling und E-Commerce für das Projekt bereit. Auch die Terminierung der Workshops, die jeweils ausreichend Zeit für interne Vorbereitung und Abstimmung ließ, war aus Sicht des Projektteams zielgenau.

Individuelles Sales-Reporting

Die Anbindung von Datenquellen und der Entwurf von Berichten wurden direkt in Power BI umgesetzt. Power BI enthält zahlreiche Konnektoren zur Einbindung von On-Premises- oder Cloud-Datenquellen. Über den firmenweiten Data Lake von BOGNER hat das Team u.a. Vertriebsinformationen aus dem E-Commerce-System, historische Werte aus Microsoft AX, tagesaktuelle Währungskurse aus SAP, Plandaten aus Excel sowie Stammdaten aus dem CRM-System integriert und damit eine konsistente Core Access Ebene aufgebaut. Florian Felber erklärt: „Power BI ermöglicht es, sehr schnell aus verschiedenen Quellen Zahlen zusammenzuführen und direkt einen Look & Feel für Berichte zu generieren.“

Mit dem flexiblen BI-Frontend konnte das Team auch die gewünschten Reports und Dashboards in kurzer Zeit selbst erstellen. Fachlich stehen die Verkaufszahlen aus dem E-Commerce-Bereich im Fokus. Das Monatsreporting zeigt Umsatz- und Bestandsinformationen im E-Commerce-Bereich, gegliedert nach Divisions, inklusive Vorjahres- und Planabgleichen sowie Finanzkennzahlen.

Wichtige Auswertungen sind beispielsweise eine Bestenliste, Nachfrage-, Retouren- und Stornoraten, Warenkorbanalysen und die Ermittlung von Margen und Benchmarks. Als branchenspezifische Besonderheit sind bei den Auswertungen saisonale Logiken bzw. die regelmäßigen Erscheinungstermine neuer Kollektionen berücksichtigt. Das internationale Reporting ist in Englisch gehalten und wird jeweils auf Basis aktueller Währungskurse kalkuliert

Mobile Self-Service-BI

Die Nutzer in den USA und Europa greifen über die Power BI App auf die Cloud-Berichte zu. Die Datensicherheit wird dabei über das Power BI Gateway gewährleistet. Das Modul ermöglicht u.a. die zentrale Definition eines firmenweiten Berechtigungskonzepts und die einfache Verwaltung von Rollen und Zugriffsrechten. Derzeit sind das Group Accounting und Controlling, das Digital-Team und der Logistik-Partner von BOGNER als Nutzer eingebunden.

Die Anwender rufen die Reports je nach Vorlieben beispielsweise auf dem Smartphone oder Tablet, als App in Microsoft Teams oder als Excel Export ab. Das Nutzerszenario lässt sich über das Cloud-basierte Frontend schnell und kostengünstig anpassen und erweitern. Das internationale Rollout des Reportings war somit einfach umzusetzen, und auch neue Anwender können jederzeit nach Bedarf hinzugefügt werden.

Enterprise Data Warehouse

Ein wichtiger Aspekt der Scalable Self Service BI ist das strukturierte Datenmanagement. Die an den Enterprise Data Warehouse-Projekten von QUNIS ausgerichtete Datenmodellierung sorgt für klar definierte, skalierbare Datenmodelle und automatisierte Backend-Prozesse. Die standardisierte Reporting-Applikation kann im Nachgang jederzeit in eine vorhandene oder anvisierte Data-Warehouse-Architektur eingegliedert werden.

Hier liegt für das Projektteam von BOGNER einer der zentralen Vorteile des QUNIS-Konzepts: Der Finanzbereich plant sukzessive ein umfassendes Data Warehouse aufzubauen, um damit die heterogene IT-Landschaft verschiedener Geschäftsbereiche zu vereinheitlichen und eine Konzernsicht im hohen Detailgrad zu erstellen.

Bei BOGNER war das Reporting-Projekt Teil einer umfangreichen E-Commerce-Initiative samt Wechsel des Order Management Systems. Prozesse, Kennzahlen, Reports und das Datenmanagement wurden auch vor diesem Hintergrund stets bereichsübergreifend definiert und gut dokumentiert. Eine unternehmensweite Data Governance und eine übergreifende Datenkultur bilden hier beste Voraussetzungen für den sukzessiven Ausbau des E-Commerce-Reportings hin zu einem umfassenden Konzernreporting

Nachhaltige Berichtsplattform

Mit der einfach zu bedienenden Self-Service-BI-Applikation steht den Berichtsempfänger bei BOGNER nun ein dynamisches Reporting für die E-Commerce-Umsätze zur Verfügung. Der Scalable Self-Service BI-Ansatz hat sich dabei als ideale Projektmethode bewährt. Florian Felber sieht diese Vorgehensweise als guten Weg, sehr schnell und ohne großen Aufwand neue Projekte anzugehen.

Standardisierte Strukturen wie Datenmodelle und Logiken werden dann im zweiten Schritt in das Enterprise Data Warehouse übertragen, falls sie sich in der Praxis bewährt haben bzw. entsprechend angepasst wurden.

BOGNER will künftig Schritt für Schritt sein komplettes Konzernreporting in Power BI abbilden und in diesem Zuge ein nachhaltiges und gut zu pflegendes Financial Data Warehouse aufbauen. Die selbstständige Systemadministration und Entwicklung ist dabei für BOGNER ein wesentlicher Pluspunkt der Scalable Self Service BI

Mehr zu BOGNER: Die Willy Bogner GmbH & Co. KGaA mit Hauptsitz in München ist ein international erfolgreiches Lifestyle-Unternehmen und führende Anbieter von exklusiver Sportmode, luxuriöser Sportswear und Designermode. Das Unternehmen tritt in über 50 Ländern mit den Marken BOGNER (Woman, Man, Sport, Kids) und FIRE+ICE sowie Lizenzen auf. Das seit 1932 bestehende Unternehmen wird von Gerrit Schneider und Heinz Hackl geführt, Eigentümer ist Willy Bogner, vertreten durch den Treuhänder Arndt Geiwitz.

Mehr zu QUNIS Scalable Self Service BI: Steffen Vierkorn, Geschäftsführer QUNIS GmbH erklärt, was hinter dem QUNIS-Vorgehensmodell steckt, eine kostenfreie Checkliste steht zudem zum Download bereit. QUNIS Scalable Self Service BI

Dentsu: Zentrales Data Warehouse für Controlling und systemübergreifende Analytics, Data Enrichment und Datenkonsolidierung für automatisiertes Reporting

Erstellt am: Donnerstag, 21. Januar 2021 von Monika Düsterhöft

Die deutsche Tochtergesellschaft der international agierenden Medienagentur-Gruppe dentsu hat ihre heterogenen Datensilos in ein zentrales Financial Data Warehouse überführt. Damit können betriebswirtschaftliche Reports, Analysen, Planungen und Forecasts auf der einheitlichen Basis eines Single Point of Truth entstehen. Mithilfe seiner neuen BI-Lösung generiert dentsu Germany seine entscheidungsrelevanten Daten deutlich schneller und aktueller, aber auch zuverlässiger und sicherer.

Früher galt: heute gebaut und morgen veraltet. Das sollte dringend geändert werden. Erklärtes Ziel war eine übergreifende Datenbasis, die mehrfach täglich aktualisiert wird. Dies sollte eine deutschlandweit systemübergreifende Auswertbarkeit und Analysefähigkeit aller steuerungsrelevanten Finanzdaten ermöglichen.


Patrick Sura,
Director Business Intelligence DACH bei
Dentsu

Datengetriebenes Geschäftsmodell

Die Medienagentur-Gruppe dentsu International wurde 1901 in Japan gegründet. Fokussiert auf die Geschäftsbereiche Media, CRM und Creative bedient das weltumspannende Netzwerk mit seinen 66.000 Mitarbeitenden rund 11.000 Kunden in 143 Ländern. dentsu Germany zählt hierzulande zu den größten fünf Agenturen für Kommunikations- und Mediaberatung. Die 1.500 Beschäftigten verteilen sich auf den Firmensitz in Frankfurt am Main und weitere Standorte in Augsburg, Düsseldorf, Hamburg und München.

In der Media-Branche nehmen Daten ganz generell einen hohen Stellenwert ein. Sie lassen Vorhersagen zu über das Zielgruppenverhalten, um mit möglichst geringen Streuverlusten werben zu können. Zudem sind sie solide Basis für Mediapläne mit zu platzierenden Schaltungen, die das Kundenbudget optimal einsetzen. Datengetrieben sind bei dentsu Germany aber auch die betriebswirtschaftlichen Belange zur Steuerung der vernetzten Agenturen. Nur auf der Grundlage homogener Daten nämlich lassen sich valide Entscheidungen treffen, um das Unternehmen sicher auf Kurs zu halten und den eingeschlagenen Wachstumspfad weiter zu beschreiten.

Diesen Ansprüchen konnte jedoch die bisherige Vorgehensweise nicht mehr gerecht werden. „Jeder hatte mehr oder weniger Zugang zu vereinzelten Datentöpfen und baute sich seine Berichte bei Bedarf in Excel selbst zusammen“, blickt Patrick Sura zurück. „Weil es keinen Single Point of Truth gab, musste man in den Meetings zuerst zeitraubend klären, wer die richtigen Zahlen hat, bevor es an die strategischen Auswertungen gehen konnte.“ Vor diesem Hintergrund traf dentsu Germany die Entscheidung zum Aufbau eines Financial Data Warehouse.

Erfahrenen Projektleiter gewonnen

Hierfür wurde eigens eine neue Stelle geschaffen und 2017 mit Patrick Sura besetzt. Der aus Speyer stammende Diplom- Betriebswirt (FH) ist langjähriger Branchenkenner und hatte als Finance-Controller einschlägige Data-Warehouse-Projekte erfolgreich umgesetzt.

Damals wie heute war QUNIS präferierter Projektpartner. „Ich hatte auf einer Fortbildungsveranstaltung der controller akademie einen der Geschäftsführer kennen gelernt, der dort einen Vortrag hielt“, erinnert sich Patrick Sura an sein Treffen mit Hermann Hebben, das zum ersten gemeinsamen Data-Warehouse-Projekt führte.

Financial Data Warehouse als Single Point of Truth

Die IT-Infrastruktur von dentsu ist nur in geringem Maße global organisiert. Größtenteils unterhalten die Tochtergesellschaften in den Ländern lokale Systeme etwa für ERP (Enterprise Resource Planning), Datenhaltung und Controlling. Beim Antritt fand Patrick Sura rudimentäre BI-Strukturen vor, erste Ansätze über SAP BW waren ins Leere gelaufen.

Gemeinsam mit QUNIS startete er das Projekt zum Aufbau eines Financial Data Warehouse. Die bislang dezentral gehaltenen Finance-Daten sollten zusammengeführt werden für Verknüpfungen, um allgemeingültige Kennzahlen für ein flexibles Controlling zu gewinnen. Beim Aufbau auf technologischer Basis des Microsoft SQL Servers wurde die QUNIS Automation Engine eingesetzt – „mit immensen Vorteilen hinsichtlich Automatisierung und Standardisierung“, wie Patrick Sura betont. So erfolgte die Datenbankentwicklung weitestgehend automatisiert, genauso der komplette ELT (Extract, Load, Transform)-Prozess aus Vorsystemen wie SAP/R3, SAP BW und ein Mediasystem auf ORACLE-Basis.

„Die QUNIS Automation Engine führt auf einer komfortablen Web-Oberfläche durch die einzelnen Schritte. Man designt mit Metadaten und erhält den Quellcode des Data Warehouse, ohne nur eine Zeile dafür händisch geschrieben zu haben.“ Das geht viel schneller und minimiert die Fehlerpotenziale, unterstreicht der Projektleiter und ergänzt: „Der Engine-Logik folgend, wird stets nach dem gleichen Prinzip vorgegangen. Das macht das Ergebnis personenunabhängig und besser nachvollziehbar. Dadurch lassen sich auch spätere Anpassungen in allen relevanten Teilbereichen viel effizienter abbilden.“

Data Enrichment und Datenkonsolidierung

Schon in früher Projektphase wurde deutlich, dass die Stammdaten vor der Übernahme ins Data Warehouse zur Steigerung der Qualität überarbeitet und angereichert werden müssten. Hierfür griff Patrick Sura mit GAPTEQ auf eine „willkommene Alternative zum mühsamen und fehleranfälligen Weg via Excel“ zurück. Bei GAPTEQ handelt es sich um eine Low-Code-Technologie zur Realisierung von Oberflächen für SQL-Datenbanken. Das Einsatzspektrum reicht vom einfachen Web- Formular bis hin zur komplexen Business- Applikation – mit wenig Aufwand per Drag & Drop, smart und sehr schnell, wie sich im Projektverlauf bestätigte.

Top-aktuelle Analysen und Berichte auf Abruf

Nachts und mehrfach im Tagesverlauf werden die Daten im Data Warehouse automatisiert in den Analysis Services bereitgestellt, wo alle KPI (Key Performance Indicators) und Regeln hinterlegt sind. Wer die entsprechenden Power-BI-Dashboards und -Berichte zur Auswertung bereitgestellt bekommt, definiert ein ebenfalls mithilfe von GAPTEQ integriertes Security-Konzept. Nach erfolgtem Kickoff Ende 2018 und Beginn der Arbeiten Anfang 2019 konnten so bereits Ende Juli 2019 die ersten Reports mit der neuen BI-Lösung erstellt werden. Mittlerweile ist jeder Bericht an die Datenquellen des Data Warehouse angeschlossen, so dass Aktualisierungen jederzeit abgerufen und in derselben Ansicht dargestellt werden können.

Maßgeschneiderte Business-Applikationen

Data Enrichment und Security-Konzept ließen das Management erkennen, wie hoch die Potenziale von GAPTEQ sind: „Schier grenzenlos einsetzbar und mit unglaublich schnellen Ergebnissen – eine klassische Programmierung wäre x-fach teurer und langwieriger“, so Patrick Sura. Vor diesem Hintergrund sollten mit Applikationen wie der Target-App und den OPEX Forecasts zwei Business-Applikationen folgen.

  • Über die Target-App werden abgeleitet von der Gesamtplanung die jeweiligen Ziele für das Agenturen-Management in vier verschiedenen Kategorien festgelegt. In GAPTEQ sehen die Manager die vereinbarten Targets kombiniert mit den Ist-Zahlen aus dem Data Warehouse. Das zeigt, was schon erreicht wurde und noch zu tun ist. Sie können die Werte auch fortschreiben und per Knopfdruck sofort sichtbar aktualisieren. Nicht zuletzt dank der QAE und dem einhergehenden betont sauberen Datenmodell, auf dessen Basis die Target- App aufsetzt, hat die Einrichtung gerade mal drei Wochen benötigt.
  • Die OPEX-Forecasts über die Ausgaben für den operativen Geschäftsbetrieb waren nach nur sechs Wochen Projektzeit umgesetzt. GuV-Forecast auf Kontoebene, jeden Monat die Ist-Zahlen anschauen und bis zum Jahresende forecasten, dabei die Budgets abstimmen: Was ehedem mühsam und mit allen Nachteilen per Excel zu erledigen war, geht nun vollständig integriert vonstatten. Dank Security-Konzept können zudem die Ressortleiter zu Controlling-Zwecken auf relevante Kostenstellen zugreifen.

„Wir sammeln die Planzahlen je Kostenstelle von den Verantwortlichen ein und konsolidieren sie direkt auf dem Server mit dem einheitlichen Datenmodell“, erklärt Patrick Sura. „Somit können wir, wenn die Ist-Zahlen des Monats vorliegen, im Nachgang einen Plan-Ist-Vergleich ziehen.“ Als Sahnestückchen hat er auch noch den Drill-Through auf Belegebene integriert. So haben die berechtigten User die Möglichkeit, alle Buchungen zurückzuverfolgen und sich die dazugehörenden Detailinformationen anzeigen zu lassen.

Ergebnisse und Ausblick

Unterstützt von QUNIS hat dentsu Germany mit dem Financial Data Warehouse grundlegende Strukturen für ein schlagkräftiges Controlling geschaffen. In einem fließenden Prozess sind unter sukzessiver Einbeziehung der GAPTEQ-Technologie eine Security- Konzeption und mehrere Business-Applikationen entstanden. Diese ermöglichen eine sichere betriebswirtschaftliche Steuerung des Agenturnetzwerks von den Abteilungs- und Standortleitern über die Geschäftsführer der Agenturen bis hin zum Top-Management mit CFO und CEO.

„Wir generieren heute über Nacht und mehrmals täglich, was früher nur ein Mal im Monat möglich war. Um diesen hohen Grad der Automatisierung und Digitalisierung in unserer Berichterstattung zu erreichen, hätte man mich als Controller mit Faktor 50 klonen müssen. Dabei sind die Anwendungen denkbar einfach gehalten und erfordern keinerlei Schulungen: Wer ein iPhone bedienen kann, kriegt auch das hin“, resümiert Patrick Sura.

Bereits für 2021 ist jetzt das Ausrollen des Gesamtsystems auf die DACH-Region geplant.

Mehr zu dentsu: Dentsu international ist Teil von dentsu und besteht aus weltweit führenden Marken – Carat, dentsu X, iProspect, Isobar, dentsumcgarrybowen, Merkle, MKTG, Vizeum, Posterscope und seinen weiteren spezialisierten Agenturmarken. Dentsu International unterstützt seine Kunden, die Beziehungen zu ihren Konsumenten auszubauen und einen nachhaltigen Fortschritt für ihr Unternehmen zu erzielen. Mit exzellenten Dienstleistungen und Lösungen in den Bereichen Media, CXM und Creative ist dentsu international in über 145 Märkten weltweit mit mehr als 48.000 engagierten Spezialisten tätig. In Deutschland bietet dentsu mit seinem Agenturportfolio die komplette Wertschöpfungskette der Marketing Services an und ist präsent an den Standorten Frankfurt, Hamburg, Düsseldorf, Augsburg und München.

the factlights 2020 Studienergebnisse

Erstellt am: Freitag, 18. Dezember 2020 von Monika Düsterhöft

Die Zukunft gehört den Data Driven Companies – wo stehen Sie?

Die aktuelle Studie the factlights 2020 zeigt, wie sich Unternehmen im deutschsprachigen Raum der Digitalisierung stellen, welche Herausforderungen bestehen und welche Erkenntnisse sich daraus ergeben.

Adopter, Discoverer und Frontrunner: drei Unternehmenstypen kristallisieren sich beim digitalen Reifegrad heraus.

Von März bis Mitte Juni 2020 fand eine großangelegte Online-Erhebung mit über 1.000 Unternehmen aus dem deutschsprachigen Raum statt. Befragt wurden Mitarbeiter und Leitungsebene aus allen Branchen und Unternehmensbereichen. 671 Fragebögen (=n) wurden vollständig ausgefüllt und konnten ausgewertet werden.

Das Unternehmen jedes Befragten wurde basierend auf einem Scoring-Modell dem Grad der Digitalisierung von 0 (keine Anstrengungen) bis 3 (maximaler Fokus auf Digitalisierung) zugeordnet. Im Ergebnis haben sich drei Cluster mit unterschiedlichen Reifegraden herausgebildet. Das Cluster zwischen 0 bis 1,3 – die Adopter, das Cluster größer 1,3 bis 1,9 – die Discoverer und das Cluster mit einem Reifegrad über 1,9 bis 3 – die Frontrunner. Mit 51% ist die Masse der Umfrageteilnehmer in einem Unternehmen tätig, dass den Discoverern zugeordnet ist; 24% gehören zu den Frontrunnern und 25% sind den Adoptern zuzuordnen.

Chancen der Digitalisierung werden von Adoptern, Discoverern und Frontrunnern unterschiedlich bewertet

Adopter sehen die Hauptpotenziale vorrangig in den internen Prozessen. So beziehen sich deren Fokusthemen beispielsweise auf eine höhere Prozesseffizienz oder eine verbesserte Unternehmenssteuerung.

Frontrunner scheinen interne Hürden bereits überwunden zu haben und widmen sich vermehrt der Realisierung komplexerer Chancen. Dazu zählen der Aufbau neuer digitaler Geschäftsmodelle sowie Initiativen zur Umsatzsteigerung oder Produktindividualisierung.

Discoverer zeigen in ihrer Chancenwahrnehmung, dass sie sich inmitten des digitalen Transformationsprozesses zwischen Frontrunner und Adopter befinden. In ihrem Fokus liegen bereits vermehrt komplexere Aspekte wie beispielsweise digitale Geschäftsmodelle, aber auch intern gerichtete Themen wie die Prozesseffizienz oder eine verbesserte Unternehmenssteuerung haben noch ein großes Gewicht.

Veränderungen bei Produkten und Dienstleistungen korrelieren mit dem Digitalisierungsgrad

Produkte und Dienstleistungen verändern sich durch die technologischen Einflüsse der Digitalisierung! Diese Veränderung ist branchenübergreifend zu erkennen. Hinsichtlich der Digitalisierungscluster stechen besonders die Frontrunner und Discoverer als Vorreiter heraus.

Wie stark die technologischen Einflüsse die Produkte und Dienstleistungen bisher verändert haben, hängt durchaus mit dem Digitalisierungsgrad zusammen. Die Veränderungen sind umso größer, je höher der Digitalisierungsgrad ist. Während unter den Adoptern nur 40% von Produkt- und Dienstleistungsänderungen im Rahmen der Digitalisierung berichten, sind es bei den Discoverern bereits 84% und unter den Frontrunnern sogar 99%.

Smarte Zusatzservices sind allgegenwertig! Betrachtet man alle Befragten, bei denen die Digitalisierung zu Veränderungen von Produkten und Dienstleistungen geführt hat, dann geben durchschnittlich 76% an, dass ihr Unternehmen smarte Zusatzservices bereits etabliert hat. Digitalisierung birgt das Potenzial Produktlebenszyklen zu verkürzen! Bei der Umsetzung sind die Unternehmen jedoch noch etwas verhaltener. Mit positivem Beispiel gehen die Frontrunner voran, hier werden im Vergleich zu den Adoptern und Discoverern die Produktlebenszyklen mehr als doppelt so häufig verkürzt.

Der Bedarf nach einer geeigneten Datenwelt, einer strategischen Ausrichtung und Organisation sowie einem dazu passenden Mindset sind allen gemein.

Die Datennutzung verändert sich – Single Point of Truth und Freiheitsgrade sind gleichermaßen gefordert! Daten werden zunehmend demokratisiert – sie kommen unternehmensweit und in den unterschiedlichsten Bereichen zum Einsatz. Dies gilt auch für erweiterte Analysemethoden, die längst nicht mehr nur im Controlling ihren Einsatz finden.

Der Wert qualitativer Daten wird zumeist erkannt und verschiedene Branchen nutzen verschiedene Datenquellen (von interner Software und Applikationen über Hardware Devices, externe Daten bis hin zu Informationen aus sozialen Netzwerken) bereits mehr oder weniger intensiv. Für die effiziente Nutzung von Analytics gilt es jedoch noch einige Voraussetzungen zu schaffen. Ein durchgängiges Datenmanagement oder auch die passende Verankerung in der Organisation zählen dazu.

Viele weitere Erkenntnisse, Daten, Fakten, Extra Notes und Expert Quotes finden Sie in der Studienvollversion. Gleich persönliches Exemplar holen – direkt online und kostenfrei:

 

Holen Sie sich alle Ergebnisse der Studie the factlights 2020!

PERSÖNLICHES STUDIEN-EXEMPLAR HOLEN

 

Unser Tipp: Sie möchten ein Thema vertiefen oder mehr zur Datenerhebung und dem Einsatz von Data Science im Ramen der Studie erfahren? the factlights ist eine Initiative der QUNIS, sprechen Sie uns also gerne direkt dazu an KONTAKT

QUNIS Scalable Self Service BI – analytische Datenplattform mit Zukunft

Erstellt am: Mittwoch, 1. Juli 2020 von Monika Düsterhöft

Self Service BI: Der Ruf nach leichten auch von der Fachabteilung zu bedienenden Werkzeugen wurde erhört

Globalisierung, vernetzte Wertschöpfungsketten und nicht zuletzt Ausnahmesituationen wie die Finanz- und Corona-Krise zwingen Unternehmen, immer schneller auf neue Anforderungen zu reagieren. Die Fähigkeit, aus Daten agil Informationen zu generieren, um gute und sichere Entscheidungen zu treffen wird zum wichtigen Überlebens- und Wettbewerbsvorteil.

Der Anspruch an Agilität und Schnelligkeit setzt Fachanwender und Datenexperten unter Druck. Das geforderte Tempo mit den bisherigen BI-Enterprise-Vorgehensmodellen und dem Einsatz traditioneller BI-Tools zu halten, wird immer schwieriger. Aus diesem Leidensdruck heraus wurde in den letzten Jahren der Ruf nach einfacheren Werkzeugen, die sich auch von Fachanwendern bedienen lassen, immer lauter.

Die Softwarehersteller haben darauf mit der Entwicklung von Lösungen reagiert, die sie als „Self Service BI“ anbieten.

Die unter diesem Schlagwort rangierenden Tools und Plattformen umfassen in der Regel ein fachanwenderfreundliches Frontend gepaart mit Funktionen für das Erledigen einfacher Datenmanagementaufgaben. Letztere erlauben es den Nutzern, mehrere Datenquellen zu verbinden oder lokale Daten aus Excel-Dokumenten direkt im Visualisierungstool zu integrieren. Auch können sie Quellen aus dem Internet sofort mit anzapfen.

Self-Service-BI-Werkzeuge eignen sich also aufgrund ihrer sehr guten und anwenderfreundlichen Funktionen bestens dafür, individuelle Lösungen zu realisieren. Sie erlauben einen deutlich weniger komplexen und zeitintensiven Prozess bei der Abstimmung, bei der direkten Umsetzung mithilfe der Datenmanagementfunktionen und bei der unmittelbaren Publikation der Ergebnisse durch anforderungsnahe Anwender.

Jedoch, die Antwort für eine nachhaltige BI-Lösung liegt nicht allein im Frontend

Was bei der Euphorie für Self Service BI in vielen Fällen vergessen wird: Das wirklich komplexe an BI-Lösungen ist nicht die Gestaltung der Berichte und Dashboards im Visualisierungstool. Die weitaus größere Herausforderung liegt in der Aufbereitung von aussagekräftigen und wahrheitsgetreuen Datenräumen als Basis für die Visualisierungen.

Zur Umsetzung der dafür notwendigen, teilweise sehr vielschichtigen Datenmanagementaufgaben verfügen professionelle Datenbanken für Enterprise Data Warehouses und Data Lakes über zahlreiche Spezialfunktionen. Sie ermöglichen die Transformation von Daten, das dauerhafte Monitoring der Datenqualität sowie den möglichst automatisierten Ablauf des Ladens der Daten in den großen Datenspeicher.

Die Frage, die sich nun für Unternehmen stellt, die sowohl Self Service BI ermöglichen als auch Enterprise BI realisieren wollen: Wie setzt man Self Service BI so auf, dass es Hand in Hand mit einer Enterprise-Strategie funktioniert? Zudem haben BI-Initiativen nicht selten zum Ziel, die über Jahre gewachsenen individuellen Reporting-Inseln zu integrieren und Inhalte zu harmonisieren.

Das Geheimnis liegt im Bewusstsein und im Datenmodell

BI-Initiativen können nur gewinnen, wenn Self-Service-BI-Funktionen nicht als eigenständiges Werkzeug gesehen werden, sondern als Speedbooster oder als Ergänzung zum Enterprise Data Warehouse und zum Data Lake. Über die erweiterten Möglichkeiten von Self Service BI in der Visualisierung hinaus sind vor allem die neu gewonnenen Optionen im Datenmanagement für viele Architekturen relevant.

Denn Anforderungen einfach, schnell und agil umzusetzen muss nicht immer heißen, dass dieses Projekt später zwangsläufig in einem gesonderten Werkzeug oder in einem langfristigen Datenchaos endet.

QUNIS bringt den Profi-Boost für Self-Service-BI-Architekturen

Um die Vorteile von Self Service BI und Enterprise BI gleichsam zu nutzen, hat QUNIS den Ansatz des „Scalable Self Service BI“ entwickelt. Dieser ermöglicht schnelle Ergebnisse gepaart mit einem sauber aufgebauten Datenmanagement – ganz bewusst flankiert von Wissenstransfer und Empowerment.

Innerhalb weniger Wochen und mit punktuellem Coaching entstehen per „QUNIS Scalable Self Service BI“ und mit dem Einsatz von Micosoft Power BI komplette BI-Apps. Mit professionellem Design, basierend auf klaren Strukturen und durchgängiger Automatisierung der Prozesse.

  • Ein Self-Service-BI-Projekt bei QUNIS startet stets mit einer kompakten Schulung. Die Vertreter der Fachabteilung lernen die Grundlagen des eingesetzten Tools  kennen. Sie erfahren mehr zu den technischen Details und zur methodischen Vorgehensweise. Zudem bekommen sie beigebracht, wie man eine Datentransformation durchführt, wie man ein Datenmodell richtig aufgebaut und welche Best Practices es gibt.
  • Danach werden in einem meist halbtägigen Anforderungsworkshop die konkrete Problemstellung und die dafür gewünschte Lösung im Hinblick auf einen Self Service Use Case überprüft und der sinnvolle Umfang definiert.
  • Darauf aufbauend entsteht in einem Zeitraum von ca. drei bis zehn Tagen ein Modell, das für die gewünschte Datenmenge passt. Wichtig dabei: Dieses Modell entspricht in Bezug auf Qualität und Professionalität bereits den Kriterien eines Enterprise BI. So werden im Self-Service-BI-Modell etwa die gleichen Namensbezeichnungen und Schlüsselfelder wie in einem Enterprise-Data-Warehouse-Modell genutzt. Ebenso verfügt es über eine Schnittstelle zur Überführung in ein Enterprise BI inklusive einer automatisierten Dokumentation.
  • Anhand des aufgesetzten Self-Service-BI-Modells sehen die Beteiligten, worauf zu achten ist, welche Schritte notwendig sind und wie sich Berichte anfertigen lassen. Diese werden dann in einer Reporting-Mappe zusammengeführt.
  • Um die Lösung im Anschluss selbstständig zu erweitern, empfiehlt es sich zudem über eine Fokus-Schulung Know-how in der Formelsprache DAX (Data Analysis Expressions) anzueignen. So können Fachexperten wie Controller oder Produktionsleiter nachfolgend eigene Kennzahlen entwerfen und umsetzen.

Die mit dem QUNIS Scalable Self Service-Ansatz generierten Self-Service-BI-Lösungen bieten drei ganz zentrale Vorteile: Sie erfordern geringe Investitionskosten, weisen als managed Self-Service-BI eine hohe Qualität und Skalierbarkeit auf und vor allem, sie erfüllen bereits die Standards eines Enterprise Data Warehouse. Hinzu kommt, dass sich die User schon während des Self-Service-BI-Projektes dank entsprechender Schulungsanteile und intensivem Coaching ein umfassendes Prozess- und Technologie-Know-how aneignen.

Von Anfang an ist damit die Brücke für den späteren Transfer in die Enterprise-BI-Strategie gebaut. Sie sind bestens gerüstet, die Weiterentwicklung Ihrer BI-Applikation kompetent zu begleiten und gemeinsam mit den Experten weitere Lösungen aufzubauen. Wie das geht zeigt beispielsweise BOGNER in seinem Praxisbericht.

Oder sprechen Sie uns einfach an KONTAKT

Unser Tipp: Nutzen Sie unsere kostenfreien QUNIS-Webinare und Online-Power-Trainings sowie Schulungsangebote der QUNIS Academy rund um die Self Service BI Plattform „Microsoft Power BI“ und erfahren Sie von unseren Experten aus der Praxis, was für Sie drin steckt.

Holen Sie sich gleich die aktuelle Studie & Handbuch zum Thema „Self Service-BI – Agilität für den Fachbereich“ KOTENFREI HOLEN

So arbeiten Sie mit Microsoft Power BI. Siebenteilige Kurzfilmreihe erklärt wie‘s geht!

Erstellt am: Freitag, 1. Mai 2020 von Monika Düsterhöft

Microsoft Power BI – ein mächtiges Tool

Microsoft Power BI ist eine leistungsstarke Business Intelligence Plattform und Analytics-Lösung. Mit Microsoft Power BI kann man sehr schnell Daten aus nicht verbundenen Quellen zusammentragen, analysieren und visualisieren. Anschließend können die erstellten Inhalte auf Dashboards freigegeben und geteilt werden.

Die intuitive Bedienung erlaubt es bereits nach kurzer Einarbeitungszeit verschiedenste Daten zu übersichtlichen, interaktiven Graphiken zu kombinieren. So erstellen Sie aus verstreuten Daten, bedeutsame und interaktive Unternehmens-Insights.

QUNIS Power BI Minis erklären wie‘s geht

In einer siebenteiligen Kurzfilmreihe zeigt unser QUNIS Power BI Spezialist Patrick Eisner Schritt für Schritt, wie Sie mit Microsoft Power BI arbeiten und welche Möglichkeiten die BI-Plattform für Sie bereit hält:

  • Part 1 – Datenintegration
  • Part 2 – Datenvisualisierung
  • Part 3 – Berechtigungen, Hierarchien und Navigation
  • Part 4 – Ein bestehendes Datenmodell erweitern
  • Part 5 – Advanced Visuals
  • Part 6 – Mobile Devices
  • Part 7 – Power BI Web Portal

Alle QUNIS Power BI Minis finden Sie direkt in unserer QUNIS MEDIATHEK oder  im QUNIS YOUTUBE KANAL

Offen für viele verschiedene Datenquellen

Microsoft Power BI eröffnet die Möglichkeit verschiedene Datenquellen in Office 365 einzubinden. Die Auswahl an möglichen Datenquellen ist groß und wird stetig erweitert. Folgende Kategorien zählen dazu:

  • Dateien: Excel, Text, XML, JSON, Ordner, SharePoint Ordner
  • Datenbanken: SQL Server, Access, Oracle oder SAP HANA
  • Power BI: Datenmodelle, die mit Hilfe von Power BI Desktop erstellt wurden
  • Azure: Azure SQL-Datenbank, Azure SQL Data Warehouse oder Azure Analysis Services-Datenbank
  • Online-Dienste: Aktuell Konnektoren gibt es für mehr als 59 verschiedene Clouddienste wie besispielsweise SharePoint-Online Liste, Salesforce-Berichte, Google Analytics
  • Sonstige: Diese Kategorie umfasst weitere Datentypen wie Vertica (Beta), Web, SharePoint Liste, OData-Feed, Active Directory, Microsoft Exchange, Hadoop-Datei (HDFS), Spark, R-Skript, ODBC, OLE DB, Leere Abfragen

Mein Tipp: Die QUNIS Academy bietet ein breites Spektrum an Schulungen und Trainings. Nutzen Sie diese und lernen Sie die Bandbreite der mächtigen BI-lattform einsetzen und nutzen. Hier finden Sie alle aktuellen Themen und Termine: QUNIS ACADEMY

Datenqualität in BI und Big Data – wo liegt der Unterschied und wie funktioniert es zusammen?

Erstellt am: Freitag, 4. Januar 2019 von Monika Düsterhöft

In einer klassischen BI-Umgebung lagern typischerweise strukturierte Daten aus internen Vorsystemen wie Enterprise Resource Planning (ERP), Customer Relationship Management (CRM) oder der Buchhaltung. Für die Qualitätssicherung gibt es Best Practices und erprobte Technologien – man weiß genau, wie und wo man bei der Optimierung ansetzen kann, wenn der Bedarf da ist.

Unklar ist hingegen die Qualitätssicherung bei den für Predictive Analytics nötigen Big-Data-Quellen. Nutzen und Wertschöpfung der anvisierten Vorhersagemodelle hängt auch hier maßgeblich von der Qualität der zugrundeliegenden Daten ab. Systemarchitekten diskutieren nun, wie sie die Qualität von riesigen semi- und polystrukturierten Daten bewerten und sichern, welche Systemarchitekturen dabei ins Spiel kommen und wie das Datenmanagement funktioniert.

Das Data Warehouse bleibt der Single Point of Truth

Das klassische Data Warehouse hat als Kern einer typischen BI-Umgebung auch in der Welt der fortgeschrittenen Analysen seine Daseinsberechtigung. Es ist die beste Grundlage für standardisierte Berichts- und Analyseprozesse mit den unverzichtbaren Finanz- und Steuerungskennzahlen. Geht es um vorausschauende Unternehmenssteuerung, so sind diese Berichtsstandards um Trendanalysen und Prognosen aus der Big-Data-Welt zu ergänzen. In der Praxis erweist sich der sogenannte Data Lake als pragmatischer Implementierungsansatz, um hochstrukturierte Daten aus Transaktionssystemen und wenig strukturierte Big Data zusammenzuführen.

Ausgehend von der bewährten BI-Architektur mit offenen Schnittstellen lassen sich damit Big-Data-Komponenten in eine vorhandene Informationsplattform integrieren. Wichtig dabei ist, dass das zentrale Data Warehouse seinen Anspruch als Single Point of Truth im Unternehmen behält. Will man das Datenmanagement und die Qualität der Datenbasis für Advanced Analytics optimieren, ist es daher eine gute Idee, mit dem meist vorhandenen Data Warehouse zu starten.

Wie die Projektpraxis zeigt, besteht hier nämlich oft noch Handlungsbedarf. Abgesehen von Qualitätsmängeln und inkonsistenten Datenstrukturen wird mit dem Trend zu Self-Service-BI auch das bekannte Problem von Insellösungen und Datensilos wieder akut, das früher durch diverse Excel-Lösungen der Fachabteilungen verursacht wurde. Self-Service im Fachbereich ist praktisch und hat seine Berechtigung, aber das zentrale Business Intelligence Competence Center oder der BI-Verantwortliche müssen die Datenströme unter Kontrolle halten und darauf achten, dass der Single Point of Truth nicht ausgehebelt wird.

Data Warehouse Automation sichert die Datenqualität

Sind die Datenströme gut modelliert, bestehen große Chancen für eine dauerhaft hohe Datenqualität im BI-System. Durchweg strukturierte Daten von der operativen bis zur dispositiven Ebene, standardisierte Auswertungsverfahren und mächtige ETL-Werkzeuge (Extraktion, Transformation, Laden) mit integrierten Prüffunktionen ermöglichen eine hohe Automatisierung der Datenauswertung.

Für den effizienten Aufbau, die Anpassung und die Optimierung von Data Warehouses gibt es inzwischen ausgereifte Verfahren, die Standardisierung und Automatisierung erhöhen und damit die Fehlerrisiken auf ein Minimum senken. Diese Data Warehouse Automation beruht auf Frameworks, die bereits Best Practices für ETL nach etablierten Verfahren sowie Prüflogiken zur Sicherung der Datenqualität enthalten beziehungsweise deren Modellierung auf Meta-Ebene unterstützen. Neben einer effizienten Entwicklung und Administration vermeidet dieser lösungsorientierte Ansatz Konstruktionsfehler und sorgt dafür, dass für eine saubere Datenverarbeitung Best Practices zum Einsatz kommen.

Da Business Intelligence die Business-Realität möglichst genau abbilden will, ist ein hohe Datenqualität unverzichtbar. Klassische Kriterien wie Exaktheit und Vollständigkeit sind dabei zentrale Anforderungen. Schon ein Datenfehler oder eine Lücke im operativen Bestand kann das Ergebnis einer aggregierten Kennzahl verfälschen. Im Rahmen des internen und externen Berichtswesens stehen damit schnell falsche Entscheidungen oder Compliance-Verstöße im Raum.

Bei Big Data steuert der Business Case die Governance

In der Big-Data-Welt gestaltet sich die Datenqualität anders. Hier geht es zunächst darum, die relevanten Datenquellen zu bestimmen, die Daten abzuholen und zu speichern. Das ist nicht immer trivial angesichts einer Bandbreite von Daten aus dem Internet of Things, unstrukturierten Informationen aus Blogs und Social Networks, Sensordaten aus Kassensystemen und Produktionsanlagen, Messdaten aus Leitungsnetzen bis zu Datensätzen aus Navigationssystemen.

Im Gegensatz zur BI-Welt bestehen hier für die interne Datenarbeit keine allgemeingültigen Geschäftsregeln und Standards. Da es um die statistische Auswertung von Massendaten geht, sind die BI-typischen Qualitätskriterien Vollständigkeit und Exaktheit weniger wichtig. Im Rahmen der statistischen Verfahren fallen einzelne Fehler und Lücken nicht ins Gewicht, und Ausreißer lassen sich regelbasiert eliminieren. Wie groß die kritische Masse für belastbare Ergebnisse ist, wie genau, vollständig oder aktuell die Datenbasis sein muss und in welcher Form Informationen nutzbar gemacht werden, das ist für Big-Data-Analysen fallbezogen zu klären.

Die Vielfalt der Einsatzbereiche und damit die Rahmenbedingungen für die Bewertung und Bearbeitung von Daten sind nahezu unbegrenzt. Geht es etwa beim Internet of Things um die grobe Ressourcenplanung von Wartungsarbeiten für angebundene Geräte, sind Ausfälle einzelner Geräte-Meldesysteme irrelevant, da die Ermittlung von Peaks ausreicht. Im Rahmen von Predictive Maintenance ist dagegen jede konkrete Ausfallmeldung eines Gerätes wichtig. Für Kundenzufriedenheitsindizes auf Basis von Weblog-Analysen kommt es nicht auf jeden Beitrag an. Vielmehr geht es darum, Trends abzuleiten und diese in sinnvoll definierte Kennzahlen zu überführen.

Bei Big-Data-Anwendungen fallen also Datenqualitätsmanagement und Governance ebenso individuell aus wie das Analyseszenario des jeweiligen Business Case. In hoch automatisierten Anwendungen wie Autonomes Fahren oder Predictive Maintanance, in denen ausschließlich Maschinen über die Ergebnisse und Auswirkungen von Datenanalyen entscheiden, ist die Data Governance besonders wichtig. Die Quellen von Big Data liegen häufig außerhalb des Einflussbereichs der internen Prozesse: Maschinen-Output, Nutzereingaben oder Internet-Datenströme lassen sich nicht über interne organisatorische Maßnahmen kontrollieren. Bei permanent fließenden, unstrukturierten Datenquellen wie Chatforen greifen auch die klassischen ETL-Methoden nicht, und Störungen wie etwa eine Leitungsunterbrechung können nicht durch Wiederholung oder das Wiederherstellen des Datenbestands ausgeglichen werden.

Eine profunde Konzeption sichert den Projekterfolg

Das Potenzial von Predictive Analytics ist riesig, und viele Unternehmen erschließen sich gerade neue Dimensionen der Informationsgewinnung. Durch Cloud-Betriebsmodelle lassen sich neue Anwendungen schnell und kosteneffizient umsetzen. Voraussetzung dafür ist eine profunde Konzeption, die den kompletten Wertschöpfungsprozess der Daten mit Blick auf ein präzise formuliertes Projektziel abdeckt. Für ein erfolgreiches Projekt müssen anspruchsvolle Fragen der Fachlichkeit, Technik und Organisation geklärt werden. Hier empfiehlt es sich, die Erfahrung eines ganzheitlich orientierten Beratungsunternehmens hinzuzuziehen, um sich zeitraubende Umwege und schmerzhafte Lernzyklen zu ersparen.

Mehr zum QUNIS Data Lake Konzept erfahren.

Trends bei Nutzung von Big Data

Erstellt am: Dienstag, 6. März 2018 von Monika Düsterhöft

Nach Einschätzung der Marktforscher von IDC wird der weltweite Umsatz mit Software, Hardware und Services für Big Data und Big Data Analytics in den kommenden zwei Jahren auf 203 Milliarden US-Dollar steigen. Das jährlich zu den bereits vorhandenen Datenbergen hinzukommende Datenvolumen könnte laut der Auguren im Jahr 2025 bereits bei 180 Zetabyte liegen. Gewaltige Datenmengen und viele Chancen für Unternehmen, neue oder detailliertere Informationen zu extrahieren und für die Unternehmens- und Prozesssteuerung, Planung oder Produktentwicklung einzusetzen.

Prescriptive Analytics

Unter den vielen Aspekten, die im Zusammenhang mit der Nutzung von Big Data und Advanced Analytics diskutiert werden, finden sich einige Entwicklungen, die laut Marktbeobachtern in den kommenden zwölf Monaten besondere öffentliche Aufmerksamkeit erfahren werden.
So wird erwartet, dass das Interesse an Prescriptive Analytics steigt. Es vereint Verfahren des Machine Learning, Simulationen und mathematische Berechnungen, um bei einer bestimmten Fragestellung die optimale Lösung oder das beste Ergebnis unter verschiedenen zur Auswahl stehenden Möglichkeiten zu ermitteln. Praktisch werden also beispielsweise kontinuierlich und automatisch neue Daten verarbeitet, um die Genauigkeit von Vorhersagen zu erhöhen und bessere datengetriebene Entscheidungsoptionen zu bieten. Prescriptive Analytics könnte so neben Cognitive Computing den Mehrwert bei der Analyse von Big Data künftig erheblich steigern helfen.

ECM und Big Data

Big Data ist ein Sammelbegriff, der in der Praxis sowohl vorhandenen Daten, etwa aus einem Data Warehouse oder ERP-System, als auch neue Datenquellen einbezieht. Diese können dabei durchaus auch innerhalb der eigenen Unternehmensgrenzen liegen. So wird für 2018 erwartet, dass sich Organisationen mehr für historische Daten und Dokumente interessieren werden, die bislang nicht in einer digitalen Form vorliegen. In diesen können wichtige Informationen liegen, die zum Beispiel für Voraussagen hilfreich sein können. Damit zeichnet sich hier eine Entwicklung ab, die wir auch bei QUNIS sehen, nämlich der Annäherung und Kombination von Enterprise Content Management und Analyseumgebungen.

Datenqualität statt Datenquantität

Angesichts der wachsenden Datenberge ist es trotz sinkender Hardwarepreise, Cloud und Konzepten wie dem Data Lake auf Dauer nicht wirtschaftlich, schlicht alle erreichbaren Daten zu speichern. Unternehmen müssen sich daher in den kommenden Monaten strategisch damit beschäftigen, auf welche Datensätze sie es besonders abgesehen haben bzw. welche ihnen Ansätze für bessere Analysen bieten können. Ebenso wird es um Wege zur Verbesserung der Datenqualität gehen, denn Datensätze können irrelevant, ungenau oder gar beschädigt sein. Qualität statt Quantität, heißt also die Parole für 2018.

Machine Learing hilft beim Datenschutz

Herzstück einer Big-Data-Analyse sind Verfahren der Künstlichen Intelligenz. Diese müssen in 2018 verstärkt für Auswertungen im Bereich der Datensicherung und Datensicherheit zum Einsatz kommen, da auf diesem Anwendungsgebiet laut Marktbeobachtern Nachholbedarf herrscht. So werden Maschinen beispielsweise schon bald in der Lage sein, mit Hilfe von Machine Learning menschliches Verhalten „vorherzusagen“ und automatisiert „unlabeled data“ zu verwenden. Dadurch wird sich Künstliche Intelligenz zu einem zentralen Instrument für Datenschutz und Abwehr unerlaubter Zugriff entwickeln.

Neue Rollen und viele Stellenangebote

Aber nicht nur die Vielfalt und Nutzungsformen von Big Data werden sich in der nächsten Zeit weiterentwickeln, sondern auch die Menschen, die damit arbeiten. So entstehen neben dem viel zitierten Data Scientist weitere Rollen in den Organisationen, welche die Erfassung, Auswertung und Operationalisierung von Big Data überhaupt erst strukturiert möglich machen. Auch die QUNIS hat hierzu bereits im Rahmen ihrer Big Data Methodik ein modernes Rollenmodell entwickelt, das detailliert die Aufgaben und Kombinationen diskutieren und definieren hilft. Zugleich wächst im Markt die Sorge, dass sich nicht ausreichend Spezialisten für diese oft sehr anspruchsvollen Aufgaben und Rollen rund um Big Data finden lassen. So schätz beispielsweise IBM, dass allein in den USA das Stellenangebot für Big-Data-Experten im weitesten Sinne von 364.000 offenen Stellen in 2018 auf 2,72 Millionen bis 2020 ansteigen wird.

Die Unternehmensplanung verändert sich

Erstellt am: Freitag, 17. November 2017 von Monika Düsterhöft

Schon lange wird von Experten eine integrierte Planung gefordert, doch bleibt es in der Praxis häufig noch bei den alten Abläufen und Vorgehensweisen, die seit vielen Jahren eher kosmetisch angepasst werden. Es dominieren weiterhin Insellösungen, während schätzungsweise erst ein Drittel aller Unternehmen hierzulande schon moderne Planungslösungen im Einsatz hat. Dieser Nachholbedarf bremst auch die Einführung neuer Verfahren und Techniken wie Advanced Analytics. Zu viele Hausaufgaben sind im Zusammenhang mit der Planung noch zu erledigen. So etwa die Bereinigung und Harmonisierung von Datenmodellen. Auch scheuen Unternehmen die Kosten für den Umbau in Richtung integrierte Planung, da es sich um keine kurzfristigen und billigen Vorhaben handelt.

Planungsumgebungen, Simulationen und Predictive Analytics

Dennoch ist die Entwicklung nicht stehengeblieben. Vielmehr zeigen sich deutlich drei Entwicklungen bei der Modernisierung der Planungsumgebung. So existieren in manchen Unternehmen mittlerweile große Planungsplattformen mit neuen Tools und leistungsstarken Datenbanken, über die verschiedene Planungsprozesse integriert und automatisiert werden. Ferner werden häufiger Szenarien modelliert und simuliert. Dadurch wird das bisher dominierende Einsammeln von Plandaten (Bottom up) zurückgedrängt zugunsten einer Top-down-Planung.
Und schließlich kommen auch Lösungen für Advanced Analytics mittlerweile zum Einsatz. Mit ihnen lassen sich laut Finanzexperten schon heute besonders für kurzfristige Prognosen (Predictive Analytics) und für operative Größen gute Ergebnisse erzielen. Aggregierte Größen wie zum Beispiel der EBIT ließen sich hingegen bislang noch nicht so gut berechnen. Doch dies sei nur eine Frage der Zeit. Auch die wachsenden Datenmengen seien in diesem Zusammenhang weniger das Problem, sondern vielmehr die Verfügbarkeit und Qualität der Daten. Aktuell haben 20 Prozent aller Unternehmen eine Planungsumgebung mit automatisierten Analysen, so eine Schätzung.

Weitere Beiträge zum Thema Planung:

QUNIS on Tour – Big Data in Bayern und Kongress der Controller

Erstellt am: Mittwoch, 17. Mai 2017 von Monika Düsterhöft
Zweimal „großer Bahnhof“ in Bayern: Unter dem Motto „Zukunft digital – Big Data“ trafen sich am vergangenen Montag zum einen Unternehmensvertreter und Mitglieder des Zukunftsrats der Bayerischen Wirtschaft in Straubing zum Austausch über die wirtschaftliche Bedeutung von Big Data. Die QUNIS war mit einem Stand vertreten und gab dort Interessenten Einblick in unsere Big-Data-Methodik, Use Cases sowie unser Anwenderbefragung zu Big Data und Advanced Analytics in der Praxis.
Im Mittelpunkt der Konferenz stand die erstmals 2016 präsentierte Studie zu den wirtschaftlichen Potenzialen und rechtlichen Rahmenbedingungen von „Big Data“. Im Auftrag der vbw – Vereinigung der Bayerischen Wirtschaft e. V. hatten die Prognos AG und Professor Dirk Heckmann vom Lehrstuhl für Öffentliches Recht, Sicherheitsrecht und Internetrecht an der Universität Passau, diese Untersuchung für den Zukunftsrat erstellt.
 Die darauf beruhenden Handlungsempfehlungen des Zukunftsrats an Politik, Wirtschaft und Wissenschaft stellte vbw-Präsident Alfred Gaffal den rund 120 anwesenden vbw-Mitgliedern noch einmal kurz vor. Big Data werde als Schlüssel zur Entwicklung innovativer hybrider Geschäftsmodelle entscheidend zum Wachstum der kommenden Jahre beitragen, so die Erwartung des Verbands. Bayern müsse dabei zur europäischen Leitregion für Big Data Technologien und Anwendungen werden.  Jedes Unternehmen sollte sich laut der Handlungsempfehlungen künftig eine Strategie für den Umgang mit Daten – möglichst unter Ausschöpfung der darin liegenden Potenziale im Rahmen von Big-Data-Anwendungen – geben. Sie beinhaltet gleichermaßen die Realisierung wirtschaftlicher Chancen wie eine möglichst rechtssichere Gestaltung des Umgangs mit Daten.

Auf dem vbw-Treffen in Straubing: Gastgeber Erich Sennebogen, Jutta Krogull, Geschäftsführerin der vbw Bezirksgruppe Niederbayern, sowie vbw-Präsident Alfred Gaffal. Foto: vbw

Big Data – wem gehören die Daten?

Auf letzteren Aspekt ging Professor Heckmann in einer Fragerunde näher ein und machte deutlich, dass hier noch viele Fragen beim Umgang mit Daten zu klären sind, um die Nutzung von Big Data zu fördern und zu erleichtern. Dabei gehe es zum einen um das komplexe Thema Datenschutz, zum anderen aber auch um Fragen der Fairness und die juristisch noch ungeklärte Frage, ob Daten vergleichbar zu Sachgegenständen auch als „Eigentum“ betrachten werden können (Wem gehören die Daten?). Unternehmen sollten ihren Umgang mit Daten mit vertrauensbildendenden Maßnahmen flankieren, empfiehlt der Zukunftsrat, indem sie transparent über die geplante Erhebung, Speicherung und Nutzung von Daten informieren. Innerhalb der Grenzen der notwendigen Geheimhaltung bezüglich eigener Geschäftsvorgänge sollte über Big-Data-Zwecke, -Anwendungen und -Schutzmaßnahmen informiert werden. Bei personenbezogenen Daten und insbesondere im Falle einer nicht von vornherein abschließend feststehenden Nutzung der erhobenen Daten ist dies ohnehin erforderlich. Prof. Heckmann erinnerte zudem die Teilnehmer daran, dass im kommenden Jahr mit der „Europäischen Datenschutzverordnung“ höhere Transparenz-Anforderungen bei der Datennutzung auf alle Beteiligten zukämen.

ICV-Kongress über Digitalisierung und die Folgen im Controlling 

Zum anderen zeigte die QUNIS Präsenz auf dem 42. Congress der Controller in München. Wir waren als Aussteller und als ein Sponsor des „Controllerpreis 2017“, der heuer an EDEKA Südwest ging,  stark vertreten. Die Veranstaltung stand heuer unter dem Motto „Agiles Controlling in der digitalen Realität – Umbrüche erfolgreich managen“ . Rund 650 Teilnehmer waren laut dem Veranstalter, dem Internationalen Controller Verein (ICV), zu Europas größter Controlling-Fachtagung an die Isar gekommen.

650 Besucher kamen dieses Jahr zum Kongress der Controller nach München. Die QUNIS war als Aussteller und Sponsor dabei. Foto: QUNIS

Der ICV-Vorsitzende und langjähriger CEO der Hansgrohe SE, Siegfried Gänßlen betonte in seiner Begrüßungsansprache, wie die Digitalisierung für tiefgreifende Veränderungen in den Unternehmen sorge, indem sie nicht nur technologische Innovationen mit sich bringe, sondern auch neue Geschäftsmodelle ermögliche und Märkte dadurch total umkrempele. Auch die Controller seien nun aufgefordert, „alles an sich selbst in Frage zu stellen“, erklärte der ICV-Vorsitzende. Eine zentrale Frage ist dabei,  wie man künftig mit den vielfältigen, oft in Echtzeit entstehenden steuerungsrelevante Daten umgehen könne: „Wer greift wann welche Daten ab? Und: Was ist jetzt die ‚one version of the truth‘?“ Gänßlen sieht es als Aufgabe der Controller dafür zu sorgen, dass Controlling-Skills an das Management vermittelt werden und die Rationalitätssicherung gewährleistet ist.

QUNIS Kongress der Controller

QUNIS testete auf dem Kongress der Controller ein Digital Signage System mit künstlicher Wahrnehmung. Neugierige Kollegen und Besucher ließen nicht lange auf sich warten  🙂   Foto: QUNIS

Unternehmensbeispiele zeigten, dass heute schon verschiedenste Controller-Tätigkeiten automatisiert sind, speziell im Reporting und in der Planung, so Gänßlen. „Wir befinden uns bereits in einer Zeit der Transformation. In der Unternehmenssteuerung vollzieht sich der Paradigmenwechsel: von reaktiv zu proaktiv-prognostizierend.“ Datenbasiert ließen sich quantitativ-statistische Zusammenhänge erkennen und kontinuierlich auf Validität überprüfen. Neue Modelle dienten als Grundlage für erweiterte Szenario-Planungen, zur Qualifizierung von strategischen Optionen sowie zur Bewertung von Business Cases.

Der ICV-Vorsitzende widmete sich den aktuellen und zukünftigen Aufgaben der Controller. „Qualitativ hochwertige IT-Systeme entwickeln sich nicht von selbst: Das betriebswirtschaftliche Design werden Controlling-Experten liefern müssen“, so der ICV-Vorsitzende. „Das Tooling muss in Zusammenarbeit mit Data Scientists erstellt werden. Wir erhalten eine neue Verteilung der Controlling-Aufgaben und ein stark verändertes Controller-Profil.“ Die Datenanalytik erweise sich bereits als Kompetenzfeld von Spezialisten. Data Scientists als Experten seien mit ihren technologischen, mathematischen und analytischen Kompetenzen gefragt.

Das Selbstverständnis des Controllers muss sich ändern

Viele Veröffentlichungen, Studien und Prognosen befassten sich mit dem Thema Digitalisierung und Künstliche Intelligenz. Die einen Szenarien würden neue Chancen für Controller hervorheben, die anderen den massiven Wegfall von Arbeit im Controlling beschreiben, der mit Jobverlusten der Controller einhergehen werde. Der Vorsitzende des Internationalen Controller Vereins (ICV) mahnte, die Controller müssten in den Veränderungsprozess einsteigen. Die bestehende Toolbox, die Fähigkeiten und der Mindset seien neu aufzustellen. Zu den neuen gefragten Fähigkeiten gehörten Kenntnisse in Statistik und Informationstechnologie, aber auch Kommunikationskompetenz sowie ein solides Verständnis des Geschäftsmodells und der Wertschöpfungskette des Unternehmens. „Wir müssen alte Verhaltensmuster über Bord werfen, noch innovativer werden und mehr Start-up Mentalität entwickeln“, fordert Gänßlen von den Controllern.

Die zunehmende Automatisierung schafft nach Ansicht Gänßlens auch Freiräume für Controller; neue Aufgaben und neue Jobs entstünden. „Controller haben durch ihren tiefen Einblick in das Unternehmen und in die Geschäftsmodelle die idealen Voraussetzungen, um höhere Managementpositionen zu übernehmen. Auch der Weg in die Unternehmensspitze ist machbar“, ist der ICV-Vorsitzende gewiss (mehr zum Thema Controlling und Big Data finden Sie auch in unserem Beitrag).
*Mit Material aus der Pressemitteilung des ICV