Archiv für die Kategorie Forecasting

Dentsu: Zentrales Data Warehouse für Controlling und systemübergreifende Analytics, Data Enrichment und Datenkonsolidierung für automatisiertes Reporting

Erstellt am: Donnerstag, 21. Januar 2021 von Monika Düsterhöft

Die deutsche Tochtergesellschaft der international agierenden Medienagentur-Gruppe dentsu hat ihre heterogenen Datensilos in ein zentrales Financial Data Warehouse überführt. Damit können betriebswirtschaftliche Reports, Analysen, Planungen und Forecasts auf der einheitlichen Basis eines Single Point of Truth entstehen. Mithilfe seiner neuen BI-Lösung generiert dentsu Germany seine entscheidungsrelevanten Daten deutlich schneller und aktueller, aber auch zuverlässiger und sicherer.

Früher galt: heute gebaut und morgen veraltet. Das sollte dringend geändert werden. Erklärtes Ziel war eine übergreifende Datenbasis, die mehrfach täglich aktualisiert wird. Dies sollte eine deutschlandweit systemübergreifende Auswertbarkeit und Analysefähigkeit aller steuerungsrelevanten Finanzdaten ermöglichen.


Patrick Sura,
Director Business Intelligence DACH bei
Dentsu

Datengetriebenes Geschäftsmodell

Die Medienagentur-Gruppe dentsu International wurde 1901 in Japan gegründet. Fokussiert auf die Geschäftsbereiche Media, CRM und Creative bedient das weltumspannende Netzwerk mit seinen 66.000 Mitarbeitenden rund 11.000 Kunden in 143 Ländern. dentsu Germany zählt hierzulande zu den größten fünf Agenturen für Kommunikations- und Mediaberatung. Die 1.500 Beschäftigten verteilen sich auf den Firmensitz in Frankfurt am Main und weitere Standorte in Augsburg, Düsseldorf, Hamburg und München.

In der Media-Branche nehmen Daten ganz generell einen hohen Stellenwert ein. Sie lassen Vorhersagen zu über das Zielgruppenverhalten, um mit möglichst geringen Streuverlusten werben zu können. Zudem sind sie solide Basis für Mediapläne mit zu platzierenden Schaltungen, die das Kundenbudget optimal einsetzen. Datengetrieben sind bei dentsu Germany aber auch die betriebswirtschaftlichen Belange zur Steuerung der vernetzten Agenturen. Nur auf der Grundlage homogener Daten nämlich lassen sich valide Entscheidungen treffen, um das Unternehmen sicher auf Kurs zu halten und den eingeschlagenen Wachstumspfad weiter zu beschreiten.

Diesen Ansprüchen konnte jedoch die bisherige Vorgehensweise nicht mehr gerecht werden. „Jeder hatte mehr oder weniger Zugang zu vereinzelten Datentöpfen und baute sich seine Berichte bei Bedarf in Excel selbst zusammen“, blickt Patrick Sura zurück. „Weil es keinen Single Point of Truth gab, musste man in den Meetings zuerst zeitraubend klären, wer die richtigen Zahlen hat, bevor es an die strategischen Auswertungen gehen konnte.“ Vor diesem Hintergrund traf dentsu Germany die Entscheidung zum Aufbau eines Financial Data Warehouse.

Erfahrenen Projektleiter gewonnen

Hierfür wurde eigens eine neue Stelle geschaffen und 2017 mit Patrick Sura besetzt. Der aus Speyer stammende Diplom- Betriebswirt (FH) ist langjähriger Branchenkenner und hatte als Finance-Controller einschlägige Data-Warehouse-Projekte erfolgreich umgesetzt.

Damals wie heute war QUNIS präferierter Projektpartner. „Ich hatte auf einer Fortbildungsveranstaltung der controller akademie einen der Geschäftsführer kennen gelernt, der dort einen Vortrag hielt“, erinnert sich Patrick Sura an sein Treffen mit Hermann Hebben, das zum ersten gemeinsamen Data-Warehouse-Projekt führte.

Financial Data Warehouse als Single Point of Truth

Die IT-Infrastruktur von dentsu ist nur in geringem Maße global organisiert. Größtenteils unterhalten die Tochtergesellschaften in den Ländern lokale Systeme etwa für ERP (Enterprise Resource Planning), Datenhaltung und Controlling. Beim Antritt fand Patrick Sura rudimentäre BI-Strukturen vor, erste Ansätze über SAP BW waren ins Leere gelaufen.

Gemeinsam mit QUNIS startete er das Projekt zum Aufbau eines Financial Data Warehouse. Die bislang dezentral gehaltenen Finance-Daten sollten zusammengeführt werden für Verknüpfungen, um allgemeingültige Kennzahlen für ein flexibles Controlling zu gewinnen. Beim Aufbau auf technologischer Basis des Microsoft SQL Servers wurde die QUNIS Automation Engine eingesetzt – „mit immensen Vorteilen hinsichtlich Automatisierung und Standardisierung“, wie Patrick Sura betont. So erfolgte die Datenbankentwicklung weitestgehend automatisiert, genauso der komplette ELT (Extract, Load, Transform)-Prozess aus Vorsystemen wie SAP/R3, SAP BW und ein Mediasystem auf ORACLE-Basis.

„Die QUNIS Automation Engine führt auf einer komfortablen Web-Oberfläche durch die einzelnen Schritte. Man designt mit Metadaten und erhält den Quellcode des Data Warehouse, ohne nur eine Zeile dafür händisch geschrieben zu haben.“ Das geht viel schneller und minimiert die Fehlerpotenziale, unterstreicht der Projektleiter und ergänzt: „Der Engine-Logik folgend, wird stets nach dem gleichen Prinzip vorgegangen. Das macht das Ergebnis personenunabhängig und besser nachvollziehbar. Dadurch lassen sich auch spätere Anpassungen in allen relevanten Teilbereichen viel effizienter abbilden.“

Data Enrichment und Datenkonsolidierung

Schon in früher Projektphase wurde deutlich, dass die Stammdaten vor der Übernahme ins Data Warehouse zur Steigerung der Qualität überarbeitet und angereichert werden müssten. Hierfür griff Patrick Sura mit GAPTEQ auf eine „willkommene Alternative zum mühsamen und fehleranfälligen Weg via Excel“ zurück. Bei GAPTEQ handelt es sich um eine Low-Code-Technologie zur Realisierung von Oberflächen für SQL-Datenbanken. Das Einsatzspektrum reicht vom einfachen Web- Formular bis hin zur komplexen Business- Applikation – mit wenig Aufwand per Drag & Drop, smart und sehr schnell, wie sich im Projektverlauf bestätigte.

Top-aktuelle Analysen und Berichte auf Abruf

Nachts und mehrfach im Tagesverlauf werden die Daten im Data Warehouse automatisiert in den Analysis Services bereitgestellt, wo alle KPI (Key Performance Indicators) und Regeln hinterlegt sind. Wer die entsprechenden Power-BI-Dashboards und -Berichte zur Auswertung bereitgestellt bekommt, definiert ein ebenfalls mithilfe von GAPTEQ integriertes Security-Konzept. Nach erfolgtem Kickoff Ende 2018 und Beginn der Arbeiten Anfang 2019 konnten so bereits Ende Juli 2019 die ersten Reports mit der neuen BI-Lösung erstellt werden. Mittlerweile ist jeder Bericht an die Datenquellen des Data Warehouse angeschlossen, so dass Aktualisierungen jederzeit abgerufen und in derselben Ansicht dargestellt werden können.

Maßgeschneiderte Business-Applikationen

Data Enrichment und Security-Konzept ließen das Management erkennen, wie hoch die Potenziale von GAPTEQ sind: „Schier grenzenlos einsetzbar und mit unglaublich schnellen Ergebnissen – eine klassische Programmierung wäre x-fach teurer und langwieriger“, so Patrick Sura. Vor diesem Hintergrund sollten mit Applikationen wie der Target-App und den OPEX Forecasts zwei Business-Applikationen folgen.

  • Über die Target-App werden abgeleitet von der Gesamtplanung die jeweiligen Ziele für das Agenturen-Management in vier verschiedenen Kategorien festgelegt. In GAPTEQ sehen die Manager die vereinbarten Targets kombiniert mit den Ist-Zahlen aus dem Data Warehouse. Das zeigt, was schon erreicht wurde und noch zu tun ist. Sie können die Werte auch fortschreiben und per Knopfdruck sofort sichtbar aktualisieren. Nicht zuletzt dank der QAE und dem einhergehenden betont sauberen Datenmodell, auf dessen Basis die Target- App aufsetzt, hat die Einrichtung gerade mal drei Wochen benötigt.
  • Die OPEX-Forecasts über die Ausgaben für den operativen Geschäftsbetrieb waren nach nur sechs Wochen Projektzeit umgesetzt. GuV-Forecast auf Kontoebene, jeden Monat die Ist-Zahlen anschauen und bis zum Jahresende forecasten, dabei die Budgets abstimmen: Was ehedem mühsam und mit allen Nachteilen per Excel zu erledigen war, geht nun vollständig integriert vonstatten. Dank Security-Konzept können zudem die Ressortleiter zu Controlling-Zwecken auf relevante Kostenstellen zugreifen.

„Wir sammeln die Planzahlen je Kostenstelle von den Verantwortlichen ein und konsolidieren sie direkt auf dem Server mit dem einheitlichen Datenmodell“, erklärt Patrick Sura. „Somit können wir, wenn die Ist-Zahlen des Monats vorliegen, im Nachgang einen Plan-Ist-Vergleich ziehen.“ Als Sahnestückchen hat er auch noch den Drill-Through auf Belegebene integriert. So haben die berechtigten User die Möglichkeit, alle Buchungen zurückzuverfolgen und sich die dazugehörenden Detailinformationen anzeigen zu lassen.

Ergebnisse und Ausblick

Unterstützt von QUNIS hat dentsu Germany mit dem Financial Data Warehouse grundlegende Strukturen für ein schlagkräftiges Controlling geschaffen. In einem fließenden Prozess sind unter sukzessiver Einbeziehung der GAPTEQ-Technologie eine Security- Konzeption und mehrere Business-Applikationen entstanden. Diese ermöglichen eine sichere betriebswirtschaftliche Steuerung des Agenturnetzwerks von den Abteilungs- und Standortleitern über die Geschäftsführer der Agenturen bis hin zum Top-Management mit CFO und CEO.

„Wir generieren heute über Nacht und mehrmals täglich, was früher nur ein Mal im Monat möglich war. Um diesen hohen Grad der Automatisierung und Digitalisierung in unserer Berichterstattung zu erreichen, hätte man mich als Controller mit Faktor 50 klonen müssen. Dabei sind die Anwendungen denkbar einfach gehalten und erfordern keinerlei Schulungen: Wer ein iPhone bedienen kann, kriegt auch das hin“, resümiert Patrick Sura.

Bereits für 2021 ist jetzt das Ausrollen des Gesamtsystems auf die DACH-Region geplant.

Mehr zu dentsu: Dentsu international ist Teil von dentsu und besteht aus weltweit führenden Marken – Carat, dentsu X, iProspect, Isobar, dentsumcgarrybowen, Merkle, MKTG, Vizeum, Posterscope und seinen weiteren spezialisierten Agenturmarken. Dentsu International unterstützt seine Kunden, die Beziehungen zu ihren Konsumenten auszubauen und einen nachhaltigen Fortschritt für ihr Unternehmen zu erzielen. Mit exzellenten Dienstleistungen und Lösungen in den Bereichen Media, CXM und Creative ist dentsu international in über 145 Märkten weltweit mit mehr als 48.000 engagierten Spezialisten tätig. In Deutschland bietet dentsu mit seinem Agenturportfolio die komplette Wertschöpfungskette der Marketing Services an und ist präsent an den Standorten Frankfurt, Hamburg, Düsseldorf, Augsburg und München.

Die Unternehmensplanung verändert sich

Erstellt am: Freitag, 17. November 2017 von Sascha

Schon lange wird von Experten eine integrierte Planung gefordert, doch bleibt es in der Praxis häufig noch bei den alten Abläufen und Vorgehensweisen, die seit vielen Jahren eher kosmetisch angepasst werden. Es dominieren weiterhin Insellösungen, während schätzungsweise erst ein Drittel aller Unternehmen hierzulande schon moderne Planungslösungen im Einsatz hat. Dieser Nachholbedarf bremst auch die Einführung neuer Verfahren und Techniken wie Advanced Analytics. Zu viele Hausaufgaben sind im Zusammenhang mit der Planung noch zu erledigen. So etwa die Bereinigung und Harmonisierung von Datenmodellen. Auch scheuen Unternehmen die Kosten für den Umbau in Richtung integrierte Planung, da es sich um keine kurzfristigen und billigen Vorhaben handelt.

Planungsumgebungen, Simulationen und Predictive Analytics

Dennoch ist die Entwicklung nicht stehengeblieben. Vielmehr zeigen sich deutlich drei Entwicklungen bei der Modernisierung der Planungsumgebung. So existieren in manchen Unternehmen mittlerweile große Planungsplattformen mit neuen Tools und leistungsstarken Datenbanken, über die verschiedene Planungsprozesse integriert und automatisiert werden. Ferner werden häufiger Szenarien modelliert und simuliert. Dadurch wird das bisher dominierende Einsammeln von Plandaten (Bottom up) zurückgedrängt zugunsten einer Top-down-Planung.
Und schließlich kommen auch Lösungen für Advanced Analytics mittlerweile zum Einsatz. Mit ihnen lassen sich laut Finanzexperten schon heute besonders für kurzfristige Prognosen (Predictive Analytics) und für operative Größen gute Ergebnisse erzielen. Aggregierte Größen wie zum Beispiel der EBIT ließen sich hingegen bislang noch nicht so gut berechnen. Doch dies sei nur eine Frage der Zeit. Auch die wachsenden Datenmengen seien in diesem Zusammenhang weniger das Problem, sondern vielmehr die Verfügbarkeit und Qualität der Daten. Aktuell haben 20 Prozent aller Unternehmen eine Planungsumgebung mit automatisierten Analysen, so eine Schätzung.

Weitere Beiträge zum Thema Planung:

Controlling und Big Data – Teil 2

Erstellt am: Dienstag, 24. Januar 2017 von Sascha

Big-Data-Vorhaben haben einen experimentellen Charakter und laufen bislang in der Unternehmenspraxis häufig parallel zum IT-Betrieb. Allerdings zeichnet sich ab, dass dies mancherorts nur in der frühen Phase solcher Vorhaben der Falls ist und mittlerweile Unternehmen solche Aktivitäten künftig wieder in enger Abstimmung zwischen IT, Fachbereichen und mit dem Segen des Managements vorantreiben wollen. Die oft komplexen Resultate der Big-Data-Analysen müssen intern nicht nur vermittelbar sein, sondern möglichst in den produktiven Betrieb überführt werden. Man sollte sich also die eigenen Anforderungen, Ressourcen sowie klare „Use Cases“ definiert haben, bevor man umfänglich mit Big Data zu arbeiten beginnt!

Controlling und Finance als Berater im Big-Data-Projekt

Die Anwenderbefragung „Big Data & Advanced Analytics in der Praxis“ der QUNIS, Controller Akademie und der Aquma GmbH zeigt indes, dass viele Unternehmen aber genau noch nach solchen Use Cases für sich suchen. QUNIS legt in der Beratung daher auf diese Phase des Big-Data-Vorhabens besonders großen Wert und nutzt als Teil seiner Big-Data-Methodik beispielsweise eine umfangreiche „Lösungsbibliothek“ aus Fallbeispielen. Diese leisten bei der Diskussion und Identifikation eigener Use Cases gute Hilfe. Oft gibt es in der Unternehmensorganisation schon Ideen und man weiß um eigene Chancen oder Schwachpunkte, die man durch Advanced Analytics angehen möchte. Diese Ideen weiter zu analysieren, zu selektieren, zu strukturieren, zu priorisieren und dann Maßnahmen abzuleiten, ist ein entscheidender Erfolgsfaktor im Big-Data-Projekt. Auch hier können gerade Finance & Controlling mit ihrem breiten Fach- und Unternehmenswissen eine wichtige Rolle spielen.

In der weiteren Diskussion über die Umsetzung von Big-Data-Projekten wird man sich dann über eine unterstützende Datenarchitektur sowie die Nutzung solcher Daten und Analysen im Rahmen einer vorhandenen BI- oder neu zu definierenden Big-Data-Strategie einigen müssen. Will man erste Erfahrungen sammeln, ist es meist effizient und günstiger, wenn Teststellungen über Cloud Services wie „Microsoft Azure“ aufsetzt, statt intern eine separate IT-Umgebung aufzubauen.

Eine integrierte Unternehmensplanung bleibt das Ziel

Big Data und Advanced Analytics können Finance & Controlling ohne Frage dabei helfen, in einem dynamischen Marktumfeld schneller und gezielter zu planen und durch vorausschauende Analysen Risiken und Chancen zu erkennen (Predictive Analytics). Voraussetzung ist aber, dass alle benötigten Informationen und Ergebnisse zeitnah und in hoher Qualität verfügbar sind. Auch wenn man im Projekt häufig mit einzelnen Prozessen und Anforderungen beginnen wird, muss das Ziel daher eine integrierte Unternehmensplanung sein, von der heute die meisten Unternehmen noch weit entfernt sind. Sie Sie ist gekennzeichnet durch eine fachlich und betriebswirtschaftlich korrekte Verknüpfung der Teilpläne bis in die Ergebnisplanung und verzahnt Gewinn- und Verlustrechnung, Bilanz und Cashflow-Rechnung miteinander. Ferner müsste die Planung sich flexibel und über das Jahr immer wieder anpassen lassen und mit weiteren Prozessen wie das Berichtswesen und die Finanzkonsolidierung verknüpft sein.

Noch ein weiter Weg zur integrierten Unternehmensplanung

Erstellt am: Freitag, 11. November 2016 von Sascha

Eine integrierte Unternehmensplanung heißt fachlich betrachtet, dass kurz- und langfristige Planungen vereint sind, um operative Kennzahlen aus den strategischen Unternehmenszielen ableiten zu können. Es muss eine fachlich und betriebswirtschaftlich korrekte Verknüpfung der Teilpläne bis in die Ergebnisplanung geben; Gewinn- und Verlustrechnung, Bilanz und Cashflow-Rechnung sind miteinander verzahnt. Die Planung müsste sich zudem flexibel und über das Jahr immer wieder anpassen lassen und mit weiteren Prozessen wie das Berichtswesen und die Finanzkonsolidierung verknüpft sein, um ein möglichst umfassende Grundlage für die Unternehmenssteuerung zu erhalten. Laut Umfragen sehen Unternehmen insbesondere in der Qualität und Aussagekraft der Ergebnisse die größten Vorteile einer integrierten Unternehmensplanung.

Wie weit Unternehmen diese Ziele in die Praxis umgesetzt haben, hat die BARC-Anwenderbefragung „Integrierte Unternehmensplanung 2016. Reifegrad deutschsprachiger Unternehmen“ kürzlich erkundet. Danach ist nach Zeithorizonten betrachtet die Jahresplanung samt laufender Aktualisierung im Rahmen des Forecastings weiterhin die häufigste Planungsart in deutschsprachigen Unternehmen aller Größen. Eine Mittelfristplanung nehmen noch etwa zwei Drittel, eine strategische Planung mit einem Planungshorizont von mehr als fünf Jahren nur ein Drittel alle Unternehmen vor. Letztere ist zudem weitgehend auf große Unternehmen beschränkt, da sie laut Studienautoren in der Regel über stärker ausgeprägte Strategieprozesse verfügen. Gibt es keine klassische Jahresplanung mehr, greift man stattdessen überwiegend auf eine Kombination aus Mittelfristplanung und Forecasting zurück.

Strategische Planung noch selten integriert
Gemessen am Umfang der Integration strategischer Vorgaben in die Planungsprozesse ergab die Umfrage, dass sich die Jahresplanung und Budgetierung nur bei jedem fünften Unternehmen aus der strategischen Planung ableitet, also so, dass sich alle Objekte der strategischen und Mittelfristplanung in der operativen Planung wiederfinden. Etwa ebenso viele Unternehmen haben dies zumindest für den überwiegenden Teil der Objekte erreicht, während die größte Teilnehmergruppe (43 Prozent) dies nur für einzelne Planobjekte tut. Eine kleine Gruppe (13 Prozent) hat noch keine derartige Integration.

Forecasts – häufiger, aber selten rollierend
Eine größere Bandbreite der Status zeigt sich auch bei der Frequenz, mit der Planwerte heute aktualisiert werden. Dabei ist ein vierteljährlicher Forecast (39 Prozent) und ein monatlicher Forecast (34 Prozent) aktuell die verbreitetsten, gefolgt von halbjährlichen, unregelmäßigen oder gar keiner unterjähriger Aktualisierung (6 Prozent). Während etwa die Hälfte der Unternehmen versuchen, Forecasts durch eine geringere Detailtiefe effizienter zu machen, gibt es laut der Autoren eine mit 15 Prozent durchaus signifikante Gruppe, die sogar mehr Details einbezieht. Rollierende Forecasts sind trotz ihrer Vorzüge gegenüber periodenfixen Forecasting, aber auch hohen technischen Komplexität nur in etwa einem Viertel der Unternehmen etabliert. Etwa die Hälfte dieser Gruppe setzt rollierende Forecasts tatsächlich für alle Teilpläne, die andere Hälfte nur für einzelne Teilpläne ein.

Hilfe bei der Integration und Datenarchitektur von Planungsprozessen sowie bei der Wahl der passenden Softwarewerkzeuge für die Eingabe von Plandaten bietet Ihnen QUNIS im Rahmen seiner Beratung. Ebenso bieten wir laufend kostenlose Webinare sowie Seminare zu alle Aspekten der Business Intelligence, Big Data und Softwareeinsatz.