Archiv für die Kategorie Datenmanagement

Digital Workplaces, Data Literacy, Cloud, Data Catalogs und mehr – das bewegt die Data & Analytics-Welt

Erstellt am: Dienstag, 31. Mai 2022 von Monika Düsterhöft

Das Thema Data & Analytics hat deutlich an Fahrt aufgenommen: Die Initiale für Projekte und Initiativen sind dabei so vielfältig wie nie zuvor. Die Herausforderungen und Antworten darauf ebenso.

Viele Organisationen stellen sich aktuell IT-seitig komplett neu auf

Aus selbst definierten strategischen Gründen oder auch weil technische Erweiterungen von Softwareherstellern eine komplett neue Ausrichtung erfordern. Dabei wird kaum noch monolithisch alles einer einzigen, zentralen Strategie unter­geordnet. Stattdessen eröffnen sich heterogene Welten beispielsweise mit Cloud-Angeboten, Spezialapplikationen unter anderem für Product-Lifecycle-Management oder Firmendatenbanken wie etwa Produktinformationssysteme.

Diese Entwicklung erfordert angesichts der Vielfalt und Komplexität der Aufgaben im Kontext von Data & Analytics umso mehr feste Konzepte für das Stamm- und Metadaten-Management. Schließlich gilt es, jederzeit den Überblick zu bewahren und Transparenz zu gewährleisten.

Ebenso geht nicht erst seit, aber forciert durch Corona der Trend hin zum verteilten Arbeiten. Sogar Unternehmen, die sich vor nicht allzu langer Zeit noch dagegen gesperrt haben, stellen mittlerweile Digital Workplaces bereit. Auch hier spielt die Cloud eine zunehmend wichtige Rolle, um den mobilen Zugriff auf die Systeme etablieren und von der Infrastruktur her überhaupt ausrollen zu können. Über die Technologie hinaus erfordert dies vielfach neue Konzepte und Handlungsweisen.

Zudem betrifft die Digitalisierung die unterschiedlichsten Bereiche in einem Unternehmen – ob in der Kommunikation, im Vertrieb, dem Kundenservice oder der HR-Abteilung. Neben dem elementaren Organisationsmanagement, das die Struktur des „Gesamtkonstrukts Digitalisierung“ steuern und optimieren soll, benötigen diese Transformations- oder vielmehr Veränderungsprozesse immer auch ein gutes Change Management. Denn nicht nur die Prozesse müssen stimmen, sondern die Menschen dahinter müssen abgeholt und mitgenommen werden, um die veränderten Prozesse dauerhaft und erfolgreich im Unternehmen zu etablieren.

Damit einher geht auch der steigende Bedarf an Kompetenzen, dem sogenannten Upskilling. Die zunehmend digitalisierte Arbeitswelt erfordert abteilungsübergreifende Kompetenzerweiterungen; das gilt für den IT- und Technik-Bereich, aber auch in Marketing & Kommunikation und erstreckt sich ebenso über Anforderungen wie Mitarbeiterentwicklung, Problemlösungskompetenzen oder Konfliktmanagement bzw. Teamwork. Das alles muss bedacht und umgesetzt werden, da sonst Digitalisierungsinseln entstehen und ein Scheitern des ganzheitlichen Ansatzes vorprogrammiert ist.

Datenlandschaften gehören erweitert, sichere Zugänge gewährleistet

Immer bedeutender werden die sogenannten Digitalen Zwillinge oder auch Digital Twins. Dabei handelt es sich um digitale Nachbauten von physischen Objekten, Produkten und Services. Diese müssen in die Prozesslandschaften integriert werden, damit Simulationen und Forecasts rein digital stattfinden können – interessant ist dies beispielsweise für Produktentwicklung oder Qualitäts­management.

Die Daten als erfolgsentscheidendes Asset zu begreifen und entsprechend zu nutzen, bedeutet in der Konsequenz: Alle Mitarbeiter müssen im Sinne von Data Literacy (ein neu aufge­kommenes Buzzword) möglichst einfachen Zugang zu den Daten haben – und dies umso mehr an den Stellen, an denen sie Potenzial zu einem echten Mehrwert mitbringen. Das zu ermöglichen, zeigt sich als weiterer Treiber für Data & Analytics-Projekte.

Durch all dies zieht sich der effiziente und nachhaltige Schutz der Daten wie ein roter Faden. Dabei geht es sowohl um alltägliche Dinge wie Zugriffsrechte als auch um heikle Themen, Stichwort Cyber-Kriminalität. Hier stellt der Gesetzgeber teils klare Forderungen. Vor diesem Hintergrund sind deutlich strukturiertere Vorgehensweisen erforderlich, als sie bislang vielerorts praktiziert wurden.

Das gilt ganz speziell für das Umfeld von Data & Analytics, wo aus bloßen Daten wahre Daten­schätze entstehen und zu schützen sind. Gerade in Cloud-Umgebungen muss man genau hinsehen, wo genau und wie die Daten gespeichert werden und wer Zugriff darauf hat.

Datengetriebene Produkte und Services schüren Innovationskraft

Sah es noch vor einem Jahr n ganz anders aus, so werden heute bei uns viel mehr Add-Ons zu den Bestands­produkten, Erweiterungen zu bestehenden Devices oder auch Zusatzservices und Dienstleistungen nachgefragt. Dieser Trend zur Anbindung von Geräten zeigt sich auch im privaten Umfeld, wo sich mittlerweile der Kühlschrank, die Heizung, das Auto und anderes mehr problemlos mit dem Internet verbinden lassen.

Viele Unternehmen wollen darüber ihr bisheriges Business-Modell von Verkaufen auf Vermieten umstellen, um so neuen Marktanforderungen gerecht zu werden. Auch hier entstehen große Mengen an hochwertigen Daten, die in der Analytics-Welt gewinnbringend genutzt werden können. Ein Beispiel von vielen: In unseren Kundenprojekten nehmen wir verstärkt einen Trend zur Produktindividualisierung wahr.

Hierfür stehen die Organisationen jedoch vor der Herausforderung, möglichst genau zu wissen, an welcher Stelle sie mit der Individualisierung ansetzen können und inwieweit dies überhaupt lohnenswert ist. Die notwendigen Daten dafür liefern Data & Analytics.

Technologie wird zum Service

Es zeichnet sich ganz allgemein eine Entwicklung dahingehend ab, dass die technologischen Konzepte, die in den vergangenen zehn bis fünfzehn Jahren gut funktioniert haben, in unseren zunehmend dynamischen Zeiten an ihr Limit stoßen: Aktuelle Herausforderungen erfordern moderne und innovative Methoden und Werkzeuge. Unternehmen müssen daher konkrete Über­legungen über ihre künftige Ausrichtung anstellen.

In diesem Kontext wird Technologie zum Service. So gehen derzeit zwischen 70 und 80 Prozent aller neu begonnenen Projekte von QUNIS in Richtung Cloud-orientierter Nutzung von Services. Die Organisationen bauen nicht mehr inhouse Technologien auf, sondern verwenden teils komplette Softwarelösungen verschiedener Cloud-Anbieter als Managed Services. Dabei wird je nach Anwendungsfall sehr häufig auch auf hybride Architekturen gesetzt, bestehend aus der Kombination von Cloud- und On-Premise-Systemen.

Generell jedoch ist festzustellen, dass Cloud-Architekturen nicht mehr nur auf dem Vormarsch sind, sondern speziell in der Data & Analytics-Welt sogar überwiegen.

Oft nämlich könnten die Unternehmen die angebotenen Services gar nicht eigenständig betreiben, weil ihnen die erforder­lichen Ressourcen und das entsprechende Know-how für die teils sehr komplexen Technologien fehlen. War es beispielsweise in früheren Zeiten noch mit dem Aufbau eines kleinen Data Ware­houses getan, sind heute deutlich mehr Spezialtechnologien notwendig wie etwa Machine-Learning-Algorithmen.

Immer mehr Daten werden in zunehmend mehr Anwendungsfällen verarbeitet. Aufgrund dessen wird eine nochmals verbessere Usability für die Nutzer mit möglichst niedrigen Eintritts­hürden schlichtweg erfolgsentscheidend bei der Anwendung der unterschiedlichen Technologie­produkte.

Hier bewähren sich Business-Glossars und Data Catalogs, mit denen sich die zunehmenden Datenvolumina automatisiert ordnen und vereinheitlichen lassen. Metadaten-Management-Lösungen können dabei helfen, mit den Daten und modellierten Inhalten besser und unkomplizierter zu arbeiten.

Data & Analytics wächst und weitet sich aus

Branchenübergreifend zeigt sich, dass Organisationen fachlich gesehen mit immer heterogeneren Datenformaten umzugehen haben, um daraus ihre Erkenntnisse zu gewinnen. Dazu zählen im Kontext von Data & Analytics beispielsweise Sensordaten und Texte, aber auch Bild- und Audio-Material.

Gleichzeitig werden die Anwendungsfälle tendenziell businesskritischer. Bislang beispielsweise war ein kurzfristiger Ausfall des BI-Systems nicht sonderlich problematisch, weil es nicht direkt relevant für die operative Ebene war, sondern lediglich steuernd und informativ. Heute hingegen greifen wir hierüber in Echtzeit tief in die Prozesse hinein und generieren Erkenntnis­gewinne für die operative Steuerung etwa von Produktions- oder Logistikprozessen oder hinsichtlich der Up- und Cross-Selling-Potenziale von Webshops.

Zudem verzeichnen wir stetig komplexere Self-Service-Anforderungen. Die Nutzer möchten etwa nicht mehr nur schnell ein einfaches Dashboard selbst bauen. Sie fordern vielmehr techno­logische Strukturen, um über den Self-Service-Ansatz beispielsweise Massendaten selbstständig auswerten zu können. Da es ihnen hierbei jedoch an der jahrelangen Erfahrung echter Experten mangelt, entsteht entsprechender Anleitungsbedarf – dabei müssen Standardisierung und Harmoni­sierung natürlich jederzeit gewährleistet bleiben.

Wahl der Plattform wird zweitrangig

Bei der Wahl der Infrastruktur gibt es für Unternehmen verschiedene Optionen: On-Premise, Public Cloud in Form von PaaS und SaaS oder Container-Strategien. Häufig nutzen Unternehmen auch eine Multi-Cloud-Strategie mit mehr als nur einem Hyperscaler. Eine wichtige Rolle spielt hier die Portierbarkeit, damit zu jeder Zeit die Flexibilität erhalten bleibt, den Cloud-Anbieter gegebenenfalls problemlos wechseln zu können. Alternativ entscheiden Organisationen sich von vornherein für eine hybride Lösung aus Cloud und On-Premise.

Nicht zuletzt wird die Rolle von Open-Source-Technologie zunehmend bedeutender. In der klassischen BI-Welt weniger eingesetzt, kommt sie im Umfeld von Streaming, Big Data, Machine Learning sowie bei Prozessen auf Basis von Massendaten jetzt verstärkter zum Einsatz – mit dem Potenzial, den Markt nahezu zu dominieren.

Data Management Units zur Umsetzung Ihrer Datenarchitektur 

Das Thema Architektur und wie sich Architekturen verändern kann man derzeit als klaren Trend am Markt erkennen. In diesem Zusammenhang bieten wir bei QUNIS je nach der Zielsetzung, die Unternehmen mit ihrer jeweiligen Data & Analytics-Strategie verfolgen, sogenannte Data Management Units (DM Units) an. Diese bilden das Herzstück der Datenverarbeitung und -speicherung bei Data & Analytics-Initiativen.

Mit Self-Service-BI, Data Warehouse, Data Warehouse & Data Lake, Lakehouse und Streaming stehen insgesamt fünf DM Units mit einem jeweils unterschiedlichen Leistungsspektrum zur Verfügung.

Welche DM Unit für ein Unternehmen infrage kommt, hängt dabei immer von der Ausrichtung der künftigen Architektur ab. Die Entscheidung darüber sollte stets vorab getroffen werden, weil sich etwa die eher pragmatische Variante Self-Service-BI im Nachhinein nicht so schnell in ein komplexeres Lakehouse umwandeln lässt. Mit verschiedenen Add-Ons lassen sich die zentrale Datenspeicherung und -verarbeitung der DM Units modular um zusätzliche Funktionen erweitern. In jedem Fall notwendig sind Visualization & Reporting, Monitoring und Process Control, hinzu kommen optionale, teils kombinierbare Add-Ons wie beispielsweise für API, Virtualisierung oder Metadaten-Management wählbar.

Ihr Thema ist mit dabei? Sie haben sich und Ihre aktuellen Herausforderungen widererkannt und wünschen sich dafür Beratung und Begleitung von QUNIS und unseren Experten?

Sprechen Sie einfach Ihren QUNIS-Berater*in an oder schreiben Sie direkt eine E-Mail an team@qunis.de und verraten Sie uns ein wenig mehr zu Ihrer Motivation, Ihren Zielen und Vorhaben. Wir freuen uns auf den Austausch und die Diskussion mit Ihnen.

Modern Data Worker: Wer sie sind, wie sie sich unterscheiden, was sie antreibt?

Erstellt am: Montag, 17. Januar 2022 von Monika Düsterhöft

Nicht nur die Menge und Verfügbarkeit von Daten, auch das Thema Datenarbeit und die Aufgaben, die sich drumherum ranken, haben sich in den letzten Jahren rasant verändert und weiterentwickelt.

Zu den Experten und Spezialistinnen für Business Intelligence (BI), die vor allem in den Finance & Controlling-Abteilungen, bei Software-Anbietern und Beratungshäusern zu finden waren und die von jeher das Thema Data Management besetzt hatten, sind mit dem unternehmensweiten Einzug von Digitalisierung, Big Data, Cloud-Services sowie der Demokratisierung von Daten neue Anforderungen und Bedarfe hinzugekommen.

Neue Aufgaben, Rollen und Berufsbilder haben sich herausgebildet und die Data Scientisten, Data Architekten und Data Engineers sind auf der Bildfläche erschienen.

Allen gemein ist zunächst das Interesse an und die Arbeit mit Daten – aber was genau ist ihr Ziel, was macht sie speziell, was macht sie glücklich und mit welchen Technologien und Methoden arbeiten sie? Wie funktionieren sie zusammen und wo unterscheiden sie sich? Nachfolgend haben wir eine kleine Einordnung für Sie zusammengestellt. Diese soll helfen, die verschiedenen Disziplinen der Modern Data Worker ein wenig besser zu verstehen:

1. BI & Data Manager

BI steht für Business Intelligence und das wiederum steht für Geschäftsanalytik. Kurzum: die systematische Analyse von verfügbaren, meist in strukturierter Form vorliegender Unternehmensdaten. Ziel dabei ist es, möglichst optimale Entscheidungen für das Unternehmen treffen zu können bzw. die Entscheidungsprozesse bestmöglich mit Erkenntnissen aus Daten zu unterstützen sowie Geschäftsabläufe, Kunden- und Lieferantenbeziehungen zu verbessern.

Ein BI & Data Manager legt die Grundlage dafür, in dem verschiedenste Datenquellen angebunden und die relevanten Daten in ein Data Warehouse bzw. einen Data Lake integriert werden. Dafür müssen Schnittstellen zu den unterschiedlichen Datenquellsystemen geschaffen, Daten miteinander verknüpft und formatiert sowie schrittweise veredelt werden.

Ein weiterer zentraler Aspekt ist die Umsetzung der übergreifenden Geschäftslogik, damit die Daten am Ende auch in einer einheitlichen und vergleichbaren Form vorliegen. Dies können unterschiedlichste Logiken sein wie z. B. die Historisierung von Daten, Datenqualitätsprüfungen oder eine einheitliche Währungsumrechnung. Ein Data Manager liefert mit dem Aufbau und der Bereitstellung von logischen Datenmodellen das zentrale Fundament für darauf aufbauende Reports, Dashboards oder weiterführende Analysen.

Im Bereich des Information Designs werden die bereitgestellten Daten mit einem geeigneten Frontend-Werkzeug wie beispielsweise Excel, Power BI, Pyramid Analytics oder vergleichbaren Tools visualisiert und je nach Zielgruppe entsprechend aufbereitet. Hier spielt die Art und Weise der Darstellung eine zentrale Rolle, Standards für die Visualisierung und fokussiertes Data Storytelling sind in dieser Disziplin entscheidende Erfolgsfaktoren.

Ein BI & Data Manager liebt Daten und deren Aufbereitung bis zur passenden Visualisierung. In diesen Bereichen fühlt er sich wohl und löst so manche Knobelaufgabe, wenn es darum geht, wie man bestmöglich die Daten für Endanwender, Power User oder Analysten vorbereiten und bereitstellen kann.

2. Data Scientists

Während die BI-Welt auf sauber aufbereiteten, tabellarisch strukturierten Daten fußt, geht es in der Data-Science-Disziplin etwas wilder zu. Hier werden analytische Applikationen entwickelt, indem entsprechende Technologien wie u. a. Machine Learning oder Data-Science-Plattformen eingesetzt werden. Zudem ist ein tiefes Prozessverständnis erforderlich, damit die Anforderungen der Fachanwender an die Analyseergebnisse auch interpretiert werden können.

Vor einem Data Scientist sind auch unaufbereitete, untabellarische, unstrukturierte Daten nicht sicher: Data Scientists werten nicht nur strukturierte Tabellen aus, sondern auch Fotos, Texte, Videos und Sprachnachrichten. Dafür ist es häufig erforderlich, diese heterogenen Datenbestände vor- bzw. aufzubereiten. Um eine grundlegende Struktur in die Daten zu bekommen, nutzen sie mathematische bzw. statistische Algorithmen, Verfahren zum Clustern der Daten und zum Erkennen von Anomalien.

Data Scientists adaptieren die neuesten Verfahren zur Datenauswertung, sie arbeiten in Python und R und bauen dabei vor allem auf die Open-Source-Welt; Docker, Kubernetes, Tensorflow und github sind aus ihrem Arbeitsalltag nicht wegzudenken. Data Scientists arbeiten sehr eng mit Data Engineers zusammen. Diese kümmern sich um die gesamte Dateninfrastruktur, damit die Data Scientists ihre komplizierten Berechnungen und Datenauswertungen realisieren können.

3. Data Architects

Bevor ein Data Engineer die Dateninfrastruktur jedoch erstellen kann, sollte ein Data Architect sie konzipieren. Das kann man sich so vorstellen wie beim Hausbau: Architekten planen hier zunächst, wie ein Haus gebaut oder umgebaut werden soll. Sie berücksichtigen dabei technische, wirtschaftliche, funktionale und gestalterische Aspekte und sind dafür zuständig, dass am Ende alles zusammenpasst und das Haus nicht einstürzt. Data Architects sind ihre Pendants in der IT-Landschaft.

Ein Data Architect ist für die Gesamtarchitektur einer Datenplattform verantwortlich – insbesondere dann, wenn komplexere Strukturen aufgebaut werden müssen. Dazu gehören die Definition und Anwendung von Architekturrichtlinien und Methoden sowie der Aufbau von Leitlinien für die Systemarchitektur und die damit verbundenen Einsatzbereiche von entsprechenden Technologien.

Diese komplexeren Strukturen fangen meist da an, wo die klassische BI-Welt aufhört – wo Big Data anfängt: dort, wo Daten in Echtzeit verarbeitet werden müssen, dort, wo unstrukturierte Daten verarbeitet werden und dort, wo hoch frequentierte Daten in kurzer Zeit verarbeitet werden. Beim Einsatz von Sensoren, die in Sekundenabständen Daten erzeugen, entstehen beispielsweise hochfrequentierte Daten. Müssen diese Daten noch in real-time – also sofort, in Echtzeit verarbeitet werden, dann erhöht sich die Komplexität zusätzlich.

Der Einsatz von Algorithmen oder anderer Analyseverfahren, wie etwa im Data-Science-Bereich, erfordert beispielsweise punktuell sehr hohe Rechenpower über einen begrenzten Zeitraum. Hier kommt dann auch die Infrastruktur mit ins Spiel, die den unterschiedlichen Anforderungen der verschiedenen Disziplinen gerecht werden muss. Die Vielfalt der technologischen Möglichkeiten, insbesondere im Cloud-Umfeld, stellen hohe Anforderungen an die Datenarchitektur. Ein Data Architect stellt sicher, dass die geforderten Anwendungsszenarien mit der angedachten Architektur und den dafür vorgesehenen Technologien umgesetzt werden können.

4. Data Engineers

Ein Data Engineer ist ein Spezialist für Datenmanagement insbesondere im Big-Data-Umfeld. Seine Arbeit umfasst die Konzeption und Implementierung von Datenintegrations- und Transformationsprozessen zur Unterstützung datengetriebener Use Cases und Data-Science-Projekte, damit eine bestmögliche Datenvorbereitung ermöglicht wird. In diesem Zusammenhang legen Data Engineers den Fokus auf die Entwicklung von analyseoptimierten Datenarchitekturen.

Data Engineers und Data Scientists arbeiten oft eng zusammen, wobei der Fokus des Data Engineers darauf liegt, Daten aus unterschiedlichsten Quellen und Formaten aufzubereiten, zu organisieren und die erforderlichen Datenpipelines aufzubauen sowie diese zu betreiben. Data Engineers arbeiten somit an der Schnittstelle zwischen Infrastruktur und Datenmanagement, überwachen Datenquellen und steuern Integrationsprozesse sowie die Instanzen, die für die Analyse und Weiterverwendung der generierten Daten zuständig sind.

In dem Sinne ist ein Data Engineer für alle Prozesse rund um das Generieren, Speichern, Pflegen, Aufbereiten, Anreichern und Weitergeben von Daten verantwortlich. Zudem ist für einen Data Engineer von hoher Bedeutung, dass die bereitgestellten Lösungen performant laufen und kontinuierlich optimiert werden. Über ein entsprechendes Monitoring hat ein Data Engineer alles im Blick.

Eng verknüpft mit Big Data, ist die Disziplin des Data Engineering noch vergleichsweise jung und stetig in der Weiterentwicklung. Data Engineers müssen sich daher stets am technischen Fortschritt orientieren, um der Entwicklung nicht hinterherzuhängen und sich in neue Frameworks, Konzepte und Technologien einarbeiten.

Mit Strategie, Roadmap, klaren Visualisierungskonzepten sowie der bewussten Verankerung in der Organisation ans Ziel

Damit datengetriebene Lösungen entstehen und nachhaltig funktionieren, sind weitere Rollen und Disziplinen gefordert und arbeiten mit den Modern Data Workern Hand in Hand. Gerne erzählen wir Ihnen auch dazu mehr. Sprechen Sie einfach Ihren QUNIS-Berater*in an oder schreiben Sie direkt eine E-Mail an team@qunis.de und verraten Sie uns ein wenig mehr zu Ihrer Motivation, Ihren Zielen und Vorhaben. Wir freuen uns auf den Austausch mit Ihnen.

Neues Start-up ergänzt das QUNIS-Firmennetzwerk

Erstellt am: Mittwoch, 24. November 2021 von Monika Düsterhöft

Sein Name ist TEQWERK – sein Programm ist Cloud Computing

TEQWERK, von Hermann Hebben und Steffen Vierkorn gemeinsam mit Christopher Heid gegründet, ergänzt das Netzwerk rund um QUNIS ab sofort mit einem auf Cloud Computing fokussierten Expertenhaus. Für Christopher Heid, der zuvor als Cloud Solution Architect bei QUNIS tätig war und dort vor allem das Cloud-Infrastruktur-Geschäftsfeld mit entwickelt und aufgebaut hat, erfüllt sich mit TEQWERK ein Traum und die Vision, Cloud Computing nicht als Nische, sondern als Gesamtauftrag zu leben.

 Ich bin davon überzeugt, dass die Cloud mehr kann, als sie momentan in vielen Unternehmen darf. Denn die Cloud ist das Fundament für die Digitalisierung von Unternehmensprozessen und Produkten. Bei richtigem Einsatz erhöht sie – entgegen weit verbreiteter Gerüchte – die Sicherheit und den Datenschutz und kann gleichzeitig zu signifikanten Kosteneinsparungen führen. 

Christoper Heid,
bekennender Cloud-Native-Verfechter
und Geschäftsführer von TEQWERK


Vom Mittelständler bis hin zum Konzern: TEQWERK begleitet Unternehmen auf ihrer Reise in eine moderne IT-Infrastruktur

Vom kurzfristigen Helfer bis zur langfristigen Cloud-Strategie, der Applikationsmigration und dem digitalen Arbeitsplatz, sprich Lösungen für eine digitale und vernetzte Zusammenarbeit innerhalb des Unternehmens: Das TEQWERK-Team unterstützt seine Kunden ganzheitlich bei allen Cloud-Initiativen unter anderem mit folgenden Services:

  • Cloud-Strategie-Entwicklung unter Einbezug aller relevanten, technischen und organisatorischen Aspekte.
  • Cloud-native-Lösungen für bestehende und neue Anwendungen.
  • Effektiver Schutz vor Cyber-Angriffen mit Zero Trust und künstlicher Intelligenz.
  • Digitale Arbeitsplätze aus der Cloud für ein modernes und vernetztes Arbeiten.
  • Training & Coaching für langfristige Projekterfolge und die Verankerung des Betriebsmodells in der Organisation.
  • Managed-Cloud-Lösungen für maximalen Komfort und bestmögliche Sicherheit zu kalkulierbaren Kosten.

 

Konkrete Unterstützung für ganzheitliche Cloud-Initiativen

Viele Unternehmen sind die letzten Jahre mehr oder weniger planlos in die Cloud gestartet. Dadurch sind oftmals Insellösungen mit verschiedensten Zugängen und ohne standardisierte Sicherheitsrichtlinien oder Transparenz über die Datenspeicherorte entstanden. Die Lösungen skalieren entgegen der Erwartung nicht und sind verwaltungstechnisch oftmals ein Chaos. Anstelle weniger ist die Verwaltung sogar oftmals aufwändiger geworden. TEQWERK fängt diese Inseln basierend auf seinem Cloud Adoption Framework ein und etabliert ein Cloud-Betriebsmodell. So kann die Cloud ihre Stärken entwickeln und wirklich Spaß machen.

Oftmals können IT-Organisationen auch einfach mit ihrer On-Premise-Welt nicht mit der Geschwindigkeit mithalten, die die Fachbereiche fordern. In der Folge wird die Enterprise-IT per Kreditkarte umgangen und der Fachbereich bezieht seine Cloud-Dienste selbst. TEQWERK setzt hier ein den Bedürfnissen entsprechendes Cloud-Fundament auf und coacht IT-Organisation Schritt für Schritt in die Cloud.

Zudem wird in den Unternehmen nicht selten schwarz-weiß gedacht: Entweder die Cloud ist toll oder schrecklich, dazwischen gibt es häufig nicht viel. TEQWERK entwickelt mit seinen Kunden eine Cloud-Strategie, die den individuellen Anforderungen Rechnung trägt, damit sich für vertrauenswürdige Anbieter die Tür öffnet und unsichere Cloud-Angebote ausgeschlossen werden können.

Unternehmen, die sich der Cloud in Gänze verschließen, schneiden sich damit auch den Zugang zu Innovationen ab. Mit dem Cloud Discovery Workshop zeigt TEQWERK auf, welches Potenzial in der Cloud schlummert und wie ein Wandel von No-Cloud zu Cloud-ready gelingen kann.

Welcher Hyperscaler, ob Amazon, Google oder Microsoft, schlussendlich zum Einsatz kommt, ist für den Projekterfolg nicht entscheidend

Für eine erfolgreiche Cloud-Initiative stehen bei TEQWERK die sonst leider noch viel zu oft außen vor gelassenen Fragestellungen zu Nutzen, Aufwand und Zielen an erster Stelle. Hat man hier ein klares Bild entwickelt, wird die zweite Stufe gezündet und die operative Cloud-Journey mit TEQWERK gestartet. Basis dafür bilden Blueprints, erprobte Cloud-Architekturen sowie Best-Practises im Umgang mit der Cloud. Das Ziel ist die Schaffung einer werthaltigen Lösung, damit IT-Organisationen das Cloud-Potenzial erkennen und nachhaltig für ihr Unternehmen heben.

Lust auf mehr Cloud?

Mehr zu TEQWERK, den  Angeboten und Kompetenzen finden Sie auf der TEQWERK HOMEPAGE

Fachkonzeption… muss das sein?

Erstellt am: Mittwoch, 7. April 2021 von Monika Düsterhöft

Die Vielfalt an technischen Möglichkeiten sowie das Streben nach pragmatisch schnellen Ergebnissen verleiten gerne dazu, die Fachkonzeption zu vergessen. Sollten Sie aber nicht!

Bei der Umsetzung von Data & Analytics-Projekten befinden sich Organisationen häufig im Spannungsfeld zwischen einerseits einer hohen Erwartungshaltung der potenziellen Anwender, geweckt durch die Vielzahl an technischen Möglichkeiten und der Leistungsfähigkeit am Markt erhältlicher Produkte, und andererseits dem eigenen Bestreben, Projekte schnell zum Erfolg zu führen.

Die erfolgsentscheidende fachliche Konzeption und Definition der umzusetzenden Anforderungen kommt dabei oftmals zu kurz und Lösungen werden zu pragmatisch realisiert. Damit die wichtige Phase der fachlichen Konzeption nicht unter den Tisch und ihr Fehlen Ihnen nachträglich vor die Füße fällt, habe ich für Sie, basierend auf unserer Projekterfahrung, eine Liste mit hilfreichen Hinweisen zusammengestellt.

Die folgenden acht Punkte geben Ihnen eine Orientierung, wie Sie beim Erstellen einer Fachkonzeption vorgehen und auf was Sie achten sollten.

1. Anwendungsfälle nutzenorientiert definieren

Anwendungsfälle benötigen eine strukturierte Beschreibung und klare Zielsetzung. Neben einer fachlichen Beschreibung der fachlichen Anforderungen, den Voraussetzungen für die Umsetzung sowie die benötigten Daten und deren Herkunft, müssen vor allem die Ziele inklusive der damit verbundenen Nutzenfaktoren beschrieben sein und diesen die erwarteten Aufwände gegenübergestellt werden.

Somit wird die Priorisierung von Use Cases erheblich unterstützt bzw. erleichtert sowie die Basis geschaffen für eine spätere Analyse der Nachhaltigkeit bzw. des tatsächlich erreichten Business Nutzens.

2. Umfang von Anwendungsfällen für Data & Analytics festlegen

Eine Zielrichtung für Data & Analytics-Initiativen ist essenziell, um wichtige Basisparameter und Fragestellung für das Projekt zu definieren. Von daher sollten die geplanten Einsatzbereiche und angestrebten Lösungen abgesteckt, grob priorisiert und auf einer Roadmap festgehalten werden.

3. Zentrale Themen ganzheitlich betrachten

Beim Aufbau einer Data & Analytics-Landschaft und der Umsetzung der verschiedenen Szenarien gibt es übergreifende Themengebiete mit zentraler Bedeutung, die einheitlich und zu Beginn des ersten Anwendungsfalles für alle weiteren mit definiert werden sollten.

Dazu zählen unter anderem:

  • Infrastrukturfragestellungen
  • Security- und Zugriffskonzepte
  • Anforderungen an die Datenharmonisierung
  • Datenqualität und -hoheit in Abstimmung mit den Quellsystemen

4. Mit kleinen Schritten starten

Erste Anwendungsfälle sollten keinesfalls zu groß dimensioniert werden. Gerade für den Einstieg in Data & Analytics-Projekte ist es wichtig, Pilotprojekte überschaubar zu definieren, damit Ergebnisse und damit verbundene Erfolge sichtbar bzw. Nutzenvorteile in der Organisation spürbar werden. Nicht zu unterschätzen ist neben den ersten spürbaren Ergebnissen auch eine Lernkurve, die das gesamte involvierte Team durchschreitet.

5. Fachliche Feinkonzeption bildet das stabile Fundament

Sobald die Roadmap für Anwendungsfälle festgelegt ist, müssen die zuerst priorisierten fachlich im Detail spezifiziert werden. Hier sollte immer von den Anforderungen der Anwender ausgegangen werden. Dies kann z.B. bei einem Reporting Use Case die Visualisierung der Daten, Definition von Kennzahlen und deren Berechnung, benötigte Dimensionen sowie das zugrunde legende fachliche Datenmodell sein.

Diese fachlichen Anforderungen gilt es dann in ein technisches Konzept für die Realisierung zu transformieren und die erforderlichen Rahmenparameter für die Implementierung festzulegen, der ein zentrales technisches Datenmodell mit einer Anbindung der notwendigen Quellsysteme zugrunde liegt.

6. Aufwände realistisch und verlässlich abschätzen

Auf Basis der Feinkonzeption kann eine valide und möglichst realitätsnahe Schätzung der Aufwände für die Implementierung erfolgen. Somit kann abschließend bewertet werden, wie viel Aufwand erforderlich ist, um den gegenüberstehenden Business-Nutzen zu erzielen.

7. Management Freigabe einholen

Für die umzusetzenden Use Cases sollte neben der Roadmap auch eine Freigabe der Budgets für die geplanten Anwendungsfällen durch das verantwortliche Management erfolgen.

8. Data & Analytics-Projekte effizient steuern

Um eine möglichst effiziente und zielgerichtete Projektsteuerung zu erreichen, sollten für die verschiedenen Projektphasen die am besten geeigneten Methoden angewendet werden.

  • Die Erfahrung zeigt, dass Best Practices für Analytics-Projekte eine Verzahnung von klassischen und agilen Methoden erfordern.
  • Übergreifende Themen wie beispielsweise die Definition einer Strategie und Roadmap, Konzeption und Priorisierung der Umsetzungsplanung werden eher klassisch gesteuert.
  • Die technische Umsetzung erfordert agile Methoden. Spezifizierte Anwendungsfälle werden gemäß der Umsetzungsplanung in die agile Projektsteuerung übergeben und dann iterativ umgesetzt.

Zusammenfassend kann man festhalten, dass neben einer strategischen Planung und Ausrichtung einer Data & Analytics-Initiative die Aufteilung des Gesamtvorhabens in einzelne Anwendungsfälle und deren Konzeption erfolgsentscheidend ist, ohne das große Ganze aus dem Blick zu verlieren und einen stetigen Projektfortschritt und damit verbundene Erfolge zu erreichen.

Mein Tipp: Gerne informiere ich Sie, wie wir diese acht Schritte gemeinsam mit Ihnen gehen. Sprechen Sie mich einfach an. Sie finden mich auf LinkedIn oder schreiben Sie mir hier, ich melde mich gerne bei Ihnen. KONTAKT

Will man mit der Digitalisierung erfolgreich sein, braucht es dringend ein Datenmanagement-Konzept!

Erstellt am: Donnerstag, 21. Januar 2021 von Monika Düsterhöft

An Datenmanagement denken heißt Digitalisierung lenken

Geschäftsmodelle werden vermehrt datengetrieben. Dies bedeutet nicht zuletzt, dass Daten zu einer bedeutenden Ressource in Unternehmen werden. Um mit Daten aber nun effizient und strukturiert umzugehen benötigt es dringend ein Datenmanagement.

Die Teilnehmer von the factlights 2020, der größte Online-Erhebung zur Realität von Digitalisierung und Datenarbeit im deutschsprachigen Raum bestätigen dies. Sie sehen in mangelnder Datenqualität und fehlendem harmonisierten Datenbestand eine der größten Hauptherausforderung, um den neuen Anforderungen gerecht zu werden (vgl. Studien-PDF S. 25). Zudem bestätigen sie, ein einheitlicher Datenbestand entscheidungsrelevanter Daten ist essenziell, sei eine der fünf wichtigsten Erkenntnisse der Digitalisierung für sie (vgl. Studien-PDF S. 31).

Hier also vier Aspekte, die Sie im  Zuge der Digitalisierung und speziell im Hinblick auf das Thema Datenmanagement, im Auge behalten sollten:

 1. Daten sind ein wertvolles Asset

Heutige Anforderungen verlangen vermehrt eine Cross-funktionale Denke und das Bewusstsein, speziell mit Daten ein wertvolles Gut für interne und externe Zwecke zu besitzen. Trotz dieses Trends sehen zahlreiche Unternehmen Daten immer noch nicht als ein zentral zu organisierendes Asset an. Sie agieren vielmehr eher projektgetrieben und teilweise auch sehr unorganisiert.

Zudem betrachten sie den Einsatz von Daten oftmals weniger unter dem Aspekt des Nutzenpotenzials und dessen Zuordnung, noch denken sie konkret an eine nachhaltige Verankerung der Datenerzeugung und Datennutzung in der Organisation. Folgende zwei essentielle Fragen sollten in diesem Zusammenhang also immer und standardmäßig erörtert werden:

  • Worauf genau zahlt die Nutzung der Daten ein? Geht es Organisationen primär darum Kosten zu sparen, will man die Qualität bestehender Produkte verbessern, will man Risiken minimieren, Umsatz steigern oder gar Effizienz erhöhen.
  • Wie ist der Aufbau einer funktionierende Data Governance zu realisieren, die entsprechende Ziele, im Rahmen der Datennutzung unterstützt und Risiken minimiert? Konkret geht es hier um Klärung und Zuordnung von Verantwortlichkeiten samt entsprechender Rollen, Vorschriften und Zyklen.

2. Daten(quellen) werden immer heterogen bleiben

Die Herausforderungen für Data & Analytics-Vorhaben sind häufig die heterogenen und nicht harmonisierten Datentöpfe und Systeme. Vielerorts trifft man diesbezüglich auf das Phänomen des „Hoffens auf ein Wunder“, dass alles wie von Zauberhand und vielleicht sogar durch die Einführung des nächsten Systems sauber werden möge.

Ein solches Wunder ist jedoch nicht zu erwarten, da die Datenbestände heterogen bleiben. Hinzu kommen die um sich greifenden Cloud-Lösungen, die die Heterogenität noch forcieren. Gerade weil der Idealzustand aber nie erreicht werden kann, sind schlüssige Konzepte für die Bewertung der notwendigen Datenqualität dringend gefragt.

3. Priorisierung der Datenharmonisierung

Unternehmen sind häufig bestrebt, prozessübergreifend valide und gesicherte Datenbestände aufzubauen. Harmonisieren und Integrieren lautet zumeist die dafür ausgegebene Zielsetzung. Und genau hier fängt oftmals ein nie enden wollendes Projekt an. Denn was gern verkannt wird ist, dass sich die datenorientierten Anforderungen in der Regel nicht auf eine Abteilung oder einen Unternehmensbereich begrenzen lassen – Data does not follow the process.

Die Datenentstehung und deren Nutzung entsprechen sehr häufig nicht der klassischen Linienorganisation. Daten entstehen nicht nur an einer Stelle oder entlang eines Prozesses, denn sie werden Abteilungs- und Bereichs-spezifisch angereichert und ergänzt. Schlussendlich sollen sie aber dennoch an unterschiedlichsten Stellen und in verschiedensten Sichten und Prozessübergängen bereitgestellt und ausgewertet werden können.

4. Analytics-Kompetenz ist unterbesetzt

Die zunehmende Bedeutung von Daten erfordert immer mehr Know-how in der Datenarbeit. Erfahrungsgemäß ist diese Analytics-Kompetenz aber in vielen Unternehmen unterbesetzt. Man kann sogar sagen, viele Organisationen verfügen über absolut unzureichende Ressourcen und Skills. Und auch der Arbeitsmarkt gibt nicht genügend Experten her, so dass man mit Personalaufbau dem entgegenwirken könnte. Angesichts dieses personellen Nadelöhrs liegt eine Lösung darin, die vorhandenen Ressourcen und Skills bestmöglich zu unterstützen.

Der Aufbau eines sehr gut strukturierten Datenmanagements mit entsprechenden Architekturen kann dabei helfen. Denn es ermöglicht Anwendern, sich mit Analytics auseinanderzusetzen, ohne mit der Komplexität des darunterliegenden Datenmanagements konfrontiert zu werden. Gerade auch dem Metadatenmanagement kommt hier ein hoher Stellenwert zu.

Unser Tipp: Diese und weitere Empfehlungen sowie Daten, Fakten, Branchenspecials und alle Ergebnisse der größten Online Erhebung zur Realität von Digitalisierung und Datenmanagement im deutschsprachigen Raum finden Sie in den Studienergebnissen von the factlights 2020.

Holen Sie sich hier direkt Ihr kostenfreies, persönliches Exemplar THE FACTLIGHTS 2020

Dentsu: Zentrales Data Warehouse für Controlling und systemübergreifende Analytics, Data Enrichment und Datenkonsolidierung für automatisiertes Reporting

Erstellt am: Donnerstag, 21. Januar 2021 von Monika Düsterhöft

Die deutsche Tochtergesellschaft der international agierenden Medienagentur-Gruppe dentsu hat ihre heterogenen Datensilos in ein zentrales Financial Data Warehouse überführt. Damit können betriebswirtschaftliche Reports, Analysen, Planungen und Forecasts auf der einheitlichen Basis eines Single Point of Truth entstehen. Mithilfe seiner neuen BI-Lösung generiert dentsu Germany seine entscheidungsrelevanten Daten deutlich schneller und aktueller, aber auch zuverlässiger und sicherer.

Früher galt: heute gebaut und morgen veraltet. Das sollte dringend geändert werden. Erklärtes Ziel war eine übergreifende Datenbasis, die mehrfach täglich aktualisiert wird. Dies sollte eine deutschlandweit systemübergreifende Auswertbarkeit und Analysefähigkeit aller steuerungsrelevanten Finanzdaten ermöglichen.


Patrick Sura,
Director Business Intelligence DACH bei
Dentsu

Datengetriebenes Geschäftsmodell

Die Medienagentur-Gruppe dentsu International wurde 1901 in Japan gegründet. Fokussiert auf die Geschäftsbereiche Media, CRM und Creative bedient das weltumspannende Netzwerk mit seinen 66.000 Mitarbeitenden rund 11.000 Kunden in 143 Ländern. dentsu Germany zählt hierzulande zu den größten fünf Agenturen für Kommunikations- und Mediaberatung. Die 1.500 Beschäftigten verteilen sich auf den Firmensitz in Frankfurt am Main und weitere Standorte in Augsburg, Düsseldorf, Hamburg und München.

In der Media-Branche nehmen Daten ganz generell einen hohen Stellenwert ein. Sie lassen Vorhersagen zu über das Zielgruppenverhalten, um mit möglichst geringen Streuverlusten werben zu können. Zudem sind sie solide Basis für Mediapläne mit zu platzierenden Schaltungen, die das Kundenbudget optimal einsetzen. Datengetrieben sind bei dentsu Germany aber auch die betriebswirtschaftlichen Belange zur Steuerung der vernetzten Agenturen. Nur auf der Grundlage homogener Daten nämlich lassen sich valide Entscheidungen treffen, um das Unternehmen sicher auf Kurs zu halten und den eingeschlagenen Wachstumspfad weiter zu beschreiten.

Diesen Ansprüchen konnte jedoch die bisherige Vorgehensweise nicht mehr gerecht werden. „Jeder hatte mehr oder weniger Zugang zu vereinzelten Datentöpfen und baute sich seine Berichte bei Bedarf in Excel selbst zusammen“, blickt Patrick Sura zurück. „Weil es keinen Single Point of Truth gab, musste man in den Meetings zuerst zeitraubend klären, wer die richtigen Zahlen hat, bevor es an die strategischen Auswertungen gehen konnte.“ Vor diesem Hintergrund traf dentsu Germany die Entscheidung zum Aufbau eines Financial Data Warehouse.

Erfahrenen Projektleiter gewonnen

Hierfür wurde eigens eine neue Stelle geschaffen und 2017 mit Patrick Sura besetzt. Der aus Speyer stammende Diplom- Betriebswirt (FH) ist langjähriger Branchenkenner und hatte als Finance-Controller einschlägige Data-Warehouse-Projekte erfolgreich umgesetzt.

Damals wie heute war QUNIS präferierter Projektpartner. „Ich hatte auf einer Fortbildungsveranstaltung der controller akademie einen der Geschäftsführer kennen gelernt, der dort einen Vortrag hielt“, erinnert sich Patrick Sura an sein Treffen mit Hermann Hebben, das zum ersten gemeinsamen Data-Warehouse-Projekt führte.

Financial Data Warehouse als Single Point of Truth

Die IT-Infrastruktur von dentsu ist nur in geringem Maße global organisiert. Größtenteils unterhalten die Tochtergesellschaften in den Ländern lokale Systeme etwa für ERP (Enterprise Resource Planning), Datenhaltung und Controlling. Beim Antritt fand Patrick Sura rudimentäre BI-Strukturen vor, erste Ansätze über SAP BW waren ins Leere gelaufen.

Gemeinsam mit QUNIS startete er das Projekt zum Aufbau eines Financial Data Warehouse. Die bislang dezentral gehaltenen Finance-Daten sollten zusammengeführt werden für Verknüpfungen, um allgemeingültige Kennzahlen für ein flexibles Controlling zu gewinnen. Beim Aufbau auf technologischer Basis des Microsoft SQL Servers wurde die QUNIS Automation Engine eingesetzt – „mit immensen Vorteilen hinsichtlich Automatisierung und Standardisierung“, wie Patrick Sura betont. So erfolgte die Datenbankentwicklung weitestgehend automatisiert, genauso der komplette ELT (Extract, Load, Transform)-Prozess aus Vorsystemen wie SAP/R3, SAP BW und ein Mediasystem auf ORACLE-Basis.

„Die QUNIS Automation Engine führt auf einer komfortablen Web-Oberfläche durch die einzelnen Schritte. Man designt mit Metadaten und erhält den Quellcode des Data Warehouse, ohne nur eine Zeile dafür händisch geschrieben zu haben.“ Das geht viel schneller und minimiert die Fehlerpotenziale, unterstreicht der Projektleiter und ergänzt: „Der Engine-Logik folgend, wird stets nach dem gleichen Prinzip vorgegangen. Das macht das Ergebnis personenunabhängig und besser nachvollziehbar. Dadurch lassen sich auch spätere Anpassungen in allen relevanten Teilbereichen viel effizienter abbilden.“

Data Enrichment und Datenkonsolidierung

Schon in früher Projektphase wurde deutlich, dass die Stammdaten vor der Übernahme ins Data Warehouse zur Steigerung der Qualität überarbeitet und angereichert werden müssten. Hierfür griff Patrick Sura mit GAPTEQ auf eine „willkommene Alternative zum mühsamen und fehleranfälligen Weg via Excel“ zurück. Bei GAPTEQ handelt es sich um eine Low-Code-Technologie zur Realisierung von Oberflächen für SQL-Datenbanken. Das Einsatzspektrum reicht vom einfachen Web- Formular bis hin zur komplexen Business- Applikation – mit wenig Aufwand per Drag & Drop, smart und sehr schnell, wie sich im Projektverlauf bestätigte.

Top-aktuelle Analysen und Berichte auf Abruf

Nachts und mehrfach im Tagesverlauf werden die Daten im Data Warehouse automatisiert in den Analysis Services bereitgestellt, wo alle KPI (Key Performance Indicators) und Regeln hinterlegt sind. Wer die entsprechenden Power-BI-Dashboards und -Berichte zur Auswertung bereitgestellt bekommt, definiert ein ebenfalls mithilfe von GAPTEQ integriertes Security-Konzept. Nach erfolgtem Kickoff Ende 2018 und Beginn der Arbeiten Anfang 2019 konnten so bereits Ende Juli 2019 die ersten Reports mit der neuen BI-Lösung erstellt werden. Mittlerweile ist jeder Bericht an die Datenquellen des Data Warehouse angeschlossen, so dass Aktualisierungen jederzeit abgerufen und in derselben Ansicht dargestellt werden können.

Maßgeschneiderte Business-Applikationen

Data Enrichment und Security-Konzept ließen das Management erkennen, wie hoch die Potenziale von GAPTEQ sind: „Schier grenzenlos einsetzbar und mit unglaublich schnellen Ergebnissen – eine klassische Programmierung wäre x-fach teurer und langwieriger“, so Patrick Sura. Vor diesem Hintergrund sollten mit Applikationen wie der Target-App und den OPEX Forecasts zwei Business-Applikationen folgen.

  • Über die Target-App werden abgeleitet von der Gesamtplanung die jeweiligen Ziele für das Agenturen-Management in vier verschiedenen Kategorien festgelegt. In GAPTEQ sehen die Manager die vereinbarten Targets kombiniert mit den Ist-Zahlen aus dem Data Warehouse. Das zeigt, was schon erreicht wurde und noch zu tun ist. Sie können die Werte auch fortschreiben und per Knopfdruck sofort sichtbar aktualisieren. Nicht zuletzt dank der QAE und dem einhergehenden betont sauberen Datenmodell, auf dessen Basis die Target- App aufsetzt, hat die Einrichtung gerade mal drei Wochen benötigt.
  • Die OPEX-Forecasts über die Ausgaben für den operativen Geschäftsbetrieb waren nach nur sechs Wochen Projektzeit umgesetzt. GuV-Forecast auf Kontoebene, jeden Monat die Ist-Zahlen anschauen und bis zum Jahresende forecasten, dabei die Budgets abstimmen: Was ehedem mühsam und mit allen Nachteilen per Excel zu erledigen war, geht nun vollständig integriert vonstatten. Dank Security-Konzept können zudem die Ressortleiter zu Controlling-Zwecken auf relevante Kostenstellen zugreifen.

„Wir sammeln die Planzahlen je Kostenstelle von den Verantwortlichen ein und konsolidieren sie direkt auf dem Server mit dem einheitlichen Datenmodell“, erklärt Patrick Sura. „Somit können wir, wenn die Ist-Zahlen des Monats vorliegen, im Nachgang einen Plan-Ist-Vergleich ziehen.“ Als Sahnestückchen hat er auch noch den Drill-Through auf Belegebene integriert. So haben die berechtigten User die Möglichkeit, alle Buchungen zurückzuverfolgen und sich die dazugehörenden Detailinformationen anzeigen zu lassen.

Ergebnisse und Ausblick

Unterstützt von QUNIS hat dentsu Germany mit dem Financial Data Warehouse grundlegende Strukturen für ein schlagkräftiges Controlling geschaffen. In einem fließenden Prozess sind unter sukzessiver Einbeziehung der GAPTEQ-Technologie eine Security- Konzeption und mehrere Business-Applikationen entstanden. Diese ermöglichen eine sichere betriebswirtschaftliche Steuerung des Agenturnetzwerks von den Abteilungs- und Standortleitern über die Geschäftsführer der Agenturen bis hin zum Top-Management mit CFO und CEO.

„Wir generieren heute über Nacht und mehrmals täglich, was früher nur ein Mal im Monat möglich war. Um diesen hohen Grad der Automatisierung und Digitalisierung in unserer Berichterstattung zu erreichen, hätte man mich als Controller mit Faktor 50 klonen müssen. Dabei sind die Anwendungen denkbar einfach gehalten und erfordern keinerlei Schulungen: Wer ein iPhone bedienen kann, kriegt auch das hin“, resümiert Patrick Sura.

Bereits für 2021 ist jetzt das Ausrollen des Gesamtsystems auf die DACH-Region geplant.

Mehr zu dentsu: Dentsu international ist Teil von dentsu und besteht aus weltweit führenden Marken – Carat, dentsu X, iProspect, Isobar, dentsumcgarrybowen, Merkle, MKTG, Vizeum, Posterscope und seinen weiteren spezialisierten Agenturmarken. Dentsu International unterstützt seine Kunden, die Beziehungen zu ihren Konsumenten auszubauen und einen nachhaltigen Fortschritt für ihr Unternehmen zu erzielen. Mit exzellenten Dienstleistungen und Lösungen in den Bereichen Media, CXM und Creative ist dentsu international in über 145 Märkten weltweit mit mehr als 48.000 engagierten Spezialisten tätig. In Deutschland bietet dentsu mit seinem Agenturportfolio die komplette Wertschöpfungskette der Marketing Services an und ist präsent an den Standorten Frankfurt, Hamburg, Düsseldorf, Augsburg und München.

the factlights 2020 Studienergebnisse

Erstellt am: Freitag, 18. Dezember 2020 von Monika Düsterhöft

Die Zukunft gehört den Data Driven Companies – wo stehen Sie?

Die aktuelle Studie the factlights 2020 zeigt, wie sich Unternehmen im deutschsprachigen Raum der Digitalisierung stellen, welche Herausforderungen bestehen und welche Erkenntnisse sich daraus ergeben.

Adopter, Discoverer und Frontrunner: drei Unternehmenstypen kristallisieren sich beim digitalen Reifegrad heraus.

Von März bis Mitte Juni 2020 fand eine großangelegte Online-Erhebung mit über 1.000 Unternehmen aus dem deutschsprachigen Raum statt. Befragt wurden Mitarbeiter und Leitungsebene aus allen Branchen und Unternehmensbereichen. 671 Fragebögen (=n) wurden vollständig ausgefüllt und konnten ausgewertet werden.

Das Unternehmen jedes Befragten wurde basierend auf einem Scoring-Modell dem Grad der Digitalisierung von 0 (keine Anstrengungen) bis 3 (maximaler Fokus auf Digitalisierung) zugeordnet. Im Ergebnis haben sich drei Cluster mit unterschiedlichen Reifegraden herausgebildet. Das Cluster zwischen 0 bis 1,3 – die Adopter, das Cluster größer 1,3 bis 1,9 – die Discoverer und das Cluster mit einem Reifegrad über 1,9 bis 3 – die Frontrunner. Mit 51% ist die Masse der Umfrageteilnehmer in einem Unternehmen tätig, dass den Discoverern zugeordnet ist; 24% gehören zu den Frontrunnern und 25% sind den Adoptern zuzuordnen.

Chancen der Digitalisierung werden von Adoptern, Discoverern und Frontrunnern unterschiedlich bewertet

Adopter sehen die Hauptpotenziale vorrangig in den internen Prozessen. So beziehen sich deren Fokusthemen beispielsweise auf eine höhere Prozesseffizienz oder eine verbesserte Unternehmenssteuerung.

Frontrunner scheinen interne Hürden bereits überwunden zu haben und widmen sich vermehrt der Realisierung komplexerer Chancen. Dazu zählen der Aufbau neuer digitaler Geschäftsmodelle sowie Initiativen zur Umsatzsteigerung oder Produktindividualisierung.

Discoverer zeigen in ihrer Chancenwahrnehmung, dass sie sich inmitten des digitalen Transformationsprozesses zwischen Frontrunner und Adopter befinden. In ihrem Fokus liegen bereits vermehrt komplexere Aspekte wie beispielsweise digitale Geschäftsmodelle, aber auch intern gerichtete Themen wie die Prozesseffizienz oder eine verbesserte Unternehmenssteuerung haben noch ein großes Gewicht.

Veränderungen bei Produkten und Dienstleistungen korrelieren mit dem Digitalisierungsgrad

Produkte und Dienstleistungen verändern sich durch die technologischen Einflüsse der Digitalisierung! Diese Veränderung ist branchenübergreifend zu erkennen. Hinsichtlich der Digitalisierungscluster stechen besonders die Frontrunner und Discoverer als Vorreiter heraus.

Wie stark die technologischen Einflüsse die Produkte und Dienstleistungen bisher verändert haben, hängt durchaus mit dem Digitalisierungsgrad zusammen. Die Veränderungen sind umso größer, je höher der Digitalisierungsgrad ist. Während unter den Adoptern nur 40% von Produkt- und Dienstleistungsänderungen im Rahmen der Digitalisierung berichten, sind es bei den Discoverern bereits 84% und unter den Frontrunnern sogar 99%.

Smarte Zusatzservices sind allgegenwertig! Betrachtet man alle Befragten, bei denen die Digitalisierung zu Veränderungen von Produkten und Dienstleistungen geführt hat, dann geben durchschnittlich 76% an, dass ihr Unternehmen smarte Zusatzservices bereits etabliert hat. Digitalisierung birgt das Potenzial Produktlebenszyklen zu verkürzen! Bei der Umsetzung sind die Unternehmen jedoch noch etwas verhaltener. Mit positivem Beispiel gehen die Frontrunner voran, hier werden im Vergleich zu den Adoptern und Discoverern die Produktlebenszyklen mehr als doppelt so häufig verkürzt.

Der Bedarf nach einer geeigneten Datenwelt, einer strategischen Ausrichtung und Organisation sowie einem dazu passenden Mindset sind allen gemein.

Die Datennutzung verändert sich – Single Point of Truth und Freiheitsgrade sind gleichermaßen gefordert! Daten werden zunehmend demokratisiert – sie kommen unternehmensweit und in den unterschiedlichsten Bereichen zum Einsatz. Dies gilt auch für erweiterte Analysemethoden, die längst nicht mehr nur im Controlling ihren Einsatz finden.

Der Wert qualitativer Daten wird zumeist erkannt und verschiedene Branchen nutzen verschiedene Datenquellen (von interner Software und Applikationen über Hardware Devices, externe Daten bis hin zu Informationen aus sozialen Netzwerken) bereits mehr oder weniger intensiv. Für die effiziente Nutzung von Analytics gilt es jedoch noch einige Voraussetzungen zu schaffen. Ein durchgängiges Datenmanagement oder auch die passende Verankerung in der Organisation zählen dazu.

Viele weitere Erkenntnisse, Daten, Fakten, Extra Notes und Expert Quotes finden Sie in der Studienvollversion. Gleich persönliches Exemplar holen – direkt online und kostenfrei:

 

Holen Sie sich alle Ergebnisse der Studie the factlights 2020!

PERSÖNLICHES STUDIEN-EXEMPLAR HOLEN

 

Unser Tipp: Sie möchten ein Thema vertiefen oder mehr zur Datenerhebung und dem Einsatz von Data Science im Ramen der Studie erfahren? the factlights ist eine Initiative der QUNIS, sprechen Sie uns also gerne direkt dazu an KONTAKT

Rothoblaas: Mobiles Reporting, Data Warehousing und saubere Daten für die weitere Expansion

Erstellt am: Donnerstag, 16. Juli 2020 von Monika Düsterhöft

Das international aufgestellte Südtiroler Unternehmen Rothoblaas mit weltweit 21 Tochter-Unternehmen hat sein veraltetes Reporting-System durch eine moderne BI-Lösung mit zentralem Data Warehouse ersetzt. Mit einem global verfügbaren mobilen Vertriebsreporting und einer jederzeit einfach skalierbaren, modernen Berichtsplattform ist das dynamische Unternehmen nun bestens für die Gegenwart und sein zukünftiges Wachstum aufgestellt.

Die Berichtsplattform mit zentralem Data Warehouse war für uns eine Investition in die Zukunft. Wir sind damit fit für weiteres Firmenwachstum und für den Umgang mit der Ressource Daten. Dass wir unsere Daten jetzt sauber hinterlegt haben und die Analysewelt flexibel ausbauen können, war der einzig richtige Weg.


Peter Prinoth,
Projektverantwortlicher Leiter ERP & BI,
Rothoblaas Srl

Mobile Informationsversorgung für beständig wachsendes Vertriebsteam mit altem System nicht mehr abbildbar

1991 von Robert Blaas gegründet, entwickelt Rothoblaas Produkte und Dienstleistungen für die Profis im Baugewerbe und ist heute ein international erfolgreiches Familienunternehmen. Neben der Zentrale in Kurtatsch in Südtirol ist Rothoblaas derzeit mit 21 Tochtergesellschaften sowie einer eigenen Verkaufsmannschaft in über 50 Ländern präsent und bearbeitet weltweit über 80 Märkte. Und Rothoblaas wächst kontinuierlich; jedes Jahr kommen zwei oder drei Gesellschaften zum Unternehmen dazu. Dazu trägt nicht zuletzt die weitgespannte internationale Vertriebsorganisation des Unternehmens bei.

Um den Außendienst bei seiner täglichen Arbeit vor Ort zu unterstützen, benötigte das dynamische Unternehmen ein zeitgemäßes Informationssystem für das unternehmensweite Vertriebsreporting. Die rund 250 Vertriebsmitarbeiter sollten per Web jederzeit Zugriff auf die aktuellen Kennzahlen zu ihren Kundenkontakten haben und diese auch überall mit ihrem Smartphone abrufen können.

Mit dem vorhandenen Reporting-Tool war diese Informationsversorgung nicht realisierbar. Die veraltete Lösung war von den steigenden Datenmengen überfordert, zu langsam und zu starr. Neue Auswertungen aus dem ERP-System beispielsweise mussten per SQL-Skripts definiert werden, und die Einbindung weiterer Vorsysteme als Datenquellen für kombinierte Auswertungen war kaum möglich. Rothoblaas entschloss sich daher zur Einführung einer modernen BI-Lösung auf Basis eines zentralen Data Warehouse.

QUNIS überzeugt mit Know-how und Chemie

Wichtig für die neue BI-Lösung war, dass alle Standorte auf einer zentralen Datenbasis mit konsistenten Zahlen und Strukturen arbeiten und dass neu hinzukommende Gesellschaften auch mit ihren eigenen ERP-Systemen barrierefrei eingegliedert werden können. Rothoblaas hat sich angeschaut, wie andere Unternehmen die Sache angehen und sind durch Empfehlungen auf QUNIS als Beratungs- und Realisierungspartner gestoßen.

Die guten Referenzen, die geballte Kompetenz und langjährige Erfahrung der Data- Warehouse- und BI-Spezialisten QUNIS wurde als sehr überzeugend empfunden, und von Anfang an hat die Chemie zwischen den Projektpartnern gestimmt.

Gemeinsam mit QUNIS startete das Projektteam Ende 2016 die Implementierung mit der Konzeption und dem Aufbau eines Data Warehouse auf Basis des Microsoft SQL Servers. Als Datenquelle wurde zunächst das vorhandene ERP-System Comarch per Schnittstelle angeschlossen, in weiteren Projektschritten kamen dann die Buchhaltung mit Microsoft Dynamics NAV, das CRM System und schließlich die Planungslösung Prevero dazu. Durch die Zusammenführung der verschiedenen Quelldaten sind seitdem jederzeit kombinierte Ad-hoc-Analysen auf Knopfdruck möglich.

Einfach Integration unterschiedlicher Quellsysteme ist einer der größten Vorteile der neuen BI-Lösung

Peter Prinoth sieht in der einfachen Integration unterschiedlicher Quellsysteme einen der größten Vorteile der BI-Lösung: „Durch die Einbindung von Microsoft Dynamics NAV können wir nun wesentlich schneller und detaillierter Profit- und Cost- Center-Analysen oder Zwischenbilanzen erstellen und die IC-Abstimmung durchführen. Aus Prevero fließen außerdem unsere Plandaten ein und stehen für Plan-Ist-Vergleiche von Umsätzen und Budgets bereit, und die CRM-Lösung steuert die Kundendaten bei. Wir wollen künftig noch weitere Datenquellen einbinden und können außerdem jederzeit neue Gesellschaften mit ihren bestehenden Systemen integrieren. Das gibt uns sowohl fachlich als auch hinsichtlich unserer Wachstumsstrategie volle Flexibilität für künftige Entwicklungen.“

Das weltweite Rollout des Vertriebsreportings wurde im Juni 2018 gestartet, und nach einer Testphase im Parallelbetrieb wurde das Altsystem Ende 2018 abgeschaltet. Seitdem wird die BI-Plattform kontinuierlich nach Bedarf weiter ausgebaut. QUNIS kümmert sich weiterhin um die Umsetzung neuer Anforderungen im Core des Data Warehouse, während das BI-Team von Rothoblaas eigenständig Anpassungen auf der Ebene der fachbezogenen Data Marts vornehmen kann. Viele Fragen können dabei auch schnell in telefonischen Webview- Sitzungen mit der QUNIS-Beraterin von Rothoblaas geklärt werden.

Etabliert und in beständiger Weiterentwicklung

Die BI-Lösung ist heute in allen Standorten weltweit etabliert. Die Vertriebs-Mitarbeiter greifen über die Microsoft Reporting Services (SSRS), das kostenlose Reporting-Frontend des Microsoft SQL Servers, auf ihre Standardreports zu und können damit ihre Zahlen beispielsweise nach Kunden, Produktgruppen oder Artikeln filtern. Die Berichte und Analysen stehen auf dem Smartphone in gleichem Umfang zur Verfügung. Die Bedienung ist einfach und selbsterklärend, so dass auch zur Einarbeitung der externen
Handelsvertreter ein von der Zentrale bereitgestellter Nutzungsleitfaden mit Screenshots ausreichte.

Inzwischen stehen Datencubes für klassische Analysen in den Bereichen Sales, Einkauf, Logistik und Finance bereit. Besonders hilfreich für die weltweite Anwendung ist dabei die automatische Währungsumrechnung, die in lokaler Währung verbuchte Umsätze direkt zum tagesaktuellen Kurs in Euro darstellt. Den Fachabteilungen und BI-Verantwortlichen von Rothoblaas gehen aber auch die Ideen für weitere Anwendungsbereiche nicht aus. In nächster Zeit sollen beispielsweise IC-Margen und -Flüsse im Reporting abgebildet, eine Produktqualitätskontrolle mit Lieferantenbewertung ergänzt und ein erst kürzlich im ERP-System umgesetztes Reklamationsmanagement für Auswertungen erschlossen werden.

Peter Prinoth sieht viel Potenzial für die Weiterentwicklung: „Das Data Warehouse bietet uns als zentrale Analysebasis vielfältigste Möglichkeiten für den Ausbau unseres Reportings, und wir erschließen ständig neue Datenfelder aus dem ERP-System für diesen Datentopf. Da wir organisatorische Änderungen oder neue fachliche Auswertungen selbst im System umsetzen können, funktioniert unsere Weiterentwicklung sehr schnell und kosteneffizient.“

Augenmerk auf Reportgestaltung zahlt sich aus

Neben dem Aufbau des Data Warehouse mit dem zugehörigen Datenmanagement bildet die Ausgestaltung des Reportings im Frontend den zweiten großen Schwerpunkt des BI-Projekts bei Rothoblaas. Basis dafür ist ein schlüssiges Informationskonzept, das sich gleichermaßen auf die Gestaltung des Backend- als auch des Frontend-Bereichs auswirkt.

Werden beispielsweise zu viele Kennzahlen und Detailinformationen auf Basis der entsprechend benötigten umfangreichen Datencubes in den Berichten abgebildet, sind Performance-Probleme im System absehbar – vor allem in großen Nutzer-Szenarien wie bei Rothoblaas. Moderne Informationssysteme zielen stattdessen darauf ab, dem Nutzer mit gezielten, übersichtlich visualisierten Informationen einen schnellen Überblick über sein Aufgabengebiet zu verschaffen, von dem aus er dann nach Bedarf in tiefere Analysen einsteigen kann. Dieser Aspekt war bei Rothoblaas insbesondere beim Übergang vom vorigen Tabellen-orientierten Reporting mit vielen Detailzahlen in die Welt der dynamischen Reports zu berücksichtigen.

Das Projektteam hat entsprechend viel Augenmerk auf die optimale Balance zwischen Übersichtlichkeit und Detailgrad der Berichte gelegt. Gerade an dieser Stelle profitiert Rothoblaas auch von der großen Projekterfahrung der QUNIS-Berater, wie Peter Prinoth bestätigt: „Die Planung einer passenden BI-Umgebung erfordert viel Know-how und Erfahrung auf unterschiedlichen Ebenen. Mit QUNIS haben wir den richtigen Partner an der Seite, auf dessen Fachwissen und Praxiserfahrung wir uns verlassen können.

Im Frontend-Bereich ist außerdem die Frage der Lizenzkosten ein zentrales Thema, das im Rahmen des Informationskonzepts vorab geklärt werden sollte. Hier ist zu berücksichtigen, wie viele Nutzer heute und in Zukunft zu erwarten sind und welche Anforderungen an das Reporting bestehen.

Mit den Microsoft Reporting Services (SSRS) konnte Rothoblaas den weltweiten Rollout des Vertriebsreportings kosteneffizient realisieren und alle Anforderungen abdecken. Das Werkzeug unterstützt wie gewünscht ein zuverlässiges Standardreporting mit Self-Service-Analysen und mobilem Datenzugriff. Beim weiteren Ausbau wird eventuell ein flexibleres BI-Frontend wie beispielsweise Pyramid Analytics interessant, das Rothoblaas dann einfach gegen die Reporting Services austauschen und auf das Data Warehouse aufsetzen kann.

Der richtige BI-Schritt in die Zukunft

Für Rothoblaas hat sich der Schritt in die zukunftsweisende BI-Welt gelohnt, wie Peter Prinoth festhält: „Die Berichtsplattform mit zentralem Data Warehouse war für uns eine Investition in die Zukunft, die jetzt und auf Dauer Mehrwert bringt. Einige Unternehmen in unserer Region waren am Anfang unseres Projekts noch skeptisch, weil sie eine Data-Warehouse-Lösung für ein Unternehmen unserer Größenordnung für überdimensioniert hielten – inzwischen haben die meisten selbst ähnliche Projekte gestartet, mehrere davon zusammen mit QUNIS, deren guter Ruf sich in Südtirol schnell herumgesprochen hat.“

Mehr zu Rothoblaas: Rothoblaas ist ein multinationales Unternehmen mit Ursprung in den Südtiroler Alpen, welches marktführend in der Entwicklung von technologisch hochwertigen Lösungen für den Holzbau ist. Rothoblaas entwickelt Produkte und Dienstleistungen für die Profi s im Baugewerbe: Holzbauer, Zimmerer, Ingenieure, Architekten und Monteure von Absturzsicherungssystemen. Die Produkte aus der Reihe HOLZ TECHNIC befriedigen zudem alle Anforderungen und Bedürfnisse der Fachhändler von Baumaterialien.

QUNIS Scalable Self Service BI – analytische Datenplattform mit Zukunft

Erstellt am: Mittwoch, 1. Juli 2020 von Monika Düsterhöft

Self Service BI: Der Ruf nach leichten auch von der Fachabteilung zu bedienenden Werkzeugen wurde erhört

Globalisierung, vernetzte Wertschöpfungsketten und nicht zuletzt Ausnahmesituationen wie die Finanz- und Corona-Krise zwingen Unternehmen, immer schneller auf neue Anforderungen zu reagieren. Die Fähigkeit, aus Daten agil Informationen zu generieren, um gute und sichere Entscheidungen zu treffen wird zum wichtigen Überlebens- und Wettbewerbsvorteil.

Der Anspruch an Agilität und Schnelligkeit setzt Fachanwender und Datenexperten unter Druck. Das geforderte Tempo mit den bisherigen BI-Enterprise-Vorgehensmodellen und dem Einsatz traditioneller BI-Tools zu halten, wird immer schwieriger. Aus diesem Leidensdruck heraus wurde in den letzten Jahren der Ruf nach einfacheren Werkzeugen, die sich auch von Fachanwendern bedienen lassen, immer lauter.

Die Softwarehersteller haben darauf mit der Entwicklung von Lösungen reagiert, die sie als „Self Service BI“ anbieten.

Die unter diesem Schlagwort rangierenden Tools und Plattformen umfassen in der Regel ein fachanwenderfreundliches Frontend gepaart mit Funktionen für das Erledigen einfacher Datenmanagementaufgaben. Letztere erlauben es den Nutzern, mehrere Datenquellen zu verbinden oder lokale Daten aus Excel-Dokumenten direkt im Visualisierungstool zu integrieren. Auch können sie Quellen aus dem Internet sofort mit anzapfen.

Self-Service-BI-Werkzeuge eignen sich also aufgrund ihrer sehr guten und anwenderfreundlichen Funktionen bestens dafür, individuelle Lösungen zu realisieren. Sie erlauben einen deutlich weniger komplexen und zeitintensiven Prozess bei der Abstimmung, bei der direkten Umsetzung mithilfe der Datenmanagementfunktionen und bei der unmittelbaren Publikation der Ergebnisse durch anforderungsnahe Anwender.

Jedoch, die Antwort für eine nachhaltige BI-Lösung liegt nicht allein im Frontend

Was bei der Euphorie für Self Service BI in vielen Fällen vergessen wird: Das wirklich komplexe an BI-Lösungen ist nicht die Gestaltung der Berichte und Dashboards im Visualisierungstool. Die weitaus größere Herausforderung liegt in der Aufbereitung von aussagekräftigen und wahrheitsgetreuen Datenräumen als Basis für die Visualisierungen.

Zur Umsetzung der dafür notwendigen, teilweise sehr vielschichtigen Datenmanagementaufgaben verfügen professionelle Datenbanken für Enterprise Data Warehouses und Data Lakes über zahlreiche Spezialfunktionen. Sie ermöglichen die Transformation von Daten, das dauerhafte Monitoring der Datenqualität sowie den möglichst automatisierten Ablauf des Ladens der Daten in den großen Datenspeicher.

Die Frage, die sich nun für Unternehmen stellt, die sowohl Self Service BI ermöglichen als auch Enterprise BI realisieren wollen: Wie setzt man Self Service BI so auf, dass es Hand in Hand mit einer Enterprise-Strategie funktioniert? Zudem haben BI-Initiativen nicht selten zum Ziel, die über Jahre gewachsenen individuellen Reporting-Inseln zu integrieren und Inhalte zu harmonisieren.

Das Geheimnis liegt im Bewusstsein und im Datenmodell

BI-Initiativen können nur gewinnen, wenn Self-Service-BI-Funktionen nicht als eigenständiges Werkzeug gesehen werden, sondern als Speedbooster oder als Ergänzung zum Enterprise Data Warehouse und zum Data Lake. Über die erweiterten Möglichkeiten von Self Service BI in der Visualisierung hinaus sind vor allem die neu gewonnenen Optionen im Datenmanagement für viele Architekturen relevant.

Denn Anforderungen einfach, schnell und agil umzusetzen muss nicht immer heißen, dass dieses Projekt später zwangsläufig in einem gesonderten Werkzeug oder in einem langfristigen Datenchaos endet.

QUNIS bringt den Profi-Boost für Self-Service-BI-Architekturen

Um die Vorteile von Self Service BI und Enterprise BI gleichsam zu nutzen, hat QUNIS den Ansatz des „Scalable Self Service BI“ entwickelt. Dieser ermöglicht schnelle Ergebnisse gepaart mit einem sauber aufgebauten Datenmanagement – ganz bewusst flankiert von Wissenstransfer und Empowerment.

Innerhalb weniger Wochen und mit punktuellem Coaching entstehen per „QUNIS Scalable Self Service BI“ und mit dem Einsatz von Micosoft Power BI komplette BI-Apps. Mit professionellem Design, basierend auf klaren Strukturen und durchgängiger Automatisierung der Prozesse.

  • Ein Self-Service-BI-Projekt bei QUNIS startet stets mit einer kompakten Schulung. Die Vertreter der Fachabteilung lernen die Grundlagen des eingesetzten Tools  kennen. Sie erfahren mehr zu den technischen Details und zur methodischen Vorgehensweise. Zudem bekommen sie beigebracht, wie man eine Datentransformation durchführt, wie man ein Datenmodell richtig aufgebaut und welche Best Practices es gibt.
  • Danach werden in einem meist halbtägigen Anforderungsworkshop die konkrete Problemstellung und die dafür gewünschte Lösung im Hinblick auf einen Self Service Use Case überprüft und der sinnvolle Umfang definiert.
  • Darauf aufbauend entsteht in einem Zeitraum von ca. drei bis zehn Tagen ein Modell, das für die gewünschte Datenmenge passt. Wichtig dabei: Dieses Modell entspricht in Bezug auf Qualität und Professionalität bereits den Kriterien eines Enterprise BI. So werden im Self-Service-BI-Modell etwa die gleichen Namensbezeichnungen und Schlüsselfelder wie in einem Enterprise-Data-Warehouse-Modell genutzt. Ebenso verfügt es über eine Schnittstelle zur Überführung in ein Enterprise BI inklusive einer automatisierten Dokumentation.
  • Anhand des aufgesetzten Self-Service-BI-Modells sehen die Beteiligten, worauf zu achten ist, welche Schritte notwendig sind und wie sich Berichte anfertigen lassen. Diese werden dann in einer Reporting-Mappe zusammengeführt.
  • Um die Lösung im Anschluss selbstständig zu erweitern, empfiehlt es sich zudem über eine Fokus-Schulung Know-how in der Formelsprache DAX (Data Analysis Expressions) anzueignen. So können Fachexperten wie Controller oder Produktionsleiter nachfolgend eigene Kennzahlen entwerfen und umsetzen.

Die mit dem QUNIS Scalable Self Service-Ansatz generierten Self-Service-BI-Lösungen bieten drei ganz zentrale Vorteile: Sie erfordern geringe Investitionskosten, weisen als managed Self-Service-BI eine hohe Qualität und Skalierbarkeit auf und vor allem, sie erfüllen bereits die Standards eines Enterprise Data Warehouse. Hinzu kommt, dass sich die User schon während des Self-Service-BI-Projektes dank entsprechender Schulungsanteile und intensivem Coaching ein umfassendes Prozess- und Technologie-Know-how aneignen.

Von Anfang an ist damit die Brücke für den späteren Transfer in die Enterprise-BI-Strategie gebaut. Sie sind bestens gerüstet, die Weiterentwicklung Ihrer BI-Applikation kompetent zu begleiten und gemeinsam mit den Experten weitere Lösungen aufzubauen. Wie das geht zeigt beispielsweise BOGNER in seinem Praxisbericht.

Oder sprechen Sie uns einfach an KONTAKT

Unser Tipp: Nutzen Sie unsere kostenfreien QUNIS-Webinare und Online-Power-Trainings sowie Schulungsangebote der QUNIS Academy rund um die Self Service BI Plattform „Microsoft Power BI“ und erfahren Sie von unseren Experten aus der Praxis, was für Sie drin steckt.

Data Governance: Schon mal drüber nachgedacht?

Erstellt am: Freitag, 5. Juni 2020 von Monika Düsterhöft

So wichtig für erfolgreiche Data & Analytics Projekte

Daten gelten als Herzstück jedes Unternehmens. Und so gut wie bei jedem steht, nicht zuletzt getrieben durch die aktuellen Entwicklungen, das Thema Digitalisierung ganz weit oben auf der Agenda. Das Regeln von Verfügbarkeit, Integrität und Sicherheit der verwendeten Daten, die sogenannten Data Governance, wird in diesem Zuge jedoch oftmals eher stiefmütterlich behandelt.

Dass dem so ist, mag zum einen daran liegen, dass es sich um ein vergleichsweises neues Thema handelt. Zum anderen ist Data Governancen sehr rechtslastig, wird mit Disziplin, Verwaltung und Aufwand konnotiert und gilt gemeinhin als „trocken und unattraktiv“. Und wie wir alle wissen: Um solche Themen kümmert man sich nicht wirklich gern.

Ein fehlerhafter Umgang mit Daten jedoch kann schnell zu erheblichen Wirtschafts- und Imageschäden führen. Rechtliche Konsequenzen, Bußgelder, Strafen und empfindliche Schadensersatzansprüchen drohen.

Wegducken gilt nicht – Data Governance geht jeden an!

Auf der Hand liegt, wo immer es zu Problemen mit Daten kommt, weißt sich die Gesamtverantwortung direkt der Geschäftsführung und dem Vorstand zu; unter Umständen greift deren Haftungsrisiko sogar bis aufs Privatvermögen durch. Schon allein deswegen sollten das Vorhandensein und konsequente Leben einer Data Governance ein ganz persönliches Anliegen des Top-Managements sein.

Im Gegensatz zur Top-Führungsriege steht der Mitarbeiter, der als ausführendes Organ nach bestem Wissen und Gewissen handelt, bei einer Datenpanne nicht in legaler Verantwortung. Nichtsdestotrotz ist auch sein Handeln oder Nichthandeln von unliebsamen persönlichen Konsequenzen bedroht. Denn selbst eine Panne, die auf Motivation und Engagement basiert kann zu Arbeitsplatzverlust oder zumindest internen Problemen führen. Um diesem Konflikt aus dem Weg zu gehen, kann es sein, dass Mitarbeiter lieber nichts tun bevor sie etwas tun, von dem sie nicht recht wissen, ob sie es dürfen oder nicht. Ineffizienz bis hin zum vollständigen Stillstand von Initiativen sind die Folge für das Unternehmen.

Unbenommen wäre es also förderlich zu wissen, was man am Arbeitsplatz mit welchen Daten tun darf und was nicht. Und zwar sowohl für den normalen Mitarbeiter, als auch für die Führungskräfte. Letzteren fällt in diesem Zusammenhang wohl der undankbarste Part zu: Sie stehen im Kreuzfeuer von Management und Mitarbeitern, müssen delegierte Aufgabenstellungen weitertragen und auf deren Umsetzung bedacht sein.

Kein Data & Analytics Projekt ohne Governance

Betrachtet man Chancen, Möglichkeiten, Risiken und in Zeiten des War of Talents und Fachkräftemangels auch die hohe Notwendigkeit im Hinblick auf Mitarbeiter-Sicherung und Motivation, so sollte keine Data & Analytics Initiative auf- bzw. umgesetzt werden ohne nicht parallel eine entsprechenden Data-Governance-Initiative zu betreiben.

Die gute Nachricht: Das Ganze hört sich schlimmer an als es ist. Vielmehr, eine Data & Analytics Governance ist in überschaubaren und leicht verdaubaren Schritten machbar. Einzige Voraussetzung, die Etappenziele müssen sauber definiert und ein dazu passender Methoden- und Maßnahmenkatalog erstellt worden sein. Auf diesem soliden Fundament lässt sich eine passende Data & Analytics Governance in die Organisation und Prozesse integrieren und die letztlich nachhaltige Umsetzung wird möglich.

QUNIS-Vorgehenskonzept bringt Durchblick, Struktur und Effizienz

Basierend auf Praxis-Erfahrung und Know-how hat QUNIS ein dreistufiges Framework mit insgesamt acht Handlungsfeldern entwickelt, das für Business-Intelligence- und Andvanced-Analytics-Initiativen eine verlässliche Orientierungshilfe für den Aufbau und die Etablierung einer Data Governance stellt.

Auf der ersten Stufe geht es darum, die Zielsetzung festzulegen: Welche Daten gibt es und in welchem Bezug stehen diese zu den rechtlichen Vorgaben bzw. welche Maßnahmen sind konkret daraus abzuleiten? Hier geht es um so wichtige Dinge wie ein gut funktionierendes Risikomanagement und den Blick auf sensible Datenschnittstellen zu Externen. Zudem werden aber auch ganz generell Fragen etwa zur Gewährleistung der Datenqualität behandelt.

Im darauf aufbauenden Bereich von Methoden und Maßnahmen werden rechtliche Vorgaben geklärt: Welche Daten und Prozesse korrespondieren mit welchen rechtlichen Normen wie GDPdU oder DSGVO? Im Fokus stehen Datenzugriffs- und Datenberechtigungskonzepte oder Back-Up-Strategien zur durchgängigen Gewährleistung der Datenverfügbarkeit. Im Sinne des Projektmanagements werden zudem die Vorgehensweisen erarbeitet, also beispielsweise Dokumentationsrichtlinien festgelegt, Guidelines für die Mitarbeiter erarbeitet, Recovery-Pläne und Definition von Messpunkten.

Zu guter Letzt geht es darum, das Erarbeitete in die Organisation und die laufenden Prozesse zu integrieren. Um klare Verantwortlichkeiten definieren zu können, wird das bewährte QUNIS-Rollenmodell herangezogen als Basis für den individuellen Zuschnitt auf konkrete Rahmenbedingungen und Bedürfnisse des jeweiligen Unternehmens. Darauf aufbauend lassen sich schließlich trennscharfe Strukturen herausarbeiten, die jedem betroffenen Teilbereich Verantwortlichkeiten und Zuständigkeiten zuordnen

Denken Sie die Data Governance immer gleich mit!

Es gibt viele gute Gründe dafür, seine Daten im Unternehmen zu schützen bzw. zu sichern und dabei rechtskonform und werteorientiert zu handeln. QUNIS unterstützt Sie dabei, eine ganz individuelle Governance für die Data & Analytics Initiativen in Ihrem Unternehmen umzusetzen und erfolgreich zu steuern. Alles was Sie tun müssen ist uns kontaktieren. Beim Rest begleiten wir Sie kompetent.

Mein Tipp: Besuchen Sie unser kostenfreies QUNIS-Webinar „Data Governance – so machen Sie Ihre BI-, Big-Data- und Advanced-Analytics-Lösung rechtlich und organisatorisch sicher.“ TERMINE UND ANMELDUNG