Archiv für die Kategorie Digitalisierung

Data Mesh als soziotechnischer Ansatz zur Erstellung einer dezentralen Datenarchitektur

Erstellt am: Mittwoch, 20. März 2024 von chaydl

An die Datenauswertung im Unternehmen werden heute immer größere Anforderungen gestellt. Das zentral angesiedelte BI Competence Center, das bislang die Entwicklung und das Datenmanagement rund um ein Data Warehouse erledigt hat, kommt damit aber immer mehr an seine Grenzen. Das Prinzip des Data Mesh bietet hier einen passenden Lösungsansatz.

Data Mesh macht Analytics agiler

Data Mesh stellt die Daten als Wertschöpfungsfaktor in den Mittelpunkt der Architekturkonzeption. Daten sollen als „Datenprodukte“ prozess- und systemübergreifend im Unternehmen zur Verfügung gestellt werden.

Die Grundidee besteht darin, Daten als Asset für die Organisation zu begreifen und Business Usern hochwertige Datenprodukte für ihre Zwecke zugänglich zu machen, damit sie diese optimal nutzen können. Diesen Ansatz verfolgt auch die Self-Service BI bereits seit Jahren.

Neu ist bei Data Mesh allerdings die konsequente Delegation der Verantwortung und Kompetenzen in die dezentrale Organisation:

  • Entwicklungsteams erhalten die Verantwortung für die Entwicklung und den Betrieb von Datenprodukten ihrer fachlichen Domäne.
  • Die Verlagerung in fachlich geschnittenen Domänenteams löst das Engpass-Problem eines einzelnen zentralen Analytic-Teams.
  • Zugleich vervielfacht sie die Entwicklungsressourcen, erhöht damit das mögliche Umsetzungstempo neuer Use Cases und gewährleistet darüber hinaus die geforderte fachliche Expertise in der jeweiligen Domäne.

Die Dateninfrastruktur für die Domänenteams wird in Form einer Datenplattform nach dem Self-Service-Gedanken bereitgestellt. Im Gegensatz zur klassischen Data-Warehouse-Architektur mit zentralisierten Datenströmen handelt es sich hier um eine domänenorientierte dezentrale Architektur für analytische Daten.

Die Definition von Data Mesh zielt eher auf die Governance und Organisation des datengetriebenen Unternehmens ab als auf technologische Aspekte. Es gibt aber eine Kernarchitektur, die sich zur Umsetzung von Data Mesh besonders eignet, das Data Lakehouse.

Data Lakehouse unterstützt Data Mesh

Das Data Lakehouse unterstützt die dezentrale Arbeit mit Datenprodukten. Durch die Trennung von Storage und Computing bietet es eine hohe Flexibilität zur Einrichtung verschiedener Domänen mit jeweils eigenen Datenprodukten auf einem gemeinsamen Datenlayer. Ein heterogener Technologie-Stack greift dabei über Open Table Format auf Daten aus verschiedenen Quellen zu und bereitet sie für Use Cases wie BI, ML, Data Science oder Data Engineering in diversen Domänen auf.

Unter Berücksichtigung einer stringenten Access Control lassen sich die Datenquellen auf diese Weise verschiedenen Teams für ihre Auswertungen zugänglich machen. Datensilos werden vermieden und domänenübergreifende Datenabfragen unterstützt. Das verteilte Computing ermöglicht es zudem, unvorhergesehene Lastspitzen aus anderen Domänen abzufangen.

Reifegrad der dezentralen Governance als Erfolgsfaktor

Gemäß Definition basiert Data Mesh auf den vier Grundprinzipien Domain Ownership, Data Products, Self-Service und Federated Governance. Die verteilte Governance ist dabei der wesentliche Erfolgsfaktor für die Etablierung von Data Mesh. Im Rahmen der Governance legen die beteiligten Teams gemeinsame Standards und Regeln fest, um ihre Zusammenarbeit, die Harmonisierung der Daten und Sicherheitsanforderungen zu gewährleisten.

Aufgaben wie das Qualitätsmanagement und die Klassifikation von Daten, Security, Schnittstellen-Verwaltung oder die Definition und Verwaltung von Datenprodukten sind über die gesamte Organisation verteilt. Die Verantwortlichkeiten müssen hier klar geregelt sein.

QUNIS hat dafür ein dezidiertes Rollenmodell entwickelt, das sich seit Jahren in Data & Analytics-Projekten bewährt.

  • Das Rollenmodell legt unter anderem das Ownership für Domänen, Datenprodukte oder Datenobjekte wie „Kunden“, „Artikel“ oder „Partner“ fest.
  • Datenexperten wie Data Owner, Data Steward und das Data Governance Board arbeiten dabei mit Funktionen eines BI- oder erweiterten Analytics-Rollenmodells zusammen.
  • Dazu gehören zum Beispiel die Rollen End User, Power User, Solution Architect, Data Engineer mit DataOps, Data Architect sowie Data Scientist mit MLOps.

Über das Rollenmodell kann der Data-Mesh-Gedanke bis hin zu den DevOps etabliert werden. Die Verankerung und Durchsetzung der Rollen und einer starken Governance sind die Voraussetzung dafür, dass die verschiedenen Teams orchestriert zusammenarbeiten, qualitativ hochwertige Datenprodukte geliefert werden und der weitgehende Self-Service im Rahmen zuverlässiger Standards funktioniert.

Die Umsetzung von Data Mesh steht und fällt mit dem Reifegrad dieser Datenorganisation. Diese Organisation ist funktionsübergreifend und deckt sich damit nicht unbedingt mit der üblichen Einteilung in Geschäfts- oder Fachbereichen. Daher ist die Mitwirkung des Management Boards bei der Kontrolle und Etablierung der datengesteuerten Organisation und Architektur unbedingt notwendig.

Data Mesh setzt sich durch

Unternehmen verstehen, dass Daten immer mehr zur Wertschöpfung beitragen. Die kluge Nutzung und Auswertung der Daten bringen den entscheidenden Wettbewerbsvorteil. Für größere Konzerne und auch für viele mittelständische Unternehmen ist erweiterte Analytics daher inzwischen selbstverständlich. Data Mesh bietet die Möglichkeit, sich in diesem Bereich agiler aufzustellen.

QUNIS sieht daher derzeit eine große Dynamik und viel Kraft am Markt, das verteilte Organisations- und Architekturkonzept im Unternehmen umzusetzen. In den Projekten zeigt sich, dass das Data Lakehouse hierbei eine große Hilfe ist, weil die Technologie das flexible Splitten von Datenräumen erlaubt und die Verteilung von Verantwortung für Datenprodukte unterstützt.

Mein Tipp: Wenn Sie mehr über Data Mesh wissen wollen, folgen Sie uns auf LinkedIn und Xing oder abonnieren Sie einfach unseren Newsletter. Oder kontaktieren Sie uns und schreiben Sie mir direkt über KONTAKT ich freue mich über den Austausch mit Ihnen! 

Digitale Innovation braucht eine Datenstrategie

Erstellt am: Montag, 11. März 2024 von Anja Gorbach

Unternehmen investieren massiv in Digitalisierungsprojekte und die datengetriebene Wertschöpfung. Neue ERP-Systeme, Prozessvereinheitlichung oder die Ertüchtigung der internen IT-Infrastruktur stehen hier auf der Agenda. Dazu kommen immer mehr innovative Use Cases wie AI- und ML-Anwendungen, Bilderkennungsverfahren oder IoT-Plattformen. Als Cloud-Lösungen sind mächtige Speicher- und Analysesysteme selbst für mittelständische Unternehmen erschwinglich und kommen dort auch rege zum Einsatz.

Ohne ein fortgeschrittenes Datenmanagement werden die digitalen Innovationen jedoch nicht funktionieren, denn nach wie vor gilt die alte Weisheit: Die neuen Technologien können die Erwartungen nur erfüllen, wenn die Datenbasis stimmt. Und hier liegt in der Unternehmenspraxis oft das Problem.

Unkoordinierte Dateninitiativen kosten Geld und gefährden die Wertschöpfung

Im Zusammenhang mit der Systemadministration sind meist auch Datenmanagement-Initiativen etabliert. Diese laufen aber oft unkoordiniert im Unternehmen nebeneinander – und jede einzelne Disziplin für sich ist eine Mammutaufgabe.

Stamm- und Metadatenmanagement, Schnittstellen-Verwaltung, Datenqualität, Initiativen rund um BI und ML sind verschiedenste Ansätze, in denen sich einzelne Teams um ihr jeweiliges Datenthema kümmern.

  • So setzt man beispielsweise das Stammdatenmanagement oft nur Tool-basiert auf.
  • Oder es kommt vor, dass in der IT eine MDM-Implementierung läuft und parallel eine unternehmensweite Data-Governance-Initiative gestartet wird.
  • Oder eine ERP-Migration von SAP R/3 auf S/4 läuft unabgestimmt mit der Data & Analytics-Welt.

Entscheidungen im Rahmen von nicht abgestimmten Einzelinitiativen verursachen jedoch unnötige Kosten und gefährden die unternehmensweite Wertschöpfung von Daten. Da hilft nur eins: die unternehmensspezifischen Ziele des Datenmanagements zu definieren und die Umsetzung dementsprechend zu planen.

Es gilt, eine umfassende Datenstrategie zu entwickeln

Die Ziele des Datenmanagements sollten sich an der Unternehmensstrategie ausrichten. In diesem Rahmen können Dateninitiativen dann sinnvoll priorisiert und eingeordnet werden, so dass Transparenz geschaffen wird und alle Maßnahmen auf ein gemeinsames Ziel hinauslaufen. QUNIS hat ein Framework für die Datenstrategie entwickelt, die mit den folgenden drei Säulen bei der Entwicklung einer ausbalancierten Strategie hilft:

  • Scope
  • Architektur & Technologie
  • Organisation & Data Governance

Scope

Hier werden die datenorientierten Ziele des Unternehmens abgesteckt. Ansatzpunkte sind dabei datengestützte Prozessabläufe, Informationsbedarfe sowie digitale Produkte und Services des Unternehmens. Die Ziele, die derzeit in den Projekten am häufigsten genannt werden, sind effiziente Prozessketten, verlässliche Auswertungen durch hohe Datenqualität, Automatisierung im Datenmanagement oder die Entwicklung wettbewerbsfähiger Produkte und Services auf Basis hochwertiger Daten.

Empfehlung: Lassen Sie den ermittelten Scope vom Management bestätigen. Die Umsetzung der Strategie wird Kapazitäten erfordern und organisatorische Veränderungen bis in die operative Prozessebene mit sich bringen. Das Committent der Unternehmensleitung ist daher unabdingbar für die erfolgreiche Umsetzung.

Architektur & Technologie

Hier werden die Themenblöcke Stamm- und Metadatenmanagement, Backbone & Middle Layer sowie der Bereich Data & Analytics diskutiert. Besonders beim Stamm- und Metadatenmanagement gibt es immer wieder gewaltige Überraschungen beim Start der strukturierten Analyse. Die Fragen, wie man an bestimmte Daten herankommt, wer die Datenhoheit hat oder wo die Lücken in der Datenpflege liegen, können viele Unternehmen nicht klar beantworten. Von unternehmensweiter Transparenz sind die meisten Organisationen hier weit entfernt.

Im Bereich Backbone & Middle Layer geht es um Infrastruktur- und Technologie-Entscheidungen zur Verknüpfung von Systemen zu durchgehenden Datenplattformen. Ein wichtiger Themenblock in einer Datenstrategie ist natürlich der Bereich Data & Analytics mit seiner originären Aufgabe, Daten zu Analysezwecken in einer zentralen Plattform zu sammeln, aufzubereiten und zu verteilen.

Data & Analytics-Plattformen verarbeiten heute nicht mehr nur strukturierte Daten in klassischen BI-Analysen, sondern auch IoT-, GPS- oder Webdaten. Der Output können Reports zur internen Steuerung oder als Service für Partner, Lieferanten oder Kunden sein, aber auch Daten zur Speisung von ML-Cases und weiteren Systemen.

Organisation & Governance

Um eine standardisierte und skalierbare Data & Analytics-Plattform aufzubauen, ist die Etablierung einer strukturierten Data Governance zum geregelten Umgang mit den verschiedensten Datenformaten unverzichtbar. Data Governance versteht sich hier als integraler Bestandteil einer ganzheitlichen Datenstrategie, der den organisatorischen Handlungsrahmen für Einzeldisziplinen des Datenmanagements stellt. Wesentlicher Baustein ist das klassische Rollenmodell mit den Funktionen Data Owner und Data Steward auf operativer Ebene sowie den Leitungsfunktionen Data Board auf Teilkonzern-Ebene und dem Head of Global Data Governance auf Konzernebene.

In diesem Themenbereich liegt wahrscheinlich die höchste Sprengkraft, wenn das Datenmanagement in der Organisation verankert wird. Der Hauptgrund ist, dass die datenorientierte Organisation nicht der klassischen Linienorganisation der Fachbereiche entspricht. Der Einsatz von Business-Daten endet nicht an der Abteilungsgrenze von Sales, Finance oder HR. Die Daten werden vielmehr bereichsübergreifend in End-to-End-digitalisierten Prozessen genutzt und sollten daher auch von crossfunktional angesiedelten Datenexperten in einer Enterprise-Organisation verwaltet werden.

In einer mittleren bis großen Organisation lassen sich dabei heute nicht mehr alle Datenprozesse von einem einzigen zentralen Bereich stemmen. Datenexperten müssen stattdessen im gesamten Unternehmen verteilt sein und eng mit den Fachbereichen zusammenarbeiten. Deren Fachexpertise ist unbedingt nötig, um Daten hinsichtlich ihrer Wertschöpfung im Business und aus legaler Sicht korrekt zu beurteilen und sie optimal im Geschäftsprozess einzusetzen. Tatsächlich kann man bei vielen Unternehmen derzeit beobachten, dass vorhandene zentralisierte BI- oder Governance-Organisationen aufgebrochen werden, um sie breiter im Unternehmen anzulegen.

Orchestrierte Umsetzung auf Basis der Datenstrategie

Die operative Verankerung dieser Querschnittsfunktionen erfordert Durchsetzungskraft und Schulungen im gesamten Unternehmen, um ein unternehmensweites Bewusstsein für Daten als Wertschöpfungsfaktur aufzubauen und die nötige Akzeptanz für die datengetriebene Organisation im Tagesgeschäft zu erreichen. Hier geht es um nichts weniger als um einen echten Kulturwandel mit Blick auf die Daten, der am besten durch ein gezieltes Change Management begleitet wird.

Die datengetriebene Organisation ist nicht von heute auf morgen zu erreichen und Widerstände im Unternehmen sind absehbar. Die Datenstrategie ist jedoch ein sicheres Gerüst, zudem gibt sie die Roadmap für die schrittweise Umsetzung vor.

Im Rahmen der Datenstrategie können Unternehmen kleine Projekte angehen, in überschaubaren Schritten immer wieder Win-Effekte erzeugen und Mehrwerte liefern. Einzelinitiativen laufen auf dieser Basis orchestriert und ohne Redundanzen im Rahmen des entworfenen Big Picture.

Mein Tipp: Wenn Sie mehr über Datengetriebene Wertschöpfung und Datenstrategie wissen wollen, folgen Sie uns auf LinkedIn und Xing oder abonnieren Sie einfach unseren Newsletter. Oder kontaktieren Sie uns und schreiben Sie mir direkt über KONTAKT ich freue mich über den Austausch mit Ihnen! 

Massive Parallelität und das Lakehouse

Erstellt am: Mittwoch, 27. September 2023 von Anja Gorbach

Hinter einer massiv parallelen Architektur steckt das Prinzip, dass Daten nicht mehr nur auf einer Maschine liegen, sondern auf beliebig vielen.

Die Idee dahinter: Wollen mehrere Klienten auf die selben Daten zugreifen, werden die Daten entsprechend repliziert. Eine aktuelle massiv parallele Architektur ist das Lakehouse. Es verteilt die Daten nicht nur auf mehreren Maschinen, sondern erlaubt auch den direkten Zugriff auf die Daten. Voraussetzung dafür ist, dass die Klienten ihre eigene Rechenleistung beitragen. 

Jeder bringt seine Rechenleistung mit

In einem massiv parallelen System gibt es statt einer Datenbank, über die die gesamte Arbeit komplett mit teurer Rechenleistung abgewickelt wird, nur noch einen Data Lake als reinen und äußerst kostengünstigen Speicherplatz. In dieser neuen Architektur kann jeder Klient selbst in einem zentralen Register nach seinen Daten suchen und bringt die jeweils für die Abfrage notwendige Rechenleitung einfach mit. Daher verkraftet es das System sogar, wenn mehrere hundert Data Scientisten gleichzeitig darauf zugreifen.

In einem solchen Lakehouse können zudem problemlos polystrukturierte Daten gespeichert werden. Es stellt darüber hinaus mithilfe von Analytischen Tabellenformaten wie beispielsweise Apache Iceberg durchgängig sicher, dass diese stets konsistent sind. Auch wenn mehrere Klienten gleichzeitig auf dieselben Daten zugreifen, sie lesen oder ändern, besteht somit keine Gefahr eines korrupten Datenbestands. Zum Vergleich: Dies konnte der Bibliothekar nur garantieren, indem er darauf achtete, dass erst der eine liest und danach erst der andere eine Änderung vornimmt.

Für den Fall, dass ein Anwender nicht in der Lage ist, eigene Rechenleistung mitzubringen, oder Unterstützung für die Datenabfrage braucht, gibt es Dienste wie der des QUNIS-Partners Dremio. Sie stellen über eine Data Lake Engine bereits fertige Cluster zur Verfügung. Darüber kann beispielsweise ein Controller in seiner gewohnten Umgebung und auf einer anwenderfreundlichen Oberfläche so arbeiten, als würde er direkt auf die Datenbank zugreifen. Da diese Struktur ebenfalls massiv parallel aufgebaut ist, sind auch hier mehrere Zugriffe gleichzeitig möglich, ohne dass es zu Konflikten kommen kann.

Aus homogen wird heterogen

Die massive Parallelität geht unbestritten mit einer gewissen Komplexität einher. Vorher war die Welt homogen und dadurch relativ einfach: Es gab eine Lösung, eine Technologie, eine Datenbank und darüber ließen sich alle Probleme lösen. In massiv parallelen Strukturen hingegen muss sich jeder selbst um den Data Lake kümmern und zudem jedes Mal eigene Rechenleistung beisteuern.

Das kann man natürlich grundsätzlich als Nachteil ansehen. Heterogenität und Offenheit für unterschiedliche Technologien bieten aber auch Vorteile, wenn etwa mehrere Anwender im Zugriff auf dieselbe Datenbank problemlos völlig verschiedene Programmiersprachen nutzen können. In modernen datengetriebenen Unternehmen, in denen möglichst jeder Mitarbeiter mit Daten arbeiten soll, die in großer Zahl vorliegen, kommt man an einer solch hochskalierbaren Architektur ohnehin kaum mehr vorbei.

Die Cloud macht‘s erschwinglich 

Massiv parallele Datenarchitekturen und Datenbanken gibt es übrigens schon seit den 1990er Jahren. Allerdings handelte es sich damals noch um rein proprietäre und dadurch sehr teure Technologien. Als Gamechanger zeigte sich die Mitte der 2010er Jahre die Entwicklung nichtproprietärer Technologien mit offeneren Architekturen. Jedoch waren diese für die meisten Unternehmen damals noch nicht so wichtig, weil häufig nur eine kleine Abteilung überhaupt mit Daten gearbeitet hat und auch die Datenmenge noch nicht annähernd so hoch war wie heute.

In den letzten Jahren hat sich dies enorm gewandelt: Mittlerweile will nahezu jeder Unternehmensbereich permanent Zugriff auf alle Daten sowie eigene Datenprodukte erstellen, selbstständig veröffentlichen und mit anderen teilen. Durch den stetig steigenden Bedarf waren die alten Architekturen daher ab einem gewissen Punkt nicht mehr tragfähig. Mit der Ablösung der teuren proprietären Systeme durch moderne Cloud-Architekturen, ist die Einstiegshürde naturgemäß deutlich niedriger.

So kann man zum Beispiel über ein Cloud-basiertes Pay-as-you-go-Modell sehr komfortabel und dazu kostengünstig mächtige Technologien nutzen und muss nicht erst Millionen-Euro-Beträge in technologisch aufgerüstete Serverschränke investieren. Stattdessen greifen die Anwender einfach on-demand auf die Daten zu, wenn sie sie brauchen, fahren dann entsprechend die Rechenleistung hoch und zahlen auch nur genau dafür.

Mag die massive Parallelität als Konzept relativ statisch sein, ist doch der Markt überaus dynamisch. Das Konzept wird in allen Bereichen kontinuierlich weiterentwickelt – so entstehen immer wieder neue Angebote und damit spannende Möglichkeiten, die es bislang nicht gab und die die Unternehmen in Zeiten von Big Data gewinnbringend nutzen können.

Data Lakehouse mit dem Modern Data Stack

Auch SENEC als einer der führenden Solarstromspeicheranbieter in Deutschland setzt auf einen Modern Data Stack und hat zusammen mit QUNIS ein Data Lakehouse aufgesetzt.

  • Die IT-Architektur ist ein Data Lakehouse auf Basis von Azure Databricks, das Elemente eines Data Warehouse mit einem Data Lake in der zentralen Plattform kombiniert. Die mit einer Staging und Cleansing Area, dem Core und einem Data Mart angelegte Lakehouse-Architektur ist in der Lage, Funktionen von Streaming Analytics, BI und maschinellem Lernen auf einer einzigen Plattform bereitzustellen.
  • Als Datenquellen sind u.a. eine Time Series Datenbank, eine Log-Datenbank, diverse relationale Datenbanken, SharePoint und klassische Business Systeme wie ERP, CRM usw. eingebunden. Zur Integration und Orchestrierung der Daten sind die Open-Source-Lösungen Airbyte und Airflow auf Kubernetes im Einsatz, zur Transformation von Daten im Lakehouse die Open-Source-Software dbt. Mit der kontinuierlichen Umsetzung neuer Use Cases werden schrittweise weitere Datenquellen angebunden. Die Anwender greifen über Microsoft Power BI auf die aufbereiteten Daten zu.
  • Power BI ist als strategisches Frontend für alle User im Einsatz. Das vielseitige Frontend unterstützt und visualisiert verschiedenste Use Cases in den Bereichen Unternehmens- und Marktinformationen sowie Produkt- und Qualitätskontrolle. Derzeit arbeiten von rund 550 Mitarbeitenden in Leipzig ca. 150 Konsumenten und Power User mit der BI-Lösung. Die Anzahl von aktuell 10 Designern soll kontinuierlich erhöht werden.

Mein Tipp: Wenn Sie mehr über Data Lakehouse und Parallele Architekturen wissen wollen, folgen Sie uns auf LinkedIn und Xing oder abonnieren Sie einfach unseren Newsletter. Oder kontaktieren Sie uns und schreiben Sie mir direkt über KONTAKT ich freue mich über den Austausch mit Ihnen! 

Digital Workplaces, Data Literacy, Cloud, Data Catalogs und mehr – das bewegt die Data & Analytics-Welt

Erstellt am: Dienstag, 31. Mai 2022 von Monika Düsterhöft

Das Thema Data & Analytics hat deutlich an Fahrt aufgenommen: Die Initiale für Projekte und Initiativen sind dabei so vielfältig wie nie zuvor. Die Herausforderungen und Antworten darauf ebenso.

Viele Organisationen stellen sich aktuell IT-seitig komplett neu auf

Aus selbst definierten strategischen Gründen oder auch weil technische Erweiterungen von Softwareherstellern eine komplett neue Ausrichtung erfordern. Dabei wird kaum noch monolithisch alles einer einzigen, zentralen Strategie unter­geordnet. Stattdessen eröffnen sich heterogene Welten beispielsweise mit Cloud-Angeboten, Spezialapplikationen unter anderem für Product-Lifecycle-Management oder Firmendatenbanken wie etwa Produktinformationssysteme.

Diese Entwicklung erfordert angesichts der Vielfalt und Komplexität der Aufgaben im Kontext von Data & Analytics umso mehr feste Konzepte für das Stamm- und Metadaten-Management. Schließlich gilt es, jederzeit den Überblick zu bewahren und Transparenz zu gewährleisten.

Ebenso geht nicht erst seit, aber forciert durch Corona der Trend hin zum verteilten Arbeiten. Sogar Unternehmen, die sich vor nicht allzu langer Zeit noch dagegen gesperrt haben, stellen mittlerweile Digital Workplaces bereit. Auch hier spielt die Cloud eine zunehmend wichtige Rolle, um den mobilen Zugriff auf die Systeme etablieren und von der Infrastruktur her überhaupt ausrollen zu können. Über die Technologie hinaus erfordert dies vielfach neue Konzepte und Handlungsweisen.

Zudem betrifft die Digitalisierung die unterschiedlichsten Bereiche in einem Unternehmen – ob in der Kommunikation, im Vertrieb, dem Kundenservice oder der HR-Abteilung. Neben dem elementaren Organisationsmanagement, das die Struktur des „Gesamtkonstrukts Digitalisierung“ steuern und optimieren soll, benötigen diese Transformations- oder vielmehr Veränderungsprozesse immer auch ein gutes Change Management. Denn nicht nur die Prozesse müssen stimmen, sondern die Menschen dahinter müssen abgeholt und mitgenommen werden, um die veränderten Prozesse dauerhaft und erfolgreich im Unternehmen zu etablieren.

Damit einher geht auch der steigende Bedarf an Kompetenzen, dem sogenannten Upskilling. Die zunehmend digitalisierte Arbeitswelt erfordert abteilungsübergreifende Kompetenzerweiterungen; das gilt für den IT- und Technik-Bereich, aber auch in Marketing & Kommunikation und erstreckt sich ebenso über Anforderungen wie Mitarbeiterentwicklung, Problemlösungskompetenzen oder Konfliktmanagement bzw. Teamwork. Das alles muss bedacht und umgesetzt werden, da sonst Digitalisierungsinseln entstehen und ein Scheitern des ganzheitlichen Ansatzes vorprogrammiert ist.

Datenlandschaften gehören erweitert, sichere Zugänge gewährleistet

Immer bedeutender werden die sogenannten Digitalen Zwillinge oder auch Digital Twins. Dabei handelt es sich um digitale Nachbauten von physischen Objekten, Produkten und Services. Diese müssen in die Prozesslandschaften integriert werden, damit Simulationen und Forecasts rein digital stattfinden können – interessant ist dies beispielsweise für Produktentwicklung oder Qualitäts­management.

Die Daten als erfolgsentscheidendes Asset zu begreifen und entsprechend zu nutzen, bedeutet in der Konsequenz: Alle Mitarbeiter müssen im Sinne von Data Literacy (ein neu aufge­kommenes Buzzword) möglichst einfachen Zugang zu den Daten haben – und dies umso mehr an den Stellen, an denen sie Potenzial zu einem echten Mehrwert mitbringen. Das zu ermöglichen, zeigt sich als weiterer Treiber für Data & Analytics-Projekte.

Durch all dies zieht sich der effiziente und nachhaltige Schutz der Daten wie ein roter Faden. Dabei geht es sowohl um alltägliche Dinge wie Zugriffsrechte als auch um heikle Themen, Stichwort Cyber-Kriminalität. Hier stellt der Gesetzgeber teils klare Forderungen. Vor diesem Hintergrund sind deutlich strukturiertere Vorgehensweisen erforderlich, als sie bislang vielerorts praktiziert wurden.

Das gilt ganz speziell für das Umfeld von Data & Analytics, wo aus bloßen Daten wahre Daten­schätze entstehen und zu schützen sind. Gerade in Cloud-Umgebungen muss man genau hinsehen, wo genau und wie die Daten gespeichert werden und wer Zugriff darauf hat.

Datengetriebene Produkte und Services schüren Innovationskraft

Sah es noch vor einem Jahr n ganz anders aus, so werden heute bei uns viel mehr Add-Ons zu den Bestands­produkten, Erweiterungen zu bestehenden Devices oder auch Zusatzservices und Dienstleistungen nachgefragt. Dieser Trend zur Anbindung von Geräten zeigt sich auch im privaten Umfeld, wo sich mittlerweile der Kühlschrank, die Heizung, das Auto und anderes mehr problemlos mit dem Internet verbinden lassen.

Viele Unternehmen wollen darüber ihr bisheriges Business-Modell von Verkaufen auf Vermieten umstellen, um so neuen Marktanforderungen gerecht zu werden. Auch hier entstehen große Mengen an hochwertigen Daten, die in der Analytics-Welt gewinnbringend genutzt werden können. Ein Beispiel von vielen: In unseren Kundenprojekten nehmen wir verstärkt einen Trend zur Produktindividualisierung wahr.

Hierfür stehen die Organisationen jedoch vor der Herausforderung, möglichst genau zu wissen, an welcher Stelle sie mit der Individualisierung ansetzen können und inwieweit dies überhaupt lohnenswert ist. Die notwendigen Daten dafür liefern Data & Analytics.

Technologie wird zum Service

Es zeichnet sich ganz allgemein eine Entwicklung dahingehend ab, dass die technologischen Konzepte, die in den vergangenen zehn bis fünfzehn Jahren gut funktioniert haben, in unseren zunehmend dynamischen Zeiten an ihr Limit stoßen: Aktuelle Herausforderungen erfordern moderne und innovative Methoden und Werkzeuge. Unternehmen müssen daher konkrete Über­legungen über ihre künftige Ausrichtung anstellen.

In diesem Kontext wird Technologie zum Service. So gehen derzeit zwischen 70 und 80 Prozent aller neu begonnenen Projekte von QUNIS in Richtung Cloud-orientierter Nutzung von Services. Die Organisationen bauen nicht mehr inhouse Technologien auf, sondern verwenden teils komplette Softwarelösungen verschiedener Cloud-Anbieter als Managed Services. Dabei wird je nach Anwendungsfall sehr häufig auch auf hybride Architekturen gesetzt, bestehend aus der Kombination von Cloud- und On-Premise-Systemen.

Generell jedoch ist festzustellen, dass Cloud-Architekturen nicht mehr nur auf dem Vormarsch sind, sondern speziell in der Data & Analytics-Welt sogar überwiegen.

Oft nämlich könnten die Unternehmen die angebotenen Services gar nicht eigenständig betreiben, weil ihnen die erforder­lichen Ressourcen und das entsprechende Know-how für die teils sehr komplexen Technologien fehlen. War es beispielsweise in früheren Zeiten noch mit dem Aufbau eines kleinen Data Ware­houses getan, sind heute deutlich mehr Spezialtechnologien notwendig wie etwa Machine-Learning-Algorithmen.

Immer mehr Daten werden in zunehmend mehr Anwendungsfällen verarbeitet. Aufgrund dessen wird eine nochmals verbessere Usability für die Nutzer mit möglichst niedrigen Eintritts­hürden schlichtweg erfolgsentscheidend bei der Anwendung der unterschiedlichen Technologie­produkte.

Hier bewähren sich Business-Glossars und Data Catalogs, mit denen sich die zunehmenden Datenvolumina automatisiert ordnen und vereinheitlichen lassen. Metadaten-Management-Lösungen können dabei helfen, mit den Daten und modellierten Inhalten besser und unkomplizierter zu arbeiten.

Data & Analytics wächst und weitet sich aus

Branchenübergreifend zeigt sich, dass Organisationen fachlich gesehen mit immer heterogeneren Datenformaten umzugehen haben, um daraus ihre Erkenntnisse zu gewinnen. Dazu zählen im Kontext von Data & Analytics beispielsweise Sensordaten und Texte, aber auch Bild- und Audio-Material.

Gleichzeitig werden die Anwendungsfälle tendenziell businesskritischer. Bislang beispielsweise war ein kurzfristiger Ausfall des BI-Systems nicht sonderlich problematisch, weil es nicht direkt relevant für die operative Ebene war, sondern lediglich steuernd und informativ. Heute hingegen greifen wir hierüber in Echtzeit tief in die Prozesse hinein und generieren Erkenntnis­gewinne für die operative Steuerung etwa von Produktions- oder Logistikprozessen oder hinsichtlich der Up- und Cross-Selling-Potenziale von Webshops.

Zudem verzeichnen wir stetig komplexere Self-Service-Anforderungen. Die Nutzer möchten etwa nicht mehr nur schnell ein einfaches Dashboard selbst bauen. Sie fordern vielmehr techno­logische Strukturen, um über den Self-Service-Ansatz beispielsweise Massendaten selbstständig auswerten zu können. Da es ihnen hierbei jedoch an der jahrelangen Erfahrung echter Experten mangelt, entsteht entsprechender Anleitungsbedarf – dabei müssen Standardisierung und Harmoni­sierung natürlich jederzeit gewährleistet bleiben.

Wahl der Plattform wird zweitrangig

Bei der Wahl der Infrastruktur gibt es für Unternehmen verschiedene Optionen: On-Premise, Public Cloud in Form von PaaS und SaaS oder Container-Strategien. Häufig nutzen Unternehmen auch eine Multi-Cloud-Strategie mit mehr als nur einem Hyperscaler. Eine wichtige Rolle spielt hier die Portierbarkeit, damit zu jeder Zeit die Flexibilität erhalten bleibt, den Cloud-Anbieter gegebenenfalls problemlos wechseln zu können. Alternativ entscheiden Organisationen sich von vornherein für eine hybride Lösung aus Cloud und On-Premise.

Nicht zuletzt wird die Rolle von Open-Source-Technologie zunehmend bedeutender. In der klassischen BI-Welt weniger eingesetzt, kommt sie im Umfeld von Streaming, Big Data, Machine Learning sowie bei Prozessen auf Basis von Massendaten jetzt verstärkter zum Einsatz – mit dem Potenzial, den Markt nahezu zu dominieren.

Data Management Units zur Umsetzung Ihrer Datenarchitektur 

Das Thema Architektur und wie sich Architekturen verändern kann man derzeit als klaren Trend am Markt erkennen. In diesem Zusammenhang bieten wir bei QUNIS je nach der Zielsetzung, die Unternehmen mit ihrer jeweiligen Data & Analytics-Strategie verfolgen, sogenannte Data Management Units (DM Units) an. Diese bilden das Herzstück der Datenverarbeitung und -speicherung bei Data & Analytics-Initiativen.

Mit Self-Service-BI, Data Warehouse, Data Warehouse & Data Lake, Lakehouse und Streaming stehen insgesamt fünf DM Units mit einem jeweils unterschiedlichen Leistungsspektrum zur Verfügung.

Welche DM Unit für ein Unternehmen infrage kommt, hängt dabei immer von der Ausrichtung der künftigen Architektur ab. Die Entscheidung darüber sollte stets vorab getroffen werden, weil sich etwa die eher pragmatische Variante Self-Service-BI im Nachhinein nicht so schnell in ein komplexeres Lakehouse umwandeln lässt. Mit verschiedenen Add-Ons lassen sich die zentrale Datenspeicherung und -verarbeitung der DM Units modular um zusätzliche Funktionen erweitern. In jedem Fall notwendig sind Visualization & Reporting, Monitoring und Process Control, hinzu kommen optionale, teils kombinierbare Add-Ons wie beispielsweise für API, Virtualisierung oder Metadaten-Management wählbar.

Ihr Thema ist mit dabei? Sie haben sich und Ihre aktuellen Herausforderungen widererkannt und wünschen sich dafür Beratung und Begleitung von QUNIS und unseren Experten?

Sprechen Sie einfach Ihren QUNIS-Berater*in an oder schreiben Sie direkt eine E-Mail an team@qunis.de und verraten Sie uns ein wenig mehr zu Ihrer Motivation, Ihren Zielen und Vorhaben. Wir freuen uns auf den Austausch und die Diskussion mit Ihnen.

Modern Data Worker: Wer sie sind, wie sie sich unterscheiden, was sie antreibt?

Erstellt am: Montag, 17. Januar 2022 von Monika Düsterhöft

Nicht nur die Menge und Verfügbarkeit von Daten, auch das Thema Datenarbeit und die Aufgaben, die sich drumherum ranken, haben sich in den letzten Jahren rasant verändert und weiterentwickelt.

Zu den Experten und Spezialistinnen für Business Intelligence (BI), die vor allem in den Finance & Controlling-Abteilungen, bei Software-Anbietern und Beratungshäusern zu finden waren und die von jeher das Thema Data Management besetzt hatten, sind mit dem unternehmensweiten Einzug von Digitalisierung, Big Data, Cloud-Services sowie der Demokratisierung von Daten neue Anforderungen und Bedarfe hinzugekommen.

Neue Aufgaben, Rollen und Berufsbilder haben sich herausgebildet und die Data Scientisten, Data Architekten und Data Engineers sind auf der Bildfläche erschienen.

Allen gemein ist zunächst das Interesse an und die Arbeit mit Daten – aber was genau ist ihr Ziel, was macht sie speziell, was macht sie glücklich und mit welchen Technologien und Methoden arbeiten sie? Wie funktionieren sie zusammen und wo unterscheiden sie sich? Nachfolgend haben wir eine kleine Einordnung für Sie zusammengestellt. Diese soll helfen, die verschiedenen Disziplinen der Modern Data Worker ein wenig besser zu verstehen:

1. BI & Data Manager

BI steht für Business Intelligence und das wiederum steht für Geschäftsanalytik. Kurzum: die systematische Analyse von verfügbaren, meist in strukturierter Form vorliegender Unternehmensdaten. Ziel dabei ist es, möglichst optimale Entscheidungen für das Unternehmen treffen zu können bzw. die Entscheidungsprozesse bestmöglich mit Erkenntnissen aus Daten zu unterstützen sowie Geschäftsabläufe, Kunden- und Lieferantenbeziehungen zu verbessern.

Ein BI & Data Manager legt die Grundlage dafür, in dem verschiedenste Datenquellen angebunden und die relevanten Daten in ein Data Warehouse bzw. einen Data Lake integriert werden. Dafür müssen Schnittstellen zu den unterschiedlichen Datenquellsystemen geschaffen, Daten miteinander verknüpft und formatiert sowie schrittweise veredelt werden.

Ein weiterer zentraler Aspekt ist die Umsetzung der übergreifenden Geschäftslogik, damit die Daten am Ende auch in einer einheitlichen und vergleichbaren Form vorliegen. Dies können unterschiedlichste Logiken sein wie z. B. die Historisierung von Daten, Datenqualitätsprüfungen oder eine einheitliche Währungsumrechnung. Ein Data Manager liefert mit dem Aufbau und der Bereitstellung von logischen Datenmodellen das zentrale Fundament für darauf aufbauende Reports, Dashboards oder weiterführende Analysen.

Im Bereich des Information Designs werden die bereitgestellten Daten mit einem geeigneten Frontend-Werkzeug wie beispielsweise Excel, Power BI, Pyramid Analytics oder vergleichbaren Tools visualisiert und je nach Zielgruppe entsprechend aufbereitet. Hier spielt die Art und Weise der Darstellung eine zentrale Rolle, Standards für die Visualisierung und fokussiertes Data Storytelling sind in dieser Disziplin entscheidende Erfolgsfaktoren.

Ein BI & Data Manager liebt Daten und deren Aufbereitung bis zur passenden Visualisierung. In diesen Bereichen fühlt er sich wohl und löst so manche Knobelaufgabe, wenn es darum geht, wie man bestmöglich die Daten für Endanwender, Power User oder Analysten vorbereiten und bereitstellen kann.

2. Data Scientists

Während die BI-Welt auf sauber aufbereiteten, tabellarisch strukturierten Daten fußt, geht es in der Data-Science-Disziplin etwas wilder zu. Hier werden analytische Applikationen entwickelt, indem entsprechende Technologien wie u. a. Machine Learning oder Data-Science-Plattformen eingesetzt werden. Zudem ist ein tiefes Prozessverständnis erforderlich, damit die Anforderungen der Fachanwender an die Analyseergebnisse auch interpretiert werden können.

Vor einem Data Scientist sind auch unaufbereitete, untabellarische, unstrukturierte Daten nicht sicher: Data Scientists werten nicht nur strukturierte Tabellen aus, sondern auch Fotos, Texte, Videos und Sprachnachrichten. Dafür ist es häufig erforderlich, diese heterogenen Datenbestände vor- bzw. aufzubereiten. Um eine grundlegende Struktur in die Daten zu bekommen, nutzen sie mathematische bzw. statistische Algorithmen, Verfahren zum Clustern der Daten und zum Erkennen von Anomalien.

Data Scientists adaptieren die neuesten Verfahren zur Datenauswertung, sie arbeiten in Python und R und bauen dabei vor allem auf die Open-Source-Welt; Docker, Kubernetes, Tensorflow und github sind aus ihrem Arbeitsalltag nicht wegzudenken. Data Scientists arbeiten sehr eng mit Data Engineers zusammen. Diese kümmern sich um die gesamte Dateninfrastruktur, damit die Data Scientists ihre komplizierten Berechnungen und Datenauswertungen realisieren können.

3. Data Architects

Bevor ein Data Engineer die Dateninfrastruktur jedoch erstellen kann, sollte ein Data Architect sie konzipieren. Das kann man sich so vorstellen wie beim Hausbau: Architekten planen hier zunächst, wie ein Haus gebaut oder umgebaut werden soll. Sie berücksichtigen dabei technische, wirtschaftliche, funktionale und gestalterische Aspekte und sind dafür zuständig, dass am Ende alles zusammenpasst und das Haus nicht einstürzt. Data Architects sind ihre Pendants in der IT-Landschaft.

Ein Data Architect ist für die Gesamtarchitektur einer Datenplattform verantwortlich – insbesondere dann, wenn komplexere Strukturen aufgebaut werden müssen. Dazu gehören die Definition und Anwendung von Architekturrichtlinien und Methoden sowie der Aufbau von Leitlinien für die Systemarchitektur und die damit verbundenen Einsatzbereiche von entsprechenden Technologien.

Diese komplexeren Strukturen fangen meist da an, wo die klassische BI-Welt aufhört – wo Big Data anfängt: dort, wo Daten in Echtzeit verarbeitet werden müssen, dort, wo unstrukturierte Daten verarbeitet werden und dort, wo hoch frequentierte Daten in kurzer Zeit verarbeitet werden. Beim Einsatz von Sensoren, die in Sekundenabständen Daten erzeugen, entstehen beispielsweise hochfrequentierte Daten. Müssen diese Daten noch in real-time – also sofort, in Echtzeit verarbeitet werden, dann erhöht sich die Komplexität zusätzlich.

Der Einsatz von Algorithmen oder anderer Analyseverfahren, wie etwa im Data-Science-Bereich, erfordert beispielsweise punktuell sehr hohe Rechenpower über einen begrenzten Zeitraum. Hier kommt dann auch die Infrastruktur mit ins Spiel, die den unterschiedlichen Anforderungen der verschiedenen Disziplinen gerecht werden muss. Die Vielfalt der technologischen Möglichkeiten, insbesondere im Cloud-Umfeld, stellen hohe Anforderungen an die Datenarchitektur. Ein Data Architect stellt sicher, dass die geforderten Anwendungsszenarien mit der angedachten Architektur und den dafür vorgesehenen Technologien umgesetzt werden können.

4. Data Engineers

Ein Data Engineer ist ein Spezialist für Datenmanagement insbesondere im Big-Data-Umfeld. Seine Arbeit umfasst die Konzeption und Implementierung von Datenintegrations- und Transformationsprozessen zur Unterstützung datengetriebener Use Cases und Data-Science-Projekte, damit eine bestmögliche Datenvorbereitung ermöglicht wird. In diesem Zusammenhang legen Data Engineers den Fokus auf die Entwicklung von analyseoptimierten Datenarchitekturen.

Data Engineers und Data Scientists arbeiten oft eng zusammen, wobei der Fokus des Data Engineers darauf liegt, Daten aus unterschiedlichsten Quellen und Formaten aufzubereiten, zu organisieren und die erforderlichen Datenpipelines aufzubauen sowie diese zu betreiben. Data Engineers arbeiten somit an der Schnittstelle zwischen Infrastruktur und Datenmanagement, überwachen Datenquellen und steuern Integrationsprozesse sowie die Instanzen, die für die Analyse und Weiterverwendung der generierten Daten zuständig sind.

In dem Sinne ist ein Data Engineer für alle Prozesse rund um das Generieren, Speichern, Pflegen, Aufbereiten, Anreichern und Weitergeben von Daten verantwortlich. Zudem ist für einen Data Engineer von hoher Bedeutung, dass die bereitgestellten Lösungen performant laufen und kontinuierlich optimiert werden. Über ein entsprechendes Monitoring hat ein Data Engineer alles im Blick.

Eng verknüpft mit Big Data, ist die Disziplin des Data Engineering noch vergleichsweise jung und stetig in der Weiterentwicklung. Data Engineers müssen sich daher stets am technischen Fortschritt orientieren, um der Entwicklung nicht hinterherzuhängen und sich in neue Frameworks, Konzepte und Technologien einarbeiten.

Mit Strategie, Roadmap, klaren Visualisierungskonzepten sowie der bewussten Verankerung in der Organisation ans Ziel

Damit datengetriebene Lösungen entstehen und nachhaltig funktionieren, sind weitere Rollen und Disziplinen gefordert und arbeiten mit den Modern Data Workern Hand in Hand. Gerne erzählen wir Ihnen auch dazu mehr. Sprechen Sie einfach Ihren QUNIS-Berater*in an oder schreiben Sie direkt eine E-Mail an team@qunis.de und verraten Sie uns ein wenig mehr zu Ihrer Motivation, Ihren Zielen und Vorhaben. Wir freuen uns auf den Austausch mit Ihnen.

Neues Start-up ergänzt das QUNIS-Firmennetzwerk

Erstellt am: Mittwoch, 24. November 2021 von Monika Düsterhöft

Sein Name ist TEQWERK – sein Programm ist Cloud Computing

TEQWERK, von Hermann Hebben und Steffen Vierkorn gemeinsam mit Christopher Heid gegründet, ergänzt das Netzwerk rund um QUNIS ab sofort mit einem auf Cloud Computing fokussierten Expertenhaus. Für Christopher Heid, der zuvor als Cloud Solution Architect bei QUNIS tätig war und dort vor allem das Cloud-Infrastruktur-Geschäftsfeld mit entwickelt und aufgebaut hat, erfüllt sich mit TEQWERK ein Traum und die Vision, Cloud Computing nicht als Nische, sondern als Gesamtauftrag zu leben.

 Ich bin davon überzeugt, dass die Cloud mehr kann, als sie momentan in vielen Unternehmen darf. Denn die Cloud ist das Fundament für die Digitalisierung von Unternehmensprozessen und Produkten. Bei richtigem Einsatz erhöht sie – entgegen weit verbreiteter Gerüchte – die Sicherheit und den Datenschutz und kann gleichzeitig zu signifikanten Kosteneinsparungen führen. 

Christoper Heid,
bekennender Cloud-Native-Verfechter
und Geschäftsführer von TEQWERK


Vom Mittelständler bis hin zum Konzern: TEQWERK begleitet Unternehmen auf ihrer Reise in eine moderne IT-Infrastruktur

Vom kurzfristigen Helfer bis zur langfristigen Cloud-Strategie, der Applikationsmigration und dem digitalen Arbeitsplatz, sprich Lösungen für eine digitale und vernetzte Zusammenarbeit innerhalb des Unternehmens: Das TEQWERK-Team unterstützt seine Kunden ganzheitlich bei allen Cloud-Initiativen unter anderem mit folgenden Services:

  • Cloud-Strategie-Entwicklung unter Einbezug aller relevanten, technischen und organisatorischen Aspekte.
  • Cloud-native-Lösungen für bestehende und neue Anwendungen.
  • Effektiver Schutz vor Cyber-Angriffen mit Zero Trust und künstlicher Intelligenz.
  • Digitale Arbeitsplätze aus der Cloud für ein modernes und vernetztes Arbeiten.
  • Training & Coaching für langfristige Projekterfolge und die Verankerung des Betriebsmodells in der Organisation.
  • Managed-Cloud-Lösungen für maximalen Komfort und bestmögliche Sicherheit zu kalkulierbaren Kosten.

 

Konkrete Unterstützung für ganzheitliche Cloud-Initiativen

Viele Unternehmen sind die letzten Jahre mehr oder weniger planlos in die Cloud gestartet. Dadurch sind oftmals Insellösungen mit verschiedensten Zugängen und ohne standardisierte Sicherheitsrichtlinien oder Transparenz über die Datenspeicherorte entstanden. Die Lösungen skalieren entgegen der Erwartung nicht und sind verwaltungstechnisch oftmals ein Chaos. Anstelle weniger ist die Verwaltung sogar oftmals aufwändiger geworden. TEQWERK fängt diese Inseln basierend auf seinem Cloud Adoption Framework ein und etabliert ein Cloud-Betriebsmodell. So kann die Cloud ihre Stärken entwickeln und wirklich Spaß machen.

Oftmals können IT-Organisationen auch einfach mit ihrer On-Premise-Welt nicht mit der Geschwindigkeit mithalten, die die Fachbereiche fordern. In der Folge wird die Enterprise-IT per Kreditkarte umgangen und der Fachbereich bezieht seine Cloud-Dienste selbst. TEQWERK setzt hier ein den Bedürfnissen entsprechendes Cloud-Fundament auf und coacht IT-Organisation Schritt für Schritt in die Cloud.

Zudem wird in den Unternehmen nicht selten schwarz-weiß gedacht: Entweder die Cloud ist toll oder schrecklich, dazwischen gibt es häufig nicht viel. TEQWERK entwickelt mit seinen Kunden eine Cloud-Strategie, die den individuellen Anforderungen Rechnung trägt, damit sich für vertrauenswürdige Anbieter die Tür öffnet und unsichere Cloud-Angebote ausgeschlossen werden können.

Unternehmen, die sich der Cloud in Gänze verschließen, schneiden sich damit auch den Zugang zu Innovationen ab. Mit dem Cloud Discovery Workshop zeigt TEQWERK auf, welches Potenzial in der Cloud schlummert und wie ein Wandel von No-Cloud zu Cloud-ready gelingen kann.

Welcher Hyperscaler, ob Amazon, Google oder Microsoft, schlussendlich zum Einsatz kommt, ist für den Projekterfolg nicht entscheidend

Für eine erfolgreiche Cloud-Initiative stehen bei TEQWERK die sonst leider noch viel zu oft außen vor gelassenen Fragestellungen zu Nutzen, Aufwand und Zielen an erster Stelle. Hat man hier ein klares Bild entwickelt, wird die zweite Stufe gezündet und die operative Cloud-Journey mit TEQWERK gestartet. Basis dafür bilden Blueprints, erprobte Cloud-Architekturen sowie Best-Practises im Umgang mit der Cloud. Das Ziel ist die Schaffung einer werthaltigen Lösung, damit IT-Organisationen das Cloud-Potenzial erkennen und nachhaltig für ihr Unternehmen heben.

Lust auf mehr Cloud?

Mehr zu TEQWERK, den  Angeboten und Kompetenzen finden Sie auf der TEQWERK HOMEPAGE

Moderne Data & Analytics-Vorhaben fordern Cloud-Basis-Know-how beim Kunden

Erstellt am: Donnerstag, 13. Mai 2021 von Monika Düsterhöft

Die Cloud bietet umfassende Vorteile für BI und Advanced Analytics

Die Cloud gewinnt immer mehr an Bedeutung. Nicht nur als Möglichkeit für den generellen Aufbau von IT-Architekturen und Business-Modellen, sondern auch ganz konkret bei der Umsetzung von BI- und Advanced-Analytics-Projekten. Denn die Cloud bietet viele unschlagbare Vorteile. Diese liegen zum einen im Bereich der Kostenersparnis und Kostenkontrolle: Bezahlt wird nur, was tatsächlich an Leistung verbraucht wird, die Abrechnung erfolgt nach dem “Pay as you go”-Prinzip, es fallen keine Vorabkosten an und Investitionsausgaben für längerfristige Anlagegüter (CapEx) werden reduziert.

Zum anderen – und dies ist auch besonders für die Abbildung von Advanced-Analytics-Szenarien interessant – erlauben Cloud-Architekturen eine bedarfsgerechte Skalierung und damit die schnelle Bereitstellung passgenauer Infrastrukturen. Dank tiefer Integration in DevOps-Prozesse lassen sich zudem Entwicklungszyklen verkürzen, darüber hinaus können robuste Architekturen mit zum Beispiel Redundanzen in mehreren Regionen und Rechenzentren auf einfache Art und Weise sowie mit äußerst überschaubarem Administrationsaufwand realisiert werden. Zunehmend mehr Unternehmen erkennen diese Vorteile und sehen, was mit Cloud-Architekturen gerade auch für BI- und Analytics-Vorhaben möglich ist.

Die Stimmung ist positiv, birgt jedoch auch Herausforderungen 

Wir bei QUNIS erleben es täglich in unseren Projekten. So gut wie all unsere Kunden haben sich bereits mit dem Thema Cloud beschäftigt – und sei es nur gedanklich. Sie sind offener denn je für den Einsatz der neuen Technologien und Use Cases, bei denen Big Data oder Streaming Data in die Analysen miteinbezogen werden, sind in der Zwischenzeit zur Realität geworden. Hinzu kommt, dass BI- und Analytics-Projekte oftmals aufgrund ihrer Spezifika als „Leuchtturm“-Initiativen gelten. Und nicht selten handelt es sich dabei auch um das erste Projekt im Unternehmen, das ganz bewusst in der Cloud umgesetzt werden soll.

Eine Herausforderung, die sich daraus ergibt und die wir aktuell beobachten: Fragen zum Cloud-Konzept und damit zu Aspekten wie Networking, Monitoring, Deployment, Governance und Compliance, aber auch zur Technologie selbst, werden in BI- und Analytics-Projekten oft zum allerersten Mal gestellt und müssen erst grundlegend geklärt werden. Ein großer Teil der Projektaufwände entfällt also auf Themen, die nicht Kern des eigentlichen Projektes sind. Und Aspekte wie Cloud-Einarbeitung, -Know-how-Transfer und -Konzept-Erstellung wirken sich bemerkbar auf Timeline, Budget und Qualität des eigentlichen Projektes aus, da sich  „Nebenkriegsschauplätze“ ausbilden, die nicht originär mit den fachlichen Anforderungen in Zusammenhang stehen.

Wir versorgen Projekt-Teams mit notwendigem Cloud-Know-how

Die Erkenntnis, dass das notwendige Cloud-Basis-Know-how in Unternehmen oft nicht ausreichend vorhanden ist, aber für die zielgerichtete Umsetzung von BI- und Analytics-Projekten immer essenzieller und dringender notwendig wird, hat uns dazu bewogen, ein entsprechend fokussiertes Schulungsprogramm zu entwickeln:

Mit der dreitägigen und aus sechs Modulen bestehenden Schulung „Modern Data Management & Analytics on Microsoft Azure“ wollen wir Unternehmen, die eine Lösung in der Cloud planen, dabei unterstützen, sich das geforderte Cloud-Know-how bereits vor Projektbeginn anzueignen. Zugleich regen wir im Rahmen der Schulung dazu an, sich Gedanken über den Cloud-Reifegrad des eigenen Unternehmens zu machen. So möchten wir unsere Teilnehmer dazu befähigen, die notwendigen Themen zu identifizieren und intern zu adressieren.

Denn eine moderne, ganzheitliche BI-Lösung in der Cloud besteht aus deutlich mehr Komponenten als ein klassisches Data Warehouse (DWH) On-Premise. Die Auswahl der richtigen Komponenten und der Aufbau einer ganzheitlichen Architektur stellen dabei eine besondere Herausforderung dar. In unserer Schulung stellen wir dafür Azure-Komponenten aus verschiedenen Bereichen vor, vergleichen ähnliche Angebote miteinander und ordnen die einzelnen Komponenten den diversen Bereichen einer BI-Lösung zu.

Facettenreiche Schulungsinhalte geben fundierten Überblick zu Azure

Im Rahmen der Schulung gehen wir auf Komponenten für eine relationale DWH-Architektur in der Cloud genauso ein wie auf die Komponenten für Big-Data- und Streaming-Use-Cases und zeigen auf, wie sie in eine klassische DWH-Architektur integriert werden können, um diese sinnvoll zu ergänzen.

Wir befassen uns einerseits mit Möglichkeiten des „Lift & Shift“, bei denen bestehende Applikationen und Pipelines direkt in die Cloud übertragen werden können. Andererseits diskutieren wir auch Cloud-optimierte, also „Cloud-Optimized“-Konzepte, die verstärkt Cloud-native Funktionen wie “Serverless Computing“ und „Platform as a Service“ verwenden. Teilnehmer erhalten eine Übersicht der skalierbaren Cloud-Komponenten zur Umsetzung des Modern DWH in Azure. Die Schwerpunkte liegen auf

  • Extraktion und Datenflusssteuerung (Azure Data Factory, Event Hub – Kafka der Cloud)
  • Transformation und Compute (Azure Databricks – Apache Spark, Azure Functions – Serverless Computing, “Code First”, Azure Logic Apps – Serveless Computing, “Design First”, Azure SSIS integration runtime)
  • Speicherung und Storage (Blob und File-Storage, Azure Data Lake Storage Gen2, Azure Synapse Analytics)
  • Analyse und Bereitstellung der Daten (Polybase – „Logical Data Warehouse“) und Azure Analysis Services (Power BI).

Reine Data-Science-Anforderungen und -Projekte lassen sich zudem in jeder Größenordnung sehr gut und auch vollständig in der Cloud abbilden. Gerade die einfache und bedarfsgenaue Skalierbarkeit von Rechnerressourcen ist dabei ein immenser Vorteil gegenüber einer On-Premise-Lösung. In unserer Schulung stellen wir die verschiedenen Möglichkeiten zur Durchführung von Advanced-Analytics-Use-Cases vor.

  • So erlaubt die umfassende grafische Analytics-Umgebung „Azure Machine Learning Studio“, komplexeste Algorithmen vollständig ohne eigene Programmierung zur Anwendung zu bringen. Die gute Integration der mächtigen und skalierbaren Databricks-Umgebung ermöglicht es, analytische Modelle auf Big Data mit Apache Spark anzuwenden. Deshalb wird das System oft als Schweizer Taschenmesser der Big-Data-Datenverarbeitung bezeichnet.
  • Bei Apache Spark handelt es sich um ein einheitliches In-Memory-Big-Data-System, das bestens für die performante und parallele Verarbeitung von enormen Datenmengen geeignet ist. Apache Spark verarbeitet die Daten im Arbeitsspeicher und versucht das Schreiben auf eine Festplatte zu vermeiden. Databricks basiert auf den in Apache Spark verfügbaren Funktionen und übernimmt die komplette Verwaltung des Spark-Clusters.
  • Daneben lernen Sie die „Cognitive Services“ kennen mit fertig trainierten Anwendungen von Bild- über Sprach- oder Formularerkennung, die als Komponente in Ihre Use-Cases integriert werden können. Und wir stellen Ihnen die vorkonfigurierte „Data Science Virtual Machine“ bereit als Allzweckwerkzeug für eine kurzfristig verfügbare Entwicklungsumgebung.

Auch für die Operationalisierung von Use-Cases bietet Ihnen die Cloud vielfältige Möglichkeiten, um mit bereits geringem Konfigurationsaufwand zum produktiven Setup zu gelangen ¬– egal, ob Sie trainierte Modelle als Pipeline im Azure Machine Learning Studio anwenden und per API bereitstellen oder eigene containerbasierte Anwendungen im Kubernetes Cluster orchestrieren.

Kompaktes Wissen und Use Cases aus der Praxis

Mit dem QUNIS-Schulungsangebot „Modern Data Management & Analytics on Microsoft Azure“ ist es unser Ziel, unsere Teilnehmer bestmöglich auf die ersten Schritte mit der Cloud-Technologie Microsoft Azure im eigenen Unternehmen vorzubereiten. Wir veranschaulichen alle Themen durch Use Cases aus der Praxis und vermitteln in Live-Demos einen tieferen Einblick in die verschiedenen Technologien.

Nach der Schulung sind Sie ausgestattet mit einer breiten Wissensgrundlage und fähig, fundierte Cloud-Entscheidungen für Ihr Projekt treffen.

Mein Tipp: Hier finden Sie eine detaillierte Beschreibung der Schulung und aktuelle Termine. Sollten Sie eine individuelle Schulung für Ihr Unternehmen wünschen, sprechen Sie uns einfach an, wir beraten Sie gerne und unterbreiten Ihnen ein entsprechend auf Ihre Bedarfe zugeschnittenes Angebot. KONTAKT

Fachkonzeption… muss das sein?

Erstellt am: Mittwoch, 7. April 2021 von Monika Düsterhöft

Die Vielfalt an technischen Möglichkeiten sowie das Streben nach pragmatisch schnellen Ergebnissen verleiten gerne dazu, die Fachkonzeption zu vergessen. Sollten Sie aber nicht!

Bei der Umsetzung von Data & Analytics-Projekten befinden sich Organisationen häufig im Spannungsfeld zwischen einerseits einer hohen Erwartungshaltung der potenziellen Anwender, geweckt durch die Vielzahl an technischen Möglichkeiten und der Leistungsfähigkeit am Markt erhältlicher Produkte, und andererseits dem eigenen Bestreben, Projekte schnell zum Erfolg zu führen.

Die erfolgsentscheidende fachliche Konzeption und Definition der umzusetzenden Anforderungen kommt dabei oftmals zu kurz und Lösungen werden zu pragmatisch realisiert. Damit die wichtige Phase der fachlichen Konzeption nicht unter den Tisch und ihr Fehlen Ihnen nachträglich vor die Füße fällt, habe ich für Sie, basierend auf unserer Projekterfahrung, eine Liste mit hilfreichen Hinweisen zusammengestellt.

Die folgenden acht Punkte geben Ihnen eine Orientierung, wie Sie beim Erstellen einer Fachkonzeption vorgehen und auf was Sie achten sollten.

1. Anwendungsfälle nutzenorientiert definieren

Anwendungsfälle benötigen eine strukturierte Beschreibung und klare Zielsetzung. Neben einer fachlichen Beschreibung der fachlichen Anforderungen, den Voraussetzungen für die Umsetzung sowie die benötigten Daten und deren Herkunft, müssen vor allem die Ziele inklusive der damit verbundenen Nutzenfaktoren beschrieben sein und diesen die erwarteten Aufwände gegenübergestellt werden.

Somit wird die Priorisierung von Use Cases erheblich unterstützt bzw. erleichtert sowie die Basis geschaffen für eine spätere Analyse der Nachhaltigkeit bzw. des tatsächlich erreichten Business Nutzens.

2. Umfang von Anwendungsfällen für Data & Analytics festlegen

Eine Zielrichtung für Data & Analytics-Initiativen ist essenziell, um wichtige Basisparameter und Fragestellung für das Projekt zu definieren. Von daher sollten die geplanten Einsatzbereiche und angestrebten Lösungen abgesteckt, grob priorisiert und auf einer Roadmap festgehalten werden.

3. Zentrale Themen ganzheitlich betrachten

Beim Aufbau einer Data & Analytics-Landschaft und der Umsetzung der verschiedenen Szenarien gibt es übergreifende Themengebiete mit zentraler Bedeutung, die einheitlich und zu Beginn des ersten Anwendungsfalles für alle weiteren mit definiert werden sollten.

Dazu zählen unter anderem:

  • Infrastrukturfragestellungen
  • Security- und Zugriffskonzepte
  • Anforderungen an die Datenharmonisierung
  • Datenqualität und -hoheit in Abstimmung mit den Quellsystemen

4. Mit kleinen Schritten starten

Erste Anwendungsfälle sollten keinesfalls zu groß dimensioniert werden. Gerade für den Einstieg in Data & Analytics-Projekte ist es wichtig, Pilotprojekte überschaubar zu definieren, damit Ergebnisse und damit verbundene Erfolge sichtbar bzw. Nutzenvorteile in der Organisation spürbar werden. Nicht zu unterschätzen ist neben den ersten spürbaren Ergebnissen auch eine Lernkurve, die das gesamte involvierte Team durchschreitet.

5. Fachliche Feinkonzeption bildet das stabile Fundament

Sobald die Roadmap für Anwendungsfälle festgelegt ist, müssen die zuerst priorisierten fachlich im Detail spezifiziert werden. Hier sollte immer von den Anforderungen der Anwender ausgegangen werden. Dies kann z.B. bei einem Reporting Use Case die Visualisierung der Daten, Definition von Kennzahlen und deren Berechnung, benötigte Dimensionen sowie das zugrunde legende fachliche Datenmodell sein.

Diese fachlichen Anforderungen gilt es dann in ein technisches Konzept für die Realisierung zu transformieren und die erforderlichen Rahmenparameter für die Implementierung festzulegen, der ein zentrales technisches Datenmodell mit einer Anbindung der notwendigen Quellsysteme zugrunde liegt.

6. Aufwände realistisch und verlässlich abschätzen

Auf Basis der Feinkonzeption kann eine valide und möglichst realitätsnahe Schätzung der Aufwände für die Implementierung erfolgen. Somit kann abschließend bewertet werden, wie viel Aufwand erforderlich ist, um den gegenüberstehenden Business-Nutzen zu erzielen.

7. Management Freigabe einholen

Für die umzusetzenden Use Cases sollte neben der Roadmap auch eine Freigabe der Budgets für die geplanten Anwendungsfällen durch das verantwortliche Management erfolgen.

8. Data & Analytics-Projekte effizient steuern

Um eine möglichst effiziente und zielgerichtete Projektsteuerung zu erreichen, sollten für die verschiedenen Projektphasen die am besten geeigneten Methoden angewendet werden.

  • Die Erfahrung zeigt, dass Best Practices für Analytics-Projekte eine Verzahnung von klassischen und agilen Methoden erfordern.
  • Übergreifende Themen wie beispielsweise die Definition einer Strategie und Roadmap, Konzeption und Priorisierung der Umsetzungsplanung werden eher klassisch gesteuert.
  • Die technische Umsetzung erfordert agile Methoden. Spezifizierte Anwendungsfälle werden gemäß der Umsetzungsplanung in die agile Projektsteuerung übergeben und dann iterativ umgesetzt.

Zusammenfassend kann man festhalten, dass neben einer strategischen Planung und Ausrichtung einer Data & Analytics-Initiative die Aufteilung des Gesamtvorhabens in einzelne Anwendungsfälle und deren Konzeption erfolgsentscheidend ist, ohne das große Ganze aus dem Blick zu verlieren und einen stetigen Projektfortschritt und damit verbundene Erfolge zu erreichen.

Mein Tipp: Gerne informiere ich Sie, wie wir diese acht Schritte gemeinsam mit Ihnen gehen. Sprechen Sie mich einfach an. Sie finden mich auf LinkedIn oder schreiben Sie mir hier, ich melde mich gerne bei Ihnen. KONTAKT

Will man mit der Digitalisierung erfolgreich sein, braucht es dringend ein Datenmanagement-Konzept!

Erstellt am: Donnerstag, 21. Januar 2021 von Monika Düsterhöft

An Datenmanagement denken heißt Digitalisierung lenken

Geschäftsmodelle werden vermehrt datengetrieben. Dies bedeutet nicht zuletzt, dass Daten zu einer bedeutenden Ressource in Unternehmen werden. Um mit Daten aber nun effizient und strukturiert umzugehen benötigt es dringend ein Datenmanagement.

Die Teilnehmer von the factlights 2020, der größte Online-Erhebung zur Realität von Digitalisierung und Datenarbeit im deutschsprachigen Raum bestätigen dies. Sie sehen in mangelnder Datenqualität und fehlendem harmonisierten Datenbestand eine der größten Hauptherausforderung, um den neuen Anforderungen gerecht zu werden (vgl. Studien-PDF S. 25). Zudem bestätigen sie, ein einheitlicher Datenbestand entscheidungsrelevanter Daten ist essenziell, sei eine der fünf wichtigsten Erkenntnisse der Digitalisierung für sie (vgl. Studien-PDF S. 31).

Hier also vier Aspekte, die Sie im  Zuge der Digitalisierung und speziell im Hinblick auf das Thema Datenmanagement, im Auge behalten sollten:

 1. Daten sind ein wertvolles Asset

Heutige Anforderungen verlangen vermehrt eine Cross-funktionale Denke und das Bewusstsein, speziell mit Daten ein wertvolles Gut für interne und externe Zwecke zu besitzen. Trotz dieses Trends sehen zahlreiche Unternehmen Daten immer noch nicht als ein zentral zu organisierendes Asset an. Sie agieren vielmehr eher projektgetrieben und teilweise auch sehr unorganisiert.

Zudem betrachten sie den Einsatz von Daten oftmals weniger unter dem Aspekt des Nutzenpotenzials und dessen Zuordnung, noch denken sie konkret an eine nachhaltige Verankerung der Datenerzeugung und Datennutzung in der Organisation. Folgende zwei essentielle Fragen sollten in diesem Zusammenhang also immer und standardmäßig erörtert werden:

  • Worauf genau zahlt die Nutzung der Daten ein? Geht es Organisationen primär darum Kosten zu sparen, will man die Qualität bestehender Produkte verbessern, will man Risiken minimieren, Umsatz steigern oder gar Effizienz erhöhen.
  • Wie ist der Aufbau einer funktionierende Data Governance zu realisieren, die entsprechende Ziele, im Rahmen der Datennutzung unterstützt und Risiken minimiert? Konkret geht es hier um Klärung und Zuordnung von Verantwortlichkeiten samt entsprechender Rollen, Vorschriften und Zyklen.

2. Daten(quellen) werden immer heterogen bleiben

Die Herausforderungen für Data & Analytics-Vorhaben sind häufig die heterogenen und nicht harmonisierten Datentöpfe und Systeme. Vielerorts trifft man diesbezüglich auf das Phänomen des „Hoffens auf ein Wunder“, dass alles wie von Zauberhand und vielleicht sogar durch die Einführung des nächsten Systems sauber werden möge.

Ein solches Wunder ist jedoch nicht zu erwarten, da die Datenbestände heterogen bleiben. Hinzu kommen die um sich greifenden Cloud-Lösungen, die die Heterogenität noch forcieren. Gerade weil der Idealzustand aber nie erreicht werden kann, sind schlüssige Konzepte für die Bewertung der notwendigen Datenqualität dringend gefragt.

3. Priorisierung der Datenharmonisierung

Unternehmen sind häufig bestrebt, prozessübergreifend valide und gesicherte Datenbestände aufzubauen. Harmonisieren und Integrieren lautet zumeist die dafür ausgegebene Zielsetzung. Und genau hier fängt oftmals ein nie enden wollendes Projekt an. Denn was gern verkannt wird ist, dass sich die datenorientierten Anforderungen in der Regel nicht auf eine Abteilung oder einen Unternehmensbereich begrenzen lassen – Data does not follow the process.

Die Datenentstehung und deren Nutzung entsprechen sehr häufig nicht der klassischen Linienorganisation. Daten entstehen nicht nur an einer Stelle oder entlang eines Prozesses, denn sie werden Abteilungs- und Bereichs-spezifisch angereichert und ergänzt. Schlussendlich sollen sie aber dennoch an unterschiedlichsten Stellen und in verschiedensten Sichten und Prozessübergängen bereitgestellt und ausgewertet werden können.

4. Analytics-Kompetenz ist unterbesetzt

Die zunehmende Bedeutung von Daten erfordert immer mehr Know-how in der Datenarbeit. Erfahrungsgemäß ist diese Analytics-Kompetenz aber in vielen Unternehmen unterbesetzt. Man kann sogar sagen, viele Organisationen verfügen über absolut unzureichende Ressourcen und Skills. Und auch der Arbeitsmarkt gibt nicht genügend Experten her, so dass man mit Personalaufbau dem entgegenwirken könnte. Angesichts dieses personellen Nadelöhrs liegt eine Lösung darin, die vorhandenen Ressourcen und Skills bestmöglich zu unterstützen.

Der Aufbau eines sehr gut strukturierten Datenmanagements mit entsprechenden Architekturen kann dabei helfen. Denn es ermöglicht Anwendern, sich mit Analytics auseinanderzusetzen, ohne mit der Komplexität des darunterliegenden Datenmanagements konfrontiert zu werden. Gerade auch dem Metadatenmanagement kommt hier ein hoher Stellenwert zu.

Unser Tipp: Diese und weitere Empfehlungen sowie Daten, Fakten, Branchenspecials und alle Ergebnisse der größten Online Erhebung zur Realität von Digitalisierung und Datenmanagement im deutschsprachigen Raum finden Sie in den Studienergebnissen von the factlights 2020.

Holen Sie sich hier direkt Ihr kostenfreies, persönliches Exemplar THE FACTLIGHTS 2020

Data Governance: Schon mal drüber nachgedacht?

Erstellt am: Freitag, 5. Juni 2020 von Monika Düsterhöft

So wichtig für erfolgreiche Data & Analytics Projekte

Daten gelten als Herzstück jedes Unternehmens. Und so gut wie bei jedem steht, nicht zuletzt getrieben durch die aktuellen Entwicklungen, das Thema Digitalisierung ganz weit oben auf der Agenda. Das Regeln von Verfügbarkeit, Integrität und Sicherheit der verwendeten Daten, die sogenannten Data Governance, wird in diesem Zuge jedoch oftmals eher stiefmütterlich behandelt.

Dass dem so ist, mag zum einen daran liegen, dass es sich um ein vergleichsweises neues Thema handelt. Zum anderen ist Data Governancen sehr rechtslastig, wird mit Disziplin, Verwaltung und Aufwand konnotiert und gilt gemeinhin als „trocken und unattraktiv“. Und wie wir alle wissen: Um solche Themen kümmert man sich nicht wirklich gern.

Ein fehlerhafter Umgang mit Daten jedoch kann schnell zu erheblichen Wirtschafts- und Imageschäden führen. Rechtliche Konsequenzen, Bußgelder, Strafen und empfindliche Schadensersatzansprüchen drohen.

Wegducken gilt nicht – Data Governance geht jeden an!

Auf der Hand liegt, wo immer es zu Problemen mit Daten kommt, weißt sich die Gesamtverantwortung direkt der Geschäftsführung und dem Vorstand zu; unter Umständen greift deren Haftungsrisiko sogar bis aufs Privatvermögen durch. Schon allein deswegen sollten das Vorhandensein und konsequente Leben einer Data Governance ein ganz persönliches Anliegen des Top-Managements sein.

Im Gegensatz zur Top-Führungsriege steht der Mitarbeiter, der als ausführendes Organ nach bestem Wissen und Gewissen handelt, bei einer Datenpanne nicht in legaler Verantwortung. Nichtsdestotrotz ist auch sein Handeln oder Nichthandeln von unliebsamen persönlichen Konsequenzen bedroht. Denn selbst eine Panne, die auf Motivation und Engagement basiert kann zu Arbeitsplatzverlust oder zumindest internen Problemen führen. Um diesem Konflikt aus dem Weg zu gehen, kann es sein, dass Mitarbeiter lieber nichts tun bevor sie etwas tun, von dem sie nicht recht wissen, ob sie es dürfen oder nicht. Ineffizienz bis hin zum vollständigen Stillstand von Initiativen sind die Folge für das Unternehmen.

Unbenommen wäre es also förderlich zu wissen, was man am Arbeitsplatz mit welchen Daten tun darf und was nicht. Und zwar sowohl für den normalen Mitarbeiter, als auch für die Führungskräfte. Letzteren fällt in diesem Zusammenhang wohl der undankbarste Part zu: Sie stehen im Kreuzfeuer von Management und Mitarbeitern, müssen delegierte Aufgabenstellungen weitertragen und auf deren Umsetzung bedacht sein.

Kein Data & Analytics Projekt ohne Governance

Betrachtet man Chancen, Möglichkeiten, Risiken und in Zeiten des War of Talents und Fachkräftemangels auch die hohe Notwendigkeit im Hinblick auf Mitarbeiter-Sicherung und Motivation, so sollte keine Data & Analytics Initiative auf- bzw. umgesetzt werden ohne nicht parallel eine entsprechenden Data-Governance-Initiative zu betreiben.

Die gute Nachricht: Das Ganze hört sich schlimmer an als es ist. Vielmehr, eine Data & Analytics Governance ist in überschaubaren und leicht verdaubaren Schritten machbar. Einzige Voraussetzung, die Etappenziele müssen sauber definiert und ein dazu passender Methoden- und Maßnahmenkatalog erstellt worden sein. Auf diesem soliden Fundament lässt sich eine passende Data & Analytics Governance in die Organisation und Prozesse integrieren und die letztlich nachhaltige Umsetzung wird möglich.

QUNIS-Vorgehenskonzept bringt Durchblick, Struktur und Effizienz

Basierend auf Praxis-Erfahrung und Know-how hat QUNIS ein dreistufiges Framework mit insgesamt acht Handlungsfeldern entwickelt, das für Business-Intelligence- und Andvanced-Analytics-Initiativen eine verlässliche Orientierungshilfe für den Aufbau und die Etablierung einer Data Governance stellt.

Auf der ersten Stufe geht es darum, die Zielsetzung festzulegen: Welche Daten gibt es und in welchem Bezug stehen diese zu den rechtlichen Vorgaben bzw. welche Maßnahmen sind konkret daraus abzuleiten? Hier geht es um so wichtige Dinge wie ein gut funktionierendes Risikomanagement und den Blick auf sensible Datenschnittstellen zu Externen. Zudem werden aber auch ganz generell Fragen etwa zur Gewährleistung der Datenqualität behandelt.

Im darauf aufbauenden Bereich von Methoden und Maßnahmen werden rechtliche Vorgaben geklärt: Welche Daten und Prozesse korrespondieren mit welchen rechtlichen Normen wie GDPdU oder DSGVO? Im Fokus stehen Datenzugriffs- und Datenberechtigungskonzepte oder Back-Up-Strategien zur durchgängigen Gewährleistung der Datenverfügbarkeit. Im Sinne des Projektmanagements werden zudem die Vorgehensweisen erarbeitet, also beispielsweise Dokumentationsrichtlinien festgelegt, Guidelines für die Mitarbeiter erarbeitet, Recovery-Pläne und Definition von Messpunkten.

Zu guter Letzt geht es darum, das Erarbeitete in die Organisation und die laufenden Prozesse zu integrieren. Um klare Verantwortlichkeiten definieren zu können, wird das bewährte QUNIS-Rollenmodell herangezogen als Basis für den individuellen Zuschnitt auf konkrete Rahmenbedingungen und Bedürfnisse des jeweiligen Unternehmens. Darauf aufbauend lassen sich schließlich trennscharfe Strukturen herausarbeiten, die jedem betroffenen Teilbereich Verantwortlichkeiten und Zuständigkeiten zuordnen

Denken Sie die Data Governance immer gleich mit!

Es gibt viele gute Gründe dafür, seine Daten im Unternehmen zu schützen bzw. zu sichern und dabei rechtskonform und werteorientiert zu handeln. QUNIS unterstützt Sie dabei, eine ganz individuelle Governance für die Data & Analytics Initiativen in Ihrem Unternehmen umzusetzen und erfolgreich zu steuern. Alles was Sie tun müssen ist uns kontaktieren. Beim Rest begleiten wir Sie kompetent.

Mein Tipp: Besuchen Sie unser kostenfreies QUNIS-Webinar „Data Governance – so machen Sie Ihre BI-, Big-Data- und Advanced-Analytics-Lösung rechtlich und organisatorisch sicher.“ TERMINE UND ANMELDUNG