Beiträge mit dem Schlagwort Datenmanagement

Trends bei Nutzung von Big Data

Erstellt am: Dienstag, 6. März 2018 von Monika Düsterhöft

Nach Einschätzung der Marktforscher von IDC wird der weltweite Umsatz mit Software, Hardware und Services für Big Data und Big Data Analytics in den kommenden zwei Jahren auf 203 Milliarden US-Dollar steigen. Das jährlich zu den bereits vorhandenen Datenbergen hinzukommende Datenvolumen könnte laut der Auguren im Jahr 2025 bereits bei 180 Zetabyte liegen. Gewaltige Datenmengen und viele Chancen für Unternehmen, neue oder detailliertere Informationen zu extrahieren und für die Unternehmens- und Prozesssteuerung, Planung oder Produktentwicklung einzusetzen.

Prescriptive Analytics

Unter den vielen Aspekten, die im Zusammenhang mit der Nutzung von Big Data und Advanced Analytics diskutiert werden, finden sich einige Entwicklungen, die laut Marktbeobachtern in den kommenden zwölf Monaten besondere öffentliche Aufmerksamkeit erfahren werden.
So wird erwartet, dass das Interesse an Prescriptive Analytics steigt. Es vereint Verfahren des Machine Learning, Simulationen und mathematische Berechnungen, um bei einer bestimmten Fragestellung die optimale Lösung oder das beste Ergebnis unter verschiedenen zur Auswahl stehenden Möglichkeiten zu ermitteln. Praktisch werden also beispielsweise kontinuierlich und automatisch neue Daten verarbeitet, um die Genauigkeit von Vorhersagen zu erhöhen und bessere datengetriebene Entscheidungsoptionen zu bieten. Prescriptive Analytics könnte so neben Cognitive Computing den Mehrwert bei der Analyse von Big Data künftig erheblich steigern helfen.

ECM und Big Data

Big Data ist ein Sammelbegriff, der in der Praxis sowohl vorhandenen Daten, etwa aus einem Data Warehouse oder ERP-System, als auch neue Datenquellen einbezieht. Diese können dabei durchaus auch innerhalb der eigenen Unternehmensgrenzen liegen. So wird für 2018 erwartet, dass sich Organisationen mehr für historische Daten und Dokumente interessieren werden, die bislang nicht in einer digitalen Form vorliegen. In diesen können wichtige Informationen liegen, die zum Beispiel für Voraussagen hilfreich sein können. Damit zeichnet sich hier eine Entwicklung ab, die wir auch bei QUNIS sehen, nämlich der Annäherung und Kombination von Enterprise Content Management und Analyseumgebungen.

Datenqualität statt Datenquantität

Angesichts der wachsenden Datenberge ist es trotz sinkender Hardwarepreise, Cloud und Konzepten wie dem Data Lake auf Dauer nicht wirtschaftlich, schlicht alle erreichbaren Daten zu speichern. Unternehmen müssen sich daher in den kommenden Monaten strategisch damit beschäftigen, auf welche Datensätze sie es besonders abgesehen haben bzw. welche ihnen Ansätze für bessere Analysen bieten können. Ebenso wird es um Wege zur Verbesserung der Datenqualität gehen, denn Datensätze können irrelevant, ungenau oder gar beschädigt sein. Qualität statt Quantität, heißt also die Parole für 2018.

Machine Learing hilft beim Datenschutz

Herzstück einer Big-Data-Analyse sind Verfahren der Künstlichen Intelligenz. Diese müssen in 2018 verstärkt für Auswertungen im Bereich der Datensicherung und Datensicherheit zum Einsatz kommen, da auf diesem Anwendungsgebiet laut Marktbeobachtern Nachholbedarf herrscht. So werden Maschinen beispielsweise schon bald in der Lage sein, mit Hilfe von Machine Learning menschliches Verhalten „vorherzusagen“ und automatisiert „unlabeled data“ zu verwenden. Dadurch wird sich Künstliche Intelligenz zu einem zentralen Instrument für Datenschutz und Abwehr unerlaubter Zugriff entwickeln.

Neue Rollen und viele Stellenangebote

Aber nicht nur die Vielfalt und Nutzungsformen von Big Data werden sich in der nächsten Zeit weiterentwickeln, sondern auch die Menschen, die damit arbeiten. So entstehen neben dem viel zitierten Data Scientist weitere Rollen in den Organisationen, welche die Erfassung, Auswertung und Operationalisierung von Big Data überhaupt erst strukturiert möglich machen. Auch die QUNIS hat hierzu bereits im Rahmen ihrer Big Data Methodik ein modernes Rollenmodell entwickelt, das detailliert die Aufgaben und Kombinationen diskutieren und definieren hilft. Zugleich wächst im Markt die Sorge, dass sich nicht ausreichend Spezialisten für diese oft sehr anspruchsvollen Aufgaben und Rollen rund um Big Data finden lassen. So schätz beispielsweise IBM, dass allein in den USA das Stellenangebot für Big-Data-Experten im weitesten Sinne von 364.000 offenen Stellen in 2018 auf 2,72 Millionen bis 2020 ansteigen wird.

Der Chief Data Officer – Eine neue Rolle etabliert sich

Erstellt am: Mittwoch, 27. September 2017 von Monika Düsterhöft

Die digitale Transformation von Unternehmen ist eng verknüpft mit der Organisation und Weiterentwicklung des bisherigen Information Managements. Dies führt unter anderem zur Entwicklung neuer Rollen, denen eine strategische Aufgabe bei der Umsetzung zukommt. Damit Daten tatsächlich operativ nutzbar werden, müssen sie auch technisch verfügbar, korrekt und standardisiert (Governance) vorliegen. Um diese Vorgaben umzusetzen und zu überwachen, haben manche Organisationen damit begonnen, die Rolle eines „Chief Data Officers“ (CDO) zu definieren und zu besetzen. Nicht zu verwechseln mit der Rolle eines „Chief Digital Officers“ (ebenfalls CDO abgekürzt) definiert der Datenverantwortliche, wie Daten künftig erfasst, verwaltet, geschützt und letztlich zu Geld gemacht werden sollen. Ob dies in der Praxis bereits gelingt, hat nun die vom US-Anbieter Experian in Auftrag gegebene Umfrage „The Chief Data Officer: Powering business opportunities with data“ näher beleuchtet. 200 CIOs und 50 CDOs aus den USA nahmen laut der Autoren teil. Sie stammen aus Unternehmen mit mehr als 500 Mitarbeitern und aus diversen Branchen. Nachfolgend einige Ergebnisse aus dieser Untersuchung.

Big Data verstärkt den Bedarf an Chief Data Officer

Häufigstes Motiv für die Schaffung einer dedizierten CDO-Rolle ist danach der Wunsch, durch sein Wirken die Nutzung von Big Data profitabel zu machen sowie einen datengetriebenen Ansatz zu finden, der strategische Vorteile schafft, bei gleichzeitig überschaubaren Projektrisiken. Selbst zwei Drittel aller CIOs, in deren Unternehmen bislang keine entsprechende Position existiert, erklärten, dass sie sich mit den oben erwähnten Themen im Datenmanagement überfordert fühlten und daher einen Chief Data Officer begrüßen würden.

Doch Anspruch und Wirklichkeit klaffen in der Praxis offenbar noch häufig auseinander – was angesichts der noch „jungen“ Rolle nicht verwundert. So erklärte fast jeder zweite CDO, er habe seine Positionen angetreten, ohne dass der Aufgabenbereich und die Verantwortlichkeiten zuvor geklärt worden seien. Zwar wären im weiteren Verlauf der Karriere bei etwa 40 Prozent der Befragten die ebenfalls knappen Ressourcen und Budgets etwas aufgestockt und auch der bis dato meist beschränkte Zugriff auf die Datenhaltungen gelockert worden. Viele würden sich aber bis heute nicht mit der innovativen Nutzung von Daten beschäftigen, sondern müssten vor allem Projekte zur Kostenersparnis treiben.

Die Gründe für diesen Widerspruch führen die Autoren nicht allein auf unklare Rollendefinitionen zurück, sondern auch auf die Tatsache, dass in vielen Organisationen das Datenmanagement grundsätzlich noch erhebliche Defizite aufweise. So sehen laut Umfrage insbesondere die CIOs im fehlenden Datenzugriff das häufigste Hindernis auf dem Weg zu einer stärker datengetriebenen Organisation. Die von den CDOs beklagten schmalen Budgets würden Investitionen in entsprechende Dateninfrastrukturen erschweren, und es fehle nach Ansicht vieler Befragter an Skills in den Unternehmen. Daran könnte auch ein Chief Data Officer so schnell nichts ändern (Hilfe bei der Schaffung einer gemeinsamen, performanten Datenarchitektur für Big Data und Data-Warehouse-Systemen bietet die praxiserprobte QUNIS-Methodik).

Chief Data Officer – eher operativ oder strategisch tätig?

Hinzu kommt, dass sich der CDO in der Praxis offenbar häufig in einer schwierigen Position zwischen IT und Fachbereich befindet. Während die Business User immer lauter über den fehlenden Datenzugang klagten, müsse der CDO oft erst bei der IT anfragen, um hier Änderungen zu bewirken, so die Autoren. Diese könne oft Stunden oder gar Tage dauern. Zudem werde sich der Druck auf den Chief Data Officer in den kommenden zwei Jahren weiter verstärken, da Themen wie Datenschutz, die rasante technologische Entwicklung und steigende Kundenerwartungen viel Arbeit machten. QUNIS kann diese sehr operativ beschriebene Arbeitsweise eines CDOs aus ersten Kundenprojekten in Deutschland nicht bestätigen. Vielmehr stehen nach unserer Erfahrung eindeutig strategische Aufgaben im Vordergrund.

Konkurrenz zwischen Chief Data Officer und CIO

Viele CDOs beklagten in der Umfrage zudem, dass sie nicht zum C-Level gehörten, sondern häufig nur ein Junior Partner für das Top-Management seien. Auch bei den CIOs scheint diese Einstufung immer mehr zu überwiegen. So sahen vor zwei Jahren in einer vergleichbaren Umfrage von Experian  noch 16 Prozent mehr von ihnen den CDO als gleichrangigen Kollegen an als es jetzt der Fall ist. Ob diese Zurückstufung eher strategische, organisatorische oder vielleicht finanzielle Gründe hat, vermochten die Autoren nicht sicher zu sagen. Bei der QUNIS können wir diese Konstellation innerhalb der Hierarchie bislang nicht bestätigen. Vielmehr genießen die uns bekannten CDOs ein hohes Ansehen im Management und übernehmen strategische Aufgaben, die als sehr sinnvoll für die Organisation betrachtet werden. Möglich aber, dass in manchen der befragten Unternehmen eine Konkurrenzsituation zwischen CIO und CDO dahinter steckt. So bezeichneten über 40 Prozent der CDOs ihr Verhältnis zum CIO als „distanziert“ oder „nicht existent“. Umgekehrt bewerteten über 60 Prozent der CIOs ihre Beziehung zum Chief Data Officer als „positiv“, also in ihrem Sinne. Aktuell berichten etwa 40 Prozent der CDOs an den CEO, über die Hälfte hingegen an die IT oder Leiter von Geschäftsbereichen.

 

 

 

Business Intelligence – No Cloud, Hybrid oder All Cloud?

Erstellt am: Donnerstag, 21. September 2017 von Monika Düsterhöft

Schaut man sich die aktuelle Situation bei Kunden an, so finden sich sehr unterschiedliche Szenarien für den Betrieb der Business-Intelligence-Lösungen. Das reicht von No Cloud über Hybrid bis hin zu All-Cloud-Strategien. Sobald das Thema Cloud ins Spiel kommt, ist zudem zwischen einer „Plattform as a Service“ (PaaS) und „Infrastructure as a Service“ (IaaS) zu unterscheiden. IaaS ist vergleichbar mit einer Virtuellen Maschine (VM). Der Anwender bekommt einen virtuellen Server, muss sich aber immer noch um alles selber kümmern (Installation, Wartung, Konfiguration etc). Bei PaaS erhält er hingegen ein Stück Software, wofür er sonst eine VM oder physikalischen Server hätte aufsetzen müssen, als fertig nutzbare Komponente. Das kann zum Beispiel eine relationale Datenbank sein. Im Fall von PaaS muss sich der Kunde also nicht um die Installation, Wartung, Konfiguration etc. kümmern.

Business Intelligence als On-Premises-Lösung

Bei No-Cloud-Anwendern wird heute immer noch alles On-Premises abgebildet. Dies ist immer noch die häufigste Lösung für BI-Systeme beim Kunden. Dieser Ansatz schließt nicht nur die BI-Lösung, sondern auch anderen Systeme ein. Je nach Bedarf wird dabei die notwendige Infrastruktur für das BI-System durch physikalische oder virtualisierte Server zur Verfügung gestellt. Unternehmen, die auf dieses Szenario setzen, starten gerne virtualisiert, um sich einen Eindruck von der maximalen Performance und Wartbarkeit der Lösung verschaffen zu können. Genügt diese nicht, bleibt die Option, später auf physikalische Server umzustellen. Dieses Vorgehen ist bei No Cloud meiner Meinung nach auch zu empfehlen, weil man virtuell schneller auf Anforderungen reagieren kann und meistens keine neue Hardware anschaffen muss. Ist hingegen absehbar, dass die geplante Lösung virtuell nicht abbildbar ist, startet man natürlich gleich mit physikalischen Servern.

Nach den konkreten Gründen für No Cloud gefragt, erhält man unterschiedliche Antworten. So kann es sich zum Beispiel um Daten handeln, die aus Gründen des Datenschutzes oder aufgrund von Unternehmensrichtlinien nicht außerhalb des Unternehmens gespeichert werden dürfen. Oder aber das Dritte solche Vorgaben machen (Gesetzgeber, Verbände, etc.). Ebenso erfährt man, dass die Option gewählt wurde, weil man sich mit dem Thema noch nicht ausgiebig beschäftigt hat oder das Know-how im Hause fehlt. Die Beratungspraxis zeigt hier aber, dass Unternehmen immer mehr eine Öffnung für die Cloud vornehmen, wenn man ihnen fachliche und organisatorisch zur Seite steht (einen Einblick in die weltweite Nutzung von Cloud-Diensten für Business Intelligence und Data Warehousing finden Sie hier) .

Cloud und On-Premises – Hybridlösung für Business Intelligence

Eine zweite Gruppe an Unternehmen setzt bis dato auf Hybrid-Lösungen. Hierbei werden Teile der BI-Gesamtlösung in die Cloud verlagert. Das können Komponenten sein, die nur in der Cloud erhältlich sind, wie zum Beispiel spezielle Frontends mit besonderen Features. Oder der Anwender nutzt Teil der Lösung in der Cloud, weil er sie in der Form, Flexibilität, Qualität (Know-how) und Verfügbarkeit nicht On-Premises betreiben kann. Beim Beispiel Frontend in der Cloud bleibt die Datenhaltung und Bewirtschaftung On-Premises, während der Zugriff auf die Daten für Analysezwecke über die Cloud stattfindet. Diese Lösung findet man in der Tat immer häufiger beim Kunden.

Business Intelligence komplett in der Cloud

Unternehmen mit einer All-Cloud-Strategie wollen die gesamt BI-Lösung in der Cloud abbilden und nichts davon On-Premises betreiben. Datenhaltung, Bewirtschaftung und Analysemöglichkeiten werden durch Cloud-Komponenten zur Verfügung gestellt. Sofern die Vorsysteme (ERP, CRM, etc.) nicht auch in der Cloud laufen, erfolgt die Anbindung zwischen Cloud und On-Premises-Umgebung meist über Tunnel-Technik (VPN). Dieses Szenario wird meiner Ansicht nach die Zukunft sein. Zum einen hat die Cloud in der Vergangenheit enorme Fortschritte gemacht und bietet immer mehr Möglichkeiten für den Betrieb von Anwendungen und Infrastruktur. Zum anderen steigen mit der Nutzung und Kombination von Big Data, Machine Learning und Business Intelligence die Anforderungen und erfordern sehr viel Know-How und Infrastruktur, um entsprechende Lösungen On-Premises abzubilden. In dem Fall kann die Cloud viele Vorteile bieten. Im Einzelnen nennen Kunden folgende Vorteile, die sie in Cloud-Lösungen sehen:

  • Skalierbarkeit / Flexibilität
  • Verfügbarkeit
  • Konzentration auf Kernkompetenzen / Know-how im eigenen Team
  • Einsparung bzw. bessere Nutzung von Ressourcen
  • Kosten
  • Sicherheit
  • Softwareaktualität
  • Spezielle Features (z.B. Georedundanz)

Herausforderungen und Umsetzung von BI-Cloud-Lösungen

Aber natürlich bringt wie jedes Szenario auch die Cloud-Nutzung ihre Herausforderungen mit sich. Diese beginnen damit, dass ein Unternehmen die passende Cloud-Strategie für sich finden muss. Ebenso gilt es, den richtigen Cloud-Anbieter und die passenden Komponenten zu finden. Die Möglichkeiten sind heute vielfältig, zumal sich die Cloud-Dienste verschiedener Anbieter auch kombinieren lassen. Ist eine strategische Entscheidung gefallen, stellen sich bei der Umsetzung typische Fragen:

  • Wie bringt man die On-Premises-Infrastruktur mit der Cloud zusammen?
  • Wie integriert man die Cloud Komponenten in die BI-Lösung?
  • Wie stellt man Autorisierung und Authentifizierung sicher?
  • Wie gut ist die Netz-Anbindung an die Cloud?
  • Wie bekommt man das Know-how ins Team?
  • Wie flexibel und mit welchem Aufwand lassen sich Standard-Cloud-Lösungen an Kundenwünsche anpassen?

Eine fertige, vollumfängliche und rein auf Standards basierende Cloud-Lösung für Business Intelligence gibt es meines Wissens bislang noch von keinem Hersteller. Doch sind viele Komponenten erhältlich, die man als Unternehmen je nach Bedarf dafür einsetzen kann – vorausgesetzt man verfügt über das Wissen, die passenden Komponenten richtig einzusetzen. So gibt es in Microsoft Azure einige Komponenten, die sich für eine reine BI-Cloud-Lösung verwenden lassen. Aber auch hier braucht man eine klare Vision, wie die Lösung aussehen soll, damit es am Ende funktioniert. Hier gibt es Abhängigkeiten und Grenzen, die zu beachten sind. QUNIS hat dank langjähriger Praxiserfahrung mit seinem „Data Warehouse Framework“ (DWH-Framework) ein Angebot entwickelt, das die Essenz all unserer Best Practices, Strategien, Methoden und Techniken zum Aufbau eines hochqualitativen, performanten und vor allem stabilen Data Warehouse vereint. Gemeinsam mit Microsoft haben wir dazu auch ein Architektur-Bild auf Basis der Azure-Komponenten entwickelt, welche den Anforderungen an eine moderne und zukunftssichere BI-Lösung in der Cloud gerecht wird. Darüber hinaus haben wir dieses Architektur-Bild in Azure mit unserem DWH-Framework umgesetzt und verprobt. Der Anpassungsaufwand am DWH-Framework war wider Erwarten gering. Bis auf ein paar Fallstricke funktionierte das meiste ohne große Anpassungen.

Möchten Sie Näheres zum DWH-Framework sowie zur Definition und Umsetzung von Cloud-Strategien erfahren. Dann kommen Sie gern auf uns zu!

 

Der Chief Data Officer – Eine neue Rolle mit noch vielen Fragezeichen

Erstellt am: Montag, 11. September 2017 von Monika Düsterhöft

Die digitale Transformation von Unternehmen ist eng verknüpft mit der Organisation und Weiterentwicklung des bisherigen Information Managements. Damit Daten tatsächlich operativ nutzbar werden, müssen sie auch technisch verfügbar, korrekt und standardisiert (Governance) vorliegen. Um diese Vorgaben umzusetzen und zu überwachen, haben manche Organisationen damit begonnen, die Rolle eines „Chief Data Officers“ (CDO) zu definieren und zu besetzen. Dieser verantwortet, wie Daten künftig erfasst, verwaltet, geschützt und letztlich zu Geld gemacht werden sollen.

Soweit der hohe Anspruch an diese Rolle. Wie sich die Praxis bislang darstellt hat nun die vom US-Anbieter Experian in Auftrag gegebene Umfrage „The Chief Data Officer: Powering business opportunities with data“ näher beleuchtet. 200 CIOs und 50 CDOs aus den USA nahmen laut der Autoren teil. Sie stammen aus Unternehmen mit mehr als 500 Mitarbeitern und aus diversen Branchen. Nachfolgend einige Ergebnisse aus dieser Untersuchung.

Die Arbeit des Chief Data Officer

Häufigstes Motiv für die Schaffung einer dedizierten CDO-Rolle ist danach der Wunsch, durch sein Wirken die Nutzung von Big Data profitabel zu machen sowie einen datengetriebenen Ansatz zu finden, der strategische Vorteile schafft, bei gleichzeitig überschaubaren Projektrisiken. Selbst zwei Drittel aller CIOs, in deren Unternehmen bislang keine entsprechende Position existiert, erklärten, dass sie sich mit den oben erwähnten Themen im Datenmanagement überfordert fühlten und daher einen CDO begrüßen würden.
Doch Anspruch und Wirklichkeit klaffen in der Praxis offenbar noch häufig auseinander. So erklärte fast jeder zweite CDO, er habe seine Positionen angetreten, ohne dass der Aufgabenbereich und die Verantwortlichkeiten zuvor geklärt worden seien. Zwar wären im weiteren Verlauf der Karriere bei etwa 40 Prozent der Befragten die ebenfalls knappen Ressourcen und Budgets etwas aufgestockt und auch der bis dato meist beschränkte Zugriff auf die Datenhaltungen gelockert worden. Viele würden sich aber bis heute nicht mit der innovativen Nutzung von Daten beschäftigen, sondern müssten vor allem Projekte zur Kostenersparnis treiben.

Anspruch und Wirklichkeit im Datenmanagement

Die Gründe für diesen Widerspruch seien laut der Autoren nicht allein auf unklare Rollendefinitionen zurückzuführen, sondern vielmehr auf die Tatsache, dass in vielen Organisationen das Datenmanagement grundsätzlich noch erhebliche Defizite aufweise. So sehen laut Umfrage insbesondere die CIOs im fehlenden Datenzugriff das häufigste Hindernis auf dem Weg zu einer stärker datengetriebenen Organisation. Die von den CDOs beklagten schmalen Budgets würden Investitionen in entsprechende Dateninfrastrukturen erschweren, und es fehle nach Ansicht vieler Befragter an Skills in den Unternehmen. Daran könnte auch ein CDOs so schnell nichts ändern. Hinzu kommt, dass sich der CDO in der Praxis häufig in einer schwierigen Position zwischen IT und Fachbereich befindet. Während die Business User immer lauter über den fehlenden Datenzugang klagten, müsse der CDO oft erst bei der IT anfragen, um hier Änderungen zu bewirken. Diese könne oft Stunden oder gar Tage dauern. Zudem werde sich der Druck auf den CDO in den kommenden zwei Jahren weiter verstärken, da Themen wie Datenschutz, die rasante technologische Entwicklung und steigende Kundenerwartungen viel Arbeit machten.

Gerangel im C-Level

Trotz seiner wichtigen strategischen Rolle, scheint sich der CDO innerhalb der Hackordnung bislang nicht entsprechend zu etablieren. Viele CDOs beklagten in der Umfrage, dass sie nicht auf dem C-Level, sondern häufig nur ein Junior Partner für das Top-Management seien. Auch bei den CIOs scheint sich diese Bewertung durchzusetzen. So hatten in einer vergleichbaren Umfrage von Experian vor zwei Jahren noch 16 Prozent mehr von ihnen den CDO als einen gleichrangigen Kollegen gesehen. Ob diese Zurückstufung eher strategische, organisatorische oder vielleicht finanzielle Gründe hat, vermochten die Autoren nicht sicher zu sagen. Möglich auch, dass hier eine Konkurrenzsituation zwischen CIO und CDO besteht. So bezeichneten über 40 Prozent der CDOs ihr Verhältnis zum CIO als „distanziert“ oder „nicht existent“. Umgekehrt bewerteten über 60 Prozent der CIOs ihre Beziehung zum CDO als „positiv“. Aktuell berichten etwa 40 Prozent der CDOs an den CEO, über die Hälfte hingegen an die IT oder Leiter von Geschäftsbereichen.

 

 

 

Ein Starter Kit für das „State of the Art“ Data Warehouse

Erstellt am: Donnerstag, 27. April 2017 von Monika Düsterhöft

Das Data Warehouse fasziniert mich unverändert stark seit Anbeginn meines professionellen Lebens – und das sind mittlerweile immerhin schon über 25 Jahre! Das vielleicht Bestechendste an ihm ist, dass es über die Jahre nichts von seiner hohen Relevanz für Unternehmen verloren hat, die durch es fundierte und lukrative Geschäftsentscheidungen treffen können.
Seine Unverzichtbarkeit wird dabei sofort klar, wenn man betrachtet, was es per se ist:  ein strukturiertes, konsolidiertes, stabiles und stets aktuelles Fundament, dessen Bestimmung es ist, aus all den verschiedenen Daten eines Unternehmens wertschaffende Informationen zu machen. Vor allem aber – und gerade heutzutage immens wichtig – ist es nicht zuletzt auch essentieller Basisbaustein für alle Advanced Analytics oder Big Data Vorhaben.

Probleme bei schlecht aufgebauten Data Warehouse Lösungen

Und wenn man mal genau hinschaut, besitzt auch jedes Unternehmen de facto ein Data Warehouse, wenn nicht gar mehrere. Denn alle Versuche, Daten aus den ERP- und anderen Systemen regelmäßig gesammelt zu extrahieren und in einer anderen Anwendung aufzubereiten, um damit eine Auswertung zu machen, sind Praktiken, die eindeutig dem Datawarehousing zuzuordnen sind. Allerdings kann mangelnde Professionalität beim Umgang mit ihnen zu vielen Problemen führen. Diese reichen von einer mangelnden Revisionssicherheit, über sich verselbständigende und mannigfaltig verschiedentlich interpretierte Geschäftsregeln, multiple und subjektiv getriebene Interpretationen der Unternehmenskennzahlen bis hin zu historisch gewachsenen, heterogenen Landschaften, deren Entwirrung sich niemand mehr zutraut.
Ein gleichermaßen professionell fundiertes, hochqualitatives wie auch effizientes Vorgehen mit Blick auf bester Performance ist somit unverzichtbar, will man einen Datenpalast und nicht eine windschiefe Informationshütte bauen. Und so wie es beim Bau eines Palastes in vielen Jahrhunderten bewährte Praktiken und Strategien gibt, so gibt es beim Bau eines Data Warehouse in vielen Jahren bewährte Best Practices, Strategien und Techniken, die bei fachgerechter Anwendung zum Erfolg führen.

Geballtes Wissen und Best Practices für das Data Warehouse

So haben wir mit dem „QUNIS Data Warehouse Framework“ ein Rahmenwerk, also ein Framework geschaffen, das aus vielen grundsoliden Bausteinen für den Bau eines „State of the Art“ Data Warehouse besteht, das die Essenz all unserer Best Practices, Strategien, Methoden und Techniken enthält. Mit Hilfe dieses Baukastens ist es nicht nur möglich, ein hochqualitatives, performantes und vor allem stabiles Data Warehouse in kürzester Zeit zu schaffen – etwas, was bis vor kurzem noch als langjähriges Projekt und für kleine Unternehmen unvorstellbar galt – sondern sich – was vielleicht sogar noch wichtiger ist – auf einen sicheren Erfolg und schnellen ROI verlassen kann.
Wir haben an alles gedacht, auf was es beim Datawarehousing und zugehöriger Datenbewirtschaftung ankommt. Das „QUNIS Data Warehouse Framework“ bietet viele Benefits, angefangen bei der Konsolidierung, Plausibilisierung und Konsistenzprüfung der Quellsystemdaten über die attributgenaue Historisierung, bis hin zur passgenauen Bereitstellung fach- oder themenspezifischer Data Marts mit zahlreichen verwaltungs- und wartungsoptimierenden Leistungsmerkmalen.

Data Warehouse auch für kleine und mittelständische Unternehmen

Mit diesem Baukasten ist es nun auch kleinen und mittelständischen Unternehmen ein Leichtes, sich ein eigenes und vor allem mittelfristig enorm kostensparendes Data Warehouse zu entwickeln, das die Konkurrenzfähigkeit am Markt enorm steigern kann – insbesondere und mit immer zunehmender Bedeutung im heutigen Informationszeitalter. Das Bestechende an diesem Baukasten ist seine modulare Struktur sowie das große Maß an Flexibilität, das damit möglich bleibt. Ganz bewusst handelt es sich um ein Data Warehouse Framework. Auf das stabile Fundament, das Core bzw. also Herz des Data Warehouses ist unbedingt Verlass, die dekorative Verzierung in Form von Data Marts ist in hohem Masse individuell gestaltbar, ohne jedoch auch hier auf Stabilität, bewährte Vorgehensmodelle und Best Practices zu verzichten. Weitere Informationen zum QUNIS Data Warehouse Framework finden Sie hier.

Die Experten von QUNIS stehen Ihnen darüber hinaus bei der Realisierung Ihres BI oder Big Data-Vorhabens jederzeit mit Rat und Tat zur Seite! Sei es durch eines unserer zahlreichen kostenfreien Webinare oder im Rahmen eines BI oder Big Data-Workshops. Wir können Ihnen in jedem Fall dabei helfen, unternehmensspezifische Business Cases zu identifizieren, ein passendes Szenario mit Ihnen abzustimmen und dieses nachfolgend im Rahmen eines Proof of Concept auch gleich zu verproben.