Archiv für die Kategorie Business Intelligence

Business Intelligence und Data Warehousing in der Cloud auf dem Vormarsch

Erstellt am: Donnerstag, 14. September 2017 von Sascha

Ob Analyse und Reporting oder Data Warehousing: die Nutzung von Cloud-Dienste in der Verwaltung und Auswertung von Unternehmensdaten etabliert sich. Dies können wir auch aus den QUNIS-Kundenprojekten berichten, in denen immer öfter neue Anwendungen für Big Data und Advanced Analytics oder klassisches Data Warehousing in der Cloud (Microsoft Azure) entstehen.
Ein Stimmungsbild zur Cloud-Nutzung gab kürzlich auch die Online-Umfrage „BI and Data Management in the Cloud: Issues and Trends“ vom BARC und der Eckerson Group. Danach gaben 43 Prozent der 370 Unternehmensvertreter an, bereits heute zumindest Teile ihrer Business-Intelligence- oder Daten-Management-Vorhaben mit Hilfe von Cloud-Diensten umzusetzen. Die größte Gruppe unter den Teilnehmer der Umfrage stammten nach Region aus Europa (47 Prozent) und Nordamerika (37 Prozent).

Business Intelligence Tools am häufigsten in der Cloud

Von den rund 160 Cloud-Nutzern erklärte über die Hälfte, sie würde Business-Intelligence-Werkzeuge (62 Prozent) und -Server (51 Prozent) nutzen. Stark zugenommen hat in den letzten drei Jahren auch der Einsatz von Tools für die Datenexploration (49 Prozent). Die Gründe hierfür lägen laut der Autoren in der allgemein zunehmenden Verbreitung solcher Werkzeuge sowie dem großen Interesse insbesondere unter den „Power Usern“ an solchen visuellen Tools. Power User seien aktuell die stärkste Nutzergruppe von Cloud-Lösungen. Werkzeuge für Advanced Analytics werden in jedem vierten Unternehmen in der Cloud betrieben. Auf dem Gebiet des Datenmanagements in der Cloud dominieren Data-Warehouse-Systeme (42 Prozent) vor Datenintegrationswerkzeugen (35 Prozent).

Public Cloud bevorzugt

Beim Betrieb von Cloud-Lösungen setzen Unternehmen laut Umfrage vor allem auf die „Public Cloud“, während interne Systeme („Private Cloud“) oder hybride Ansätze weniger oft genannt wurden. Public Clouds (wie der Microsoft Azure Stack) sind einfach und vergleichsweise kostengünstig nutzbar, während im Vergleich dazu intern aufgebaute Lösungen von hohen Infrastrukturinvestitionen begleitet sind. Hybride Ansätze, so die Autoren, wären zudem schwieriger zu verwalten und würden Sicherheitsbedenken auslösen, weil sich beispielsweise ein BI-Anwendung in der Cloud durch die Unternehmens-Firewall mit der internen Lösung verbinden (Tunneling) muss.

 

Megatrend Digitalisierung

Erstellt am: Freitag, 1. September 2017 von Sascha

Großer Bahnhof auf dem diesjährigen Kundentag „QUNIS Day“ in Neubeuern. Mit neuem Besucherrekord und aufgeräumter Stimmung ging es am Morgen in die Konferenz, in deren Mittelpunkt Best Practices für Business Intelligence, Big Data und Advanced Analytics sowie der fachliche Austausch stehen. Unter dem Motto „Innovation Now“ erläutern Senior Analysten sowie unsere Kunden Henkel und Südpack  wie sich die allgegenwärtige digitale Transformation der Unternehmen aktuell darstellt.

QUNIS Day 2017

Großes Anwendertreffen zu Business Intelligence, Big Data und Advanced Analytics auf dem QUNIS Day 2017. Quelle: QUNIS

Geschäftsführer Hermann Hebben konnte zum Auftakt das erfolgreichste Geschäftsjahr seit Firmengründung 2013 verkünden. Mittlerweile werden über 150 Unternehmen im Mittelstand und Konzern betreut und auch die Belegschaft sei in den letzten zwölf Monaten um 73% gewachsen. Auch wirtschaftlich stehe das Beratungshaus sehr gut dar. Hebben betonte aber, dass man weiterhin auf die Kernkompetenz setzen werde, statt neue Beratungsfelder um jeden Preis anzugehen: „G´scheid oder gar ned!“.

Data Warehouse schneller und performant aufbauen

In den letzten zwölf Monaten wurden viele erfolgreiche Projekte umgesetzt. Die Strategieberatung bleibt dabei von zentraler Bedeutung, um ein Fundament für erfolgreiche Initiativen zu legen. Mit Blick auf die Umsetzung von Anforderungen hat QUNIS sein im Markt einmaliges „Data Warehouse Framework“ weiterentwickelt und in vielen Data-Warehouse-Projekten eingesetzt. Ferner wird auf dem QUNIS Day mit der „QUNIS Automation Engine“ erstmals im Plenum eine neue Methode und Technik vorgestellt, mit der sich die Beladung eines Data-Warehouse-„Core“ automatisieren lässt. Gut entwickle sich laut Hebben auch die Schwesterfirma GAPTEQ, die sich nach ihrem Start im September 2016 mittlerweile gut im Markt etabliert hat.

Digitalisierung verändert das Datenmanagement und Datenanalyse

All diese Entwicklungen erfolgen wie erwähnt in einem Marktumfeld, das sich für Unternehmen durch die Digitalisierung aktuell radikal verändert. Beispielhaft stellte Geschäftsführer Steffen Vierkorn vier Megatrends vor, die mit der Digitalisierung verknüpfte sind: Globalisierung, Mobilität, Konnektivität und Individualisierung. Die Technologie werde immer mehr zum Treiber von Veränderungen. Besonders sei dies bei der Nutzung von Cloud-Diensten und Komponenten wie „Microsoft Azure“ zu beobachten sowie bei der Vernetzung von Geräten (Internet of Things). Jenseits der Vorstellungskraft lägen mittlerweile die entstehenden Datenmengen. Bis 2025 sei mit 163 Zetabyte zu rechnen, so Vierkorn, die auf etwa 40 Billionen DVDs Platz hätten!

Veränderungen seien auch mit Hinblick auf die Datennutzung und -analyse bei der Produktentwicklung und Geschäftsbeziehungen zu beobachten. Die Rolle von Business Intelligence. Big Data und Advanced Analytics nehme in diesem Szenario weiter zu. Viele Unternehmen versuchten aktuell die Analytik in den Griff zu bekommen. In diesem Zusammenhang stellte Vierkorn das Data-Lake-Konzept der QUNIS vor.

Künstliche Intelligenz QUNIS Day

Ein Beispiel für die Nutzung Künstlicher Intelligenz war auf dem QUNIS Day am Beispiel eines Fahrzeugs zu sehen, das neben Gesichtserkennung auch Objekten beim Fahren ausweichen kann. Quelle: QUNIS

Die dazugehörige Architektur, die traditionelle Data-Warehouse-Welt und die Nutzung von Big Data methodisch und technologisch verknüpfen hilft, wurde auf der Veranstaltung ausführlich vorgestellt. Die Auswirkungen seien auch organisatorisch groß. So würde es künftig mehr und neue Rollen im Team geben müssen, um die unterschiedlichen Anforderungen abdecken zu können.

QUNIS Day 2017

QUNIS Day 2017 Steffen Vierkorn und Patrick Eisner vom QUNIS-Management.

Self Service Business Intelligence mit Microsoft Power BI

Erstellt am: Montag, 26. Juni 2017 von Sascha
Power BI ist Microsofts strategische Antwort auf den Wunsch in Anwenderorganisationen nach mehr Self Service in der Business Intelligence (BI). Informationsmitarbeiter sollen künftig ohne einen aufwändigen technologischen Unterbau flexibel an der Nutzung und Analyse von Daten partizipieren können, um so das Potenzial von BI besser auszuschöpfen. Um diesen Anspruch gerecht zu werden, wollte Microsoft ein leistungsfähiges Tool mit modernen Visualisierungsmöglichkeiten und starken Analyse-Features entwickeln, welches einfach zu bedienen ist und zugleich umfangreiche Kollaborationsmöglichkeiten für Informationsmitarbeiter bietet. Zugleich musste es aber auch für individuelle Anforderungen offen bleiben.

Das Ergebnis war Power BI. Die Software ist als Cloud-basierende Lösung konzipiert, kann aber ebenso On-Premises betrieben werden. Sie verfügt über eine weitreichende Office-365-Integration sowie offene Schnittstellen für eigene Entwicklungen. Nutzern steht damit ein umfangreiches Self-Service-BI-Tool zur Datenmodellierung, Analyse und Reporting zur Verfügung, das zudem regelmäßig aktualisiert wird. Power BI reiht sich sehr gut in das bestehende Microsoft-Portfolio ein und wird kontinuierlich weiterentwickelt. Zudem hat sich eine sehr aktive Community gebildet.

Berichte visuell ansprechend gestalten

Der übliche Entwicklungszyklus eines Power-BI-Berichtes beginnt in „Power BI Desktop“. Hierbei handelt es sich um die Desktop Applikation von Power BI. Sie verfügt über eine breite Palette an Datenkonnektoren, deren Umfang kontinuierlich erweitert wird. Hier ist auch der Platz, an welchem die Datenmodellierung unter Verwendung der Power-Query-Sprache „M“ stattfindet. Entsprechend dem eingesetzten Architekturszenario – QUNIS sieht hier vier mögliche Architekturvarianten – können die Daten aus der Cloud und oder von On-Premises- Systemen stammen. Sind die Daten nach Bedarf modelliert, lässt sich der Bericht erstellen. Dabei stehen im Standard mehr als 25 Visualisierungsmöglichkeiten zur Auswahl (Über 70 weitere Visualisierungen sind aktuell noch kostenfrei im Web erhältlich). Ist der Bericht vollendet, wird er üblicherweise im „Power BI Service“ in der Cloud oder in einer On-Premisis-Umgebung veröffentlicht. Diese Berichte lassen sich anschließend in Dashboards verwenden oder mit weiteren Usern teilen.

In dem von QUNIS definierten Frontend-Rollenkonzept deckt Power BI drei von vier vorhandenen Rollen ab. Es ist demnach ein passendes Tool für „End User“, „Ad Hoc User“ und „Power User“. Diese Rollen müssen immer unter Berücksichtigung der unternehmensinternen BI Governance identifiziert und besetzt werden, andernfalls kann es rasch zu einem unkontrollierbaren Berichtswildwuchs kommen (eine Übersicht zu den von der QUNIS in Projekten genutzten Software und Technologien finden Sie hier).

Ad-hoc Anforderungen effizient umsetzen

Power BI zeigt seine besondere Stärke, wenn es um Ad-hoc-Anforderungen mit einem hohen Bedarf an Visualisierung geht, und dass sowohl in der BI als auch im Big-Data-Umfeld. Es lässt sich damit auch für Ad-hoc Reporting sehr gut verwenden. Seine umfangreichen Datenkonnektoren spielen dabei eine wichtige Rolle. Ebenso sind Standardreporting und Dashboarding mit Power BI gut umsetzbar, aber es existieren leistungsfähigere Alternativen für dieses Spezialszenario – wie beispielsweise die Reporting Services von Microsoft. Ferner fehlt bis jetzt eine umfangreiche Parametrisierbarkeit und das Zusammenspiel der einzelnen Berichte könnte abgestimmter sein. Die heute noch fehlenden Funktionen verhindern jedoch keineswegs die einfache Nutzbarkeit der Software gemäß dem Self-Service-Gedanken.

Integration mit den Microsoft Reporting Services

Ein weiterer wichtiger Aspekt von Power BI ist die Integration auf Applikationsebene. Z.B. können Anwender Berichte, die mit den „Microsoft Reporting Services“ erstellt wurden, in den Power BI Services veröffentlichen und genauso funktioniert es auch andersherum. Wurden die Power-BI-Berichte im „Microsoft Report Server“ vormals lediglich als statisches Kachelsymbol dargestellt, so sind sie mittlerweile als Power-BI-Berichtsdatei verteilbar, und auch Dashboard-Elemente finden nun in Reporting-Services-Berichten Platz. Zukünftig soll eine vollständige Integration von Power-BI-Berichten in den Reporting Services möglich sein, womit Power BI als reine On-Premises-Lösung mit vollem Funktionsumfang betrieben werden könnte. Darüber hinaus bietet Power BI noch weitere Integrationsmöglichkeiten, wie zum Beispiel in die Software „BI Office“ von Pyramid Analytics oder in SharePoint, wenngleich hier noch Nachholbedarf besteht. Sehr hilfreich und beliebt ist die Integration in PowerPoint, wodurch Berichte und Dashboards mit nur wenigen Mausklicks und in ihrer gesamten Interaktivität in eine Präsentation eingebunden werden können. Damit zeigt sich, dass Power BI nicht nur im Cloud Umfeld nutzbar ist, sondern auch als On-Premises-Lösung, die schon heute gut mit anderen Applikationen interagiert.

Abschließend lässt sich sagen, dass Microsoft mit Power BI ein sehr interessantes Tool am Markt erfolgreich etabliert hat, dass sich durch eine starke Community schnell weiterentwickelt, immer mehr Anforderungen der Nutzer abdeckt und in Folge dessen ein ernstzunehmendes Produkt für Anforderungen in der BI aber auch im Big-Data-Umfeld darstellt. Der vollständige Funktionsumfang steht allerdings nur in der lizenzpflichtigen Pro Version zur Verfügung. Für das Microsoft Portfolio ist Power BI eine moderne Ergänzung, die sich als eigenständiges Self Service BI Tool sowohl in die bestehende Cloud- und On-Premises-BI- als auch Big-Data-Produktpalette des Anbieters integriert.

Weitere Blog-Beiträge, die Sie interessieren könnten:

Die Suche nach der passenden Business Intelligence Strategie

Erstellt am: Donnerstag, 18. Mai 2017 von Sascha

Anwendungen für Business Intelligence (BI), beispielsweise für Reporting und Analyse, sind heute aus den Unternehmen nicht mehr wegzudenken. Da sie eine hohe strategische und damit wirtschaftliche Bedeutung für die Unternehmenssteuerung haben, sollten sie nicht wahllos und ungesteuert eingeführt und betrieben werden. Dennoch zeigt die QUNIS-Beratungspraxis, dass Business Intelligence oftmals noch „nebenher“ läuft. Ebenso scheitern häufig die ersten Versuche, Business Intelligence im Unternehmen einzuführen, weil eben keine BI-Strategie definiert wurde. So ist in solchen Organisationen beispielsweise unklar, wer für BI im Haus verantwortlich ist oder man erkennt nicht, dass es für BI eigener Ressourcen und einer BI-Organisation bedarf.

Business Intelligence und Unternehmensstrategie gehören zusammen

Damit sich dies ändert, gilt es zunächst einmal zu verstehen, dass eine BI-Strategie die Unternehmensstrategie maßgeblich unterstützen kann. Danach ausgerichtet sind die drei wichtigsten Facetten einer BI-Strategie zu beachten: Die Fachliche, die Technologische sowie die Organisatorische. Bei der fachlichen Facette ist u. a. Voraussetzung, dass die fachlichen Anforderungen in einem Konzept niedergeschrieben werden und man sich über einheitliche Kennzahlendefinitionen einig ist. Je nach Anforderung wir sich für eine passende Infrastruktur entschieden, welche die technologische Basis für das BI System bildet. Letztendlich ist Business Intelligence auch in die Organisation einzubetten und setzt für die Einführung und Weiterentwicklung entsprechende Prozesse voraus.

Hilfe bei der Definition und Umsetzung der Business-Intelligence-Strategie

Hilfe bei der Strategiefindung bietet das „QUNIS BI und Big Data Strategie Framework“, das eine aus langjähriger Projekterfahrung abgeleitete detaillierte Methodik mit zahlreichen Best Practices und modernen Umfrageverfahren vereint. Gemeinsam mit dem Kunden entwickelt die QUNIS nach sechs Aspekten gruppiert die Fachkonzeption, diskutiert Architektur & Technologie und klärt Organisationsfragen (zum Beispiel Rollen und Verantwortlichkeiten). Aus diesen strukturierten und gewichteten Vorgaben wird nachfolgend die Strategie für Business Intelligence, Advanced Analytics oder Big Data definiert. Ziel ist die Entwicklung einer BI Roadmap für die zukünftige Lösung. Im Ergebnis wird sich später für eine Big-Data-Lösung für gewöhnlich eine andere Systemarchitektur als für die BI-Lösung ergeben (mehr Informationen zum Vorgehen in Big-Data-Projekten finden Sie hier). Aber genau aus diesem Grund ist es so wichtig, die Anforderungen vorher mit dem Kunden zu erarbeiten.

Folgende Blog-Beiträge der QUNIS zum Thema könnten für Sie auch interessant sein:

Formularanwendungen für den Fachbereich schnell und einfach erstellen

Erstellt am: Dienstag, 25. April 2017 von Sascha

Formularanwendungen, Eingabeoberflächen und Workflows wie etwa die Reisekostenabrechnung klingen zunächst einmal weder sexy noch spektakulär. Doch andererseits haben sie für Fachanwender oder im Außendienst, vor allem wenn sie intuitiv und an den internen Vorgaben angepasst sind, einen sofort erkennbaren Nutzen. Erstaunlich oft fehlen aber solche Anwendungen oder sie wurden einmal mit Excel/ACCESS oder im Rahmen eines aufwändigen Entwicklungsprojekts individuell erstellt und verursachen heute vor allem Verdruss und Pflegekosten.

Formulare für alle Endgeräte samt Datenbankintegration

Vor diesem Hintergrund ist in der Projektpraxis GAPTEQ FORMS entstanden. Das Angebot umfasst mit dem GAPTEQ FORMS Designer eine grafische Design-Umgebung zur flexiblen Gestaltung von Formularen für Endanwender und ermöglicht als Besonderheit die direkte Integration relationaler Datenbanken wie den Microsoft SQL Server. Dadurch lassen sich vorhandene Datenbanktabellen direkt mit den GAPTEQ FORMS Formularen verbinden, um Daten anzuzeigen und erfassen zu lassen. Auch spezielle Datenbankfunktionen wie z.B. Stored Procedures, u.a. können verwendet werden. Da GAPTEQ HTML5 verwendet, ist die Verwendung im Webbrowser, aber auch auf mobilen Geräten problemlos möglich – eine wichtige Anforderung beispielsweise bei mehreren Standorten, im Außendienst oder in der Wartung. Die Auslieferung der Seiten übernimmt der GAPTEQ FORMS Server (Anwendungsbeispiele mit GAPTEQ FORMS finden Sie hier).

QUNIS mit erfolgreichen GAPTEQ-Projekten

Die Firma GAPTEQ wurde erst im Herbst 2016 von erfahrenen IT-Experten gegründet, doch wurden bis dato bereits über 1.000 Lizenzen auf Basis eines einfachen Mietmodells ausgeliefert! Beim Vertrieb setzt GAPTEQ auf die Website, die in deutscher und englischer Sprache alle Informationen zu Produkt und Lizensierung bereithält. Wichtigster Vertriebskanal sind aber Beratungs- und Implementierungshäuser, die GAPTEQ FORMS aufgrund seiner Flexibilität gut an die eigene Produkt- und Marktstrategie anpassen und somit langfristig Umsatz generieren können. Auch die QUNIS setzt GAPTEQ FORMS seit Anbeginn in ihren Projekten mit großem Erfolg beispielsweise im Controlling ein. Referenzkunden sind das Outlet City Metzingen, Coatinc, die Bertelsmann Stiftung, Augustinum, Kieback & Partner und der sh:z Schleswig-Holsteinischer Zeitungsverlag GmbH & Co. KG.

Mehr Business Intelligence und Datenmanagement in der Cloud

Erstellt am: Montag, 20. März 2017 von Sascha
Das Interesse an der Nutzung von Software für Business Intelligence (BI) und Datenmanagement (DM) in der Cloud wächst. Zu diesem Schluss kommt eine internationale Umfrage vom BARC und der Eckerson Group. Teilnehmer waren laut der Autoren 370 IT-Verantwortlichen aus Anwenderunternehmen, die Business Intelligence und Datenmanagement im Einsatz haben. Danach ist in den Jahren 2013 bis 2016 der Einsatz entsprechender Cloud-Lösungen von 29 Prozent auf 43 Prozent der offenbar in diesem Vergleichszeitraum befragten Unternehmen gestiegen. Dies wäre eine Steigerung von 50 Prozent über die letzten drei Jahre.
Als wichtigste Vorteile von BI- und DM-Lösungen aus der Cloud nennen die Befragten die Flexibilität, geringeren Kosten (Keine Installation, keine Hardwarekosten u.a.) und Skalierbarkeit (nach Bedarf), die solche Angebote mit sich bringen. Der von den Studienteilnehmern mit Abstand am häufigste genannte Anwendungsfall von Cloud-BI-Werkzeugen ist die Bereitstellung von Reports und Dashboards (76 Prozent) – typischerweise ein Einsatzfeld für gelegentliche Nutzer.

Ad-hoc Analysen, Reporting und Dashboards in der Cloud

Viele Tätigkeiten in der Cloud ausgeführt sind aber laut der Autoren deutlich komplexer und werden vor allem von erfahrenen Power Usern vorgenommen. Letztere sind auch die häufigsten Nutzer von Cloud-Lösungen, denen es im Vergleich zu den gelegentlichen und ggf. weniger versierten Nutzern leichter fällt, sich für die Software-as-a-Service (SaaS) BI-Lösung ein Konto einzurichten, Daten hochzuladen sowie Daten zu analysieren und visualisieren. Am häufigsten werden Tools für Ad-hoc-Analysen (57 Prozent), das Erstellen von Reports und Dashboards (55 Prozent), für Data Preparation (39 Prozent) sowie Advanced- und Predictive Analytics (23 Prozent) genutzt.
Der Aufbau Cloud-basierter Data-Warehouse-Lösungen, von Data Marts oder die Nutzung von Datenintegrationswerkzeugen erfolgt hingegen bis dato im Vergleich zu den BI-SaaS-Anwendungen noch seltener. Den Grund dafür wollen die Autoren darin sehen, dass für den Aufbau solcher DM-Umgebungen mehr Aufwand in die Bereitstellung von Infrastruktur- und Plattform Services zu leisten sei. Hinzu kämen Anforderungen in punkto Sicherheit, Datenschutz sowie interne Auseinandersetzungen, die einer Verlagerung in die Cloud erschweren. QUNIS hilft Unternehmen beim Aufbau von BI- und Big-Data-Lösungen in der Cloud, beispielsweise mit Microsoft Azure Cloud, und hat dabei gute Erfahrungen gemacht. So lassen sich die benötigten Komponenten schnell und kostengünstig installieren und die Bandbreite der verfügbaren Infrastrukturkomponenten bis hin zu Umgebungen für Machine Learing ist heute bereits sehr groß. Weitere Informationen finden Sie hier.

Business Intelligence in der Public Cloud

Fast die Hälfte der Unternehmen, die Cloud BI nutzen, verwenden die Public Cloud (46 Prozent) für BI und Datenmanagement, weniger als ein Drittel (30 Prozent) setzt auf die Hybrid Cloud und 24 Prozent nutzen die Private Cloud. Die Public Cloud werde laut Studie hauptsächlich von Organisationen vorangetrieben, die BI-Umgebungen erstellen möchten, die keine On-Premise-Daten erfordern, und von Organisationen, die die Cloud verwenden, um ältere Data Warehouses zu ersetzen, erklärten die Autoren. Mit der Cloud lagern Unternehmen ihre Hardware-Infrastruktur automatisch an einen Dritten aus. Aber viele Unternehmen gehen noch weiter. Fast zwei Drittel der Befragten setzen beim Hosting ihrer Cloud-BI-Lösung auf BI- oder DM-Anbieter. Ein Viertel lässt seine Cloud-BI-Umgebung extern betreiben und verwalten, 16 Prozent lassen ihre Cloud-BI-Anwendung sogar von den Anbietern entwickeln.
Die gesamte Studie kann bei Sponsoren wie Jedox kostenfrei nach der Registrierung heruntergeladen werden.

Globaler Markt für Business Intelligence und Analytics wächst auf 18,3 Milliarden US-Dollar

Erstellt am: Donnerstag, 2. März 2017 von Sascha

Glaubt man den jüngsten Prognosen des Analystenhauses Gartner, so stehen dem weltweiten Markt für Software für Business Intelligence und Analytics rosige Zeiten bevor. Nicht nur soll sich der Umsatz in diesem Jahr im Vergleich zum Vorjahr um 7,3 Prozent auf 18,3 Milliarden US-Dollar erhöhen, er soll bis 2020 sogar weiter auf dann 22,8 Milliarden US-Dollar wachsen.

Verglichen zu früheren Wachstumszahlen würde sich das Tempo allerdings merklich verlangsamen. Zeiten mit einem Plus von 63,3 Prozent wie im Jahr 2015 werden wohl nicht wiederkehren, doch bleibt ein erwartetes Wachstum von 19 Prozent in 2020 weiterhin ein Wert, der über dem Durchschnitt im Softwaremarkt liegt. Die Zahl der Lizenzen steige, aber die Preise würden weiter fallen, erklärt Gartner die verlangsamte Entwicklung.

Zudem sei ein anderes Investitionsverhalten bei den Anwenderunternehmen zu beobachten. Diese würden zunehmend auf moderne BI- und Analytics-Plattformen setzen statt traditionelle BI-Werkzeuge. Erstere würden die heutigen Anforderungen bezüglich Verfügbarkeit, Agilität und umfassendere Analysefunktionen besser erfüllen. Die Systeme würden dabei immer seltener von der IT als vielmehr vom Fachbereich ausgesucht, beispielsweise um Self-Service-Szenarien abzubilden. Mehr zum Thema Implementierung von Business Intelligence finden Sie hier.

 

Partitionierung des MS SQL Servers für das Data Warehouse – Teil 2

Erstellt am: Freitag, 16. Dezember 2016 von Sascha

Nach einem ersten Überblick und Erläuterungen zum Partition Switching im ersten Teil des Blog-Beitrags, geht es nun darum, was benötigt wird, um eine Partitionierung vorzunehmen. Unter dem Gesichtspunkt, die von Natur aus komplexen DWH-Verarbeitungsroutinen nicht noch unnötig zu verkomplizieren, bietet sich hierfür ein praktikables, schlankes und modular gehaltenes Umsetzungskonzept an, das aus nachfolgend aufgeführten Komponenten besteht.

Administrativen Aufwand bei der Partitionierung kleinhalten

Von zentraler Bedeutung für den Betrieb ist, dass keine regelmäßigen administrativen Eingriffe nötig sind, etwa um neue Partitionen anzulegen, sondern, dass automatisch ausgeführte Routinen dieses übernehmen.  Basis für dieses Konzept ist, dass sämtliche partitionierte Tabellen dasselbe Partitionsschema und dieselbe Partitionsfunktion nutzen (oder falls doch nötig: möglichst wenig davon). Das Ganze sollte sogar soweit gehen, dass die OLAP Measure Groups auf die gleiche Weise partitioniert sind, wie die relationalen DWH-Tabellen.

Bausteine eines Partitionierungskonzepts

Folgende modulare Bausteine sollte Ihr Partitionierungskonzept etwa beinhalten:

  • eine Importsteuerungstabelle, die für sämtliche Faktendaten, die auf Basis eines Importdatums inkrementell importiert werden, Steuerungsmöglichkeiten für entsprechende Anwender erlaubt, wie einmaliger Import von Datum x, danach wieder y Tage rollierend oder dauerhaft ab Datum z usw.;
  • eine Handvoll Sichten, die Ihnen Infos zu Dimensionen / Measure Groups (beides basierend auf sog. Dynamic Management Views (DMV) auf Grundlage eines eingerichteten Verbindungsservers zu Analysis Services) und Partitionen / Partitionsgrenzen liefern – diese sind für den allgemeinen Überblick sinnvoll und finden in den nachfolgend aufgeführten Routinen Verwendung;
  • eine zentrale interne Routine (gespeicherte Prozedur), die auf Basis übergebener Parameter das Partition Switching für die relevanten Partitionen einer Faktentabelle vornimmt (in/out), sowie bei inkrementellen Importprozessen, die auf einem Importdatum basieren, die entsprechenden Fakten, die neu eingelesen werden, löscht (auf Basis der obigen Importsteuerungstabelle);
  • eine manuell aufzurufende Routine, die für neu erstellte Measure Groups basierend auf partitionierten Faktentabellen die Partitionierung – gültig nach aktuellem Stand – einrichtet (auf Basis von XMLA-Code via Verbindungsserver);
  • eine Routine für die nächtliche Datenverarbeitung, die sämtliche Dimensionen parallel verarbeitet (process update) und anschließend alle nicht partitionierten Measure Groups sowie alle relevanten Partitionen partitionierter Measure Groups parallel verarbeitet (auf Basis von XMLA-Code via Verbindungsserver sowie der Importsteuerungstabelle);
  • eine Routine, die auch mehrfach am Monatsanfang ablaufen kann und wiederholt nachsieht, ob es in der obersten (nach oben hin nicht begrenzten Partition) bereits Daten gibt. In diesem Fall werden alle nötigen Maßnahmen durchgeführt, die relationalen wie auch die multidimensionalen Partitionen anzulegen und zu verarbeiten.

Ein Tipp für die Praxis: Achten Sie penibel auf die Benennung der Dimensionen, Cubes und Measure Groups, denn DMVs liefern grundsätzlich den Namen dieser Objekte, während über XMLA die internen IDs dieser Objekte angesprochen werden müssen. Umbenennungen der IDs sind hier aufwändig.

Vorteile der multidimensionalen Partitionierung

Bleibt noch auszuführen, welche Vorteile die multidimensionale Partitionierung u.a. bietet: Sie erlaubt es, den Caching-Mechanismus zu optimieren. Während eine unpartitionierte Measure Groups mit der nächtlichen Verarbeitung aus dem Arbeitsspeicher entfernt wird, bleiben bei partitionierten Measure Groups die nicht-verarbeiteten Partitionen im Arbeitsspeicher vorhanden. Weiterhin beschränkt sich die Verarbeitung auf relevante Partitionen, während historische Partitionen nicht immer wieder neu verarbeitet werden müssen.

Weitere Informationen: Im Rahmen der QUNIS Beratung für Data Warehousing  geben wir unseren Kunden auch Tipps zur Performance-Optimierung ihres Microsoft SQL Servers. Dabei spielt die richtige Partitionierung eine wichtige Rolle.

Wer in deutschen Unternehmen wirklich die Top-Entscheidungen trifft

Erstellt am: Donnerstag, 17. November 2016 von Sascha

Viele Unternehmensvertreter beklagen regelmäßig, dass sie bei ihrer täglichen Arbeit mit der Datenqualität sowie einer fehlenden Integration und Geschwindigkeit der Entscheidungsprozesse zu kämpfen haben. Auch die Verfügbarkeit zusätzlicher Daten wird gewünscht. Nicht so die Teilnehmer des „Global Data and Analytics Survey 2016: Big Decisions“, die im Sommer 2016 von der Wirtschaftsprüfungsgesellschaft befragt wurden. Heruntergebrochen auf die 168 deutschen Teilnehmer der weltweiten Umfrage, bildeten Vertreter aus der IT (35 Prozent), der Geschäftsführung (21 Prozent) und aus dem Finance (neun Prozent) die größten Gruppen. Nach Branchen waren die Fertigungsindustrie (28 Prozent) und Handel (elf Prozent, Retail & Consumer) am stärksten vertreten.

Der Vorstand bleibt außen vor
Laut Aussage der großen Mehrheit der deutschen Teilnehmer werden hochstrategische Entscheidungen („big decisions“) in den kommenden fünf Jahren zu einem Plus des Shareholder Values von fünf bis 50 Prozent führen (61 Prozent der Befragten glauben das). Der Fokus liegt dabei auf der Entwicklung neuer Produkte und Dienstleistungen (25 Prozent), dem Vordringen in neue Märkte (21 Prozent) und IT-Investitionen (18 Prozent). Erstaunlich ist nun, dass an solchen Entscheidungen nicht vorrangig das Top Management beteiligt ist. 34 Prozent der Befragten sehen vielmehr Führungskräfte in der Organisation („specific organizational roles“) als Hauptbeteiligte, gefolgt von Abteilungsleitern (14 Prozent). Der Vorstand ist laut Umfrage nur in zehn Prozent der Unternehmen der Auslöser.

Fehlende Ressourcen und mangelnder Entscheidungswille im Management
Ebenso ungewöhnlich ist im Vergleich zu vielen anderen Umfragen und der Beratungspraxis, dass sich die Befragten offenbar keine Sorgen um die Datenbasis machen, auf der tägliche Entscheidungen getroffen werden. Nur zwei Prozent sehen hier ein Problem. Entsprechend bewerten sie auch die Verfügbarkeit von Daten als außergewöhnlich gut. So erklärten 97 Prozent der Unternehmensvertreter, dass in ihren Organisationen alle Entscheidungen grundsätzlich „überwiegend“ oder „bis zu einem gewissen Grad“ datengetrieben seien. Nur drei Prozent verneinten dies.

Bei den oben genannten strategischen Entscheidungen setzt man aber hierzulande – leicht über dem internationalen Durchschnitt – weniger auf Daten als immer noch  auf „Intuition und Erfahrung“ (41 Prozent). Erst an zweiten Stelle folgen datenbasierte Entscheidungen und der Einsatz von Analytics (34 Prozent). 25 Prozent lassen sich dabei durch externe Berater helfen. Die größten denkbaren Hindernisse bei der Umsetzung solcher Top-Entscheidungen sehen 21 Prozent der Befragten in fehlenden Ressourcen, 19 Prozent im mangelnden Entscheidungswillen („Leadership courage“) und 17 Prozent in den Auflagen durch die eigenen Unternehmensrichtlinien.

Es wäre sicher spannend, diese Selbsteinschätzungen einmal im Rahmen eines QUNIS Big-Data-Workshops samt „Proof of Concept“ zu überprüfen.

Hohe Anforderungen an ein modernes Reporting

Erstellt am: Donnerstag, 13. Oktober 2016 von Sascha

Konsolidierung, Datenbeschaffung, Plausibilisierung und Abstimmung sowie die Berichtserstellung sind die typischen Phasen, die ein Reporting durchläuft. Die dazugehörigen Prozesse sollen heute so flexibel sein, dass sich neue Anforderungen schnell und ohne größeren Aufwand umsetzen lassen. Doch glaubt man der diesjährigen Lünendonk-Untersuchung „Der Markt für Business Intelligence und Business Analytics in Deutschland“ ist dies lediglich in 37 Prozent der insgesamt 70 befragten Unternehmen heute der Fall (2014: 54 Prozent). Stattdessen sind viele Standardaufgaben im Reporting nur ungenügend automatisiert und integriert. Durchschnittlich 67 Prozent der zur Verfügung stehenden Zeit entfallen auf diese Phasen.

Operational Business Intelligence
Da immer mehr Geschäftsprozesse und -modelle digital gesteuert und Marktzyklen kürzer werden, besteht also Handlungsbedarf. Strategische und operative Entscheidungen müssen sich künftig immer häufiger zeitnah auf der Basis analysierter Datenmengen treffen lassen können (operational BI). Und nicht nur die bisherigen Prozesse sind laut Lünendonk häufig noch (oder wieder) zu unflexibel, sondern auch die Qualität und Detailtiefe der Reports lasse zu wünschen übrig. So erklärte mit 44 Prozent (2014: 64 Prozent) weniger als die Hälfte der befragten Unternehmen, man würde qualitativ hochwertige Reports erstellen.

Andererseits seien laut Lünendonk vielerorts Anstrengungen im Gang, das Reporting in den kommenden Monaten zu optimieren. Etwa bezüglich der Automatisierung: 36 Prozent der Unternehmen müssen aktuell noch manuelle Eingriffe in den Reporting-Prozess vornehmen. Bereits in den zwei Jahren sollen es nur noch 29 Prozent sein.

Etwas weiter sind die befragten Unternehmen hinsichtlich der Standardisierung ihres Reportings. Aktuell können bereits 47 Prozent der Unternehmen auf vordefinierte Berichtsvorlagen zurückgreifen. Nur 24 Prozent der Befragten erklärte, Berichte würden immer noch erst auf Anfrage neu erstellt. In den kommenden zwei Jahren wollen 79 Prozent der Unternehmen standardmäßig auf vordefinierte Berichtvorlagen zurückzugreifen.

Reporting häufig als Insellösung
Eine zusätzliche Herausforderung im Reporting sind laut Lünendonk viele noch existierende Insellösungen. Knapp 60 Prozent der Befragten erklärten, dass ihr Berichtswesen dadurch aktuell keinen einheitlichen Blick auf das Unternehmen ermöglicht.  Beklagt wurde ferner von mehr als der Hälfte der Umfrageteilnehmer der Mangel an Experten mit speziellem technischen und Branchenwissen, und auch eine stärkere Verzahnung des Berichtswesens der Fachbereiche sei für jeden zweiten Befragten noch nicht erreicht. Letztere sei aber Voraussetzung für eine integrierte Unternehmenssteuerung, in der Kennzahlen und Datenauswertungen der einzelnen Fachbereiche im Sinne eines unternehmensweiten Ansatzes genutzt werden können.