Archiv für die Kategorie Big Data

Die Digitalisierung wird oft der IT überlassen

Erstellt am: Dienstag, 7. November 2017 von Sascha

Nur in 42 Prozent aller Unternehmen werden Digitalisierungsprojekte und digitale Innovationen aktuell vom Vorstand oder der Geschäftsleitung angestoßen. Stattdessen kommen die Initiativen in 86 Prozent der Unternehmen aus der IT-Abteilung. Dies ergab jetzt eine Umfrage von Bitkom Research im Auftrag von Tata Consultancy Services (TCS) unter 905 Unternehmen mit 100 oder mehr Mitarbeitern in Deutschland. Konkret seien die Interviews mit Führungskräften geführt worden, die in ihrem Unternehmen für das Thema Digitalisierung verantwortlich sind. In einer vergleichbaren Umfrage aus dem Vorjahr hatten noch 51 Prozent der Befragten das Management als Treiber der Digitalisierung gesehen und 78 Prozent die IT.

Grundsätzlich seien laut einer Pressemeldung jeweils rund drei Viertel der Befragten interessiert und aufgeschlossen gegenüber Cloud Computing (77 Prozent) und Big Data Analytics (72 Prozent), jeder Zweite gegenüber dem Internet der Dinge (46 Prozent). Rund jedes dritte Unternehmen interessiert sich für Technologien wie Virtual und Augmented Reality (37 Prozent), 3D-Druck (36 Prozent), Künstliche Intelligenz (35 Prozent) oder Robotik (29 Prozent).

Bedarf an Skills für Digitalisierung

Mit dem Wandel sehen die befragten Unternehmen auch einen steigenden Bedarf an zusätzlich und neuen Mitarbeitern bzw. an Beratungsdienstleistungen. So planen fünf Prozent der Unternehmen Stellen für Data Scientists und Application Developer, externe Dienstleister wollen dazu vier bzw. neun Prozent nutzen. Die größte Nachfrage besteht allerdings nach IT-Sicherheitsexperten. Eine solche Stelle im Unternehmen wollen 15 Prozent besetzen, 20 Prozent wollen das entsprechende Know-how extern beziehen.

Mehr zum Thema Digitalisierung finden Sie hier:

Der Chief Data Officer – Eine neue Rolle etabliert sich

Erstellt am: Mittwoch, 27. September 2017 von Sascha

Die digitale Transformation von Unternehmen ist eng verknüpft mit der Organisation und Weiterentwicklung des bisherigen Information Managements. Dies führt unter anderem zur Entwicklung neuer Rollen, denen eine strategische Aufgabe bei der Umsetzung zukommt. Damit Daten tatsächlich operativ nutzbar werden, müssen sie auch technisch verfügbar, korrekt und standardisiert (Governance) vorliegen. Um diese Vorgaben umzusetzen und zu überwachen, haben manche Organisationen damit begonnen, die Rolle eines „Chief Data Officers“ (CDO) zu definieren und zu besetzen. Nicht zu verwechseln mit der Rolle eines „Chief Digital Officers“ (ebenfalls CDO abgekürzt) definiert der Datenverantwortliche, wie Daten künftig erfasst, verwaltet, geschützt und letztlich zu Geld gemacht werden sollen. Ob dies in der Praxis bereits gelingt, hat nun die vom US-Anbieter Experian in Auftrag gegebene Umfrage „The Chief Data Officer: Powering business opportunities with data“ näher beleuchtet. 200 CIOs und 50 CDOs aus den USA nahmen laut der Autoren teil. Sie stammen aus Unternehmen mit mehr als 500 Mitarbeitern und aus diversen Branchen. Nachfolgend einige Ergebnisse aus dieser Untersuchung.

Big Data verstärkt den Bedarf an Chief Data Officer

Häufigstes Motiv für die Schaffung einer dedizierten CDO-Rolle ist danach der Wunsch, durch sein Wirken die Nutzung von Big Data profitabel zu machen sowie einen datengetriebenen Ansatz zu finden, der strategische Vorteile schafft, bei gleichzeitig überschaubaren Projektrisiken. Selbst zwei Drittel aller CIOs, in deren Unternehmen bislang keine entsprechende Position existiert, erklärten, dass sie sich mit den oben erwähnten Themen im Datenmanagement überfordert fühlten und daher einen Chief Data Officer begrüßen würden.

Doch Anspruch und Wirklichkeit klaffen in der Praxis offenbar noch häufig auseinander – was angesichts der noch „jungen“ Rolle nicht verwundert. So erklärte fast jeder zweite CDO, er habe seine Positionen angetreten, ohne dass der Aufgabenbereich und die Verantwortlichkeiten zuvor geklärt worden seien. Zwar wären im weiteren Verlauf der Karriere bei etwa 40 Prozent der Befragten die ebenfalls knappen Ressourcen und Budgets etwas aufgestockt und auch der bis dato meist beschränkte Zugriff auf die Datenhaltungen gelockert worden. Viele würden sich aber bis heute nicht mit der innovativen Nutzung von Daten beschäftigen, sondern müssten vor allem Projekte zur Kostenersparnis treiben.

Die Gründe für diesen Widerspruch führen die Autoren nicht allein auf unklare Rollendefinitionen zurück, sondern auch auf die Tatsache, dass in vielen Organisationen das Datenmanagement grundsätzlich noch erhebliche Defizite aufweise. So sehen laut Umfrage insbesondere die CIOs im fehlenden Datenzugriff das häufigste Hindernis auf dem Weg zu einer stärker datengetriebenen Organisation. Die von den CDOs beklagten schmalen Budgets würden Investitionen in entsprechende Dateninfrastrukturen erschweren, und es fehle nach Ansicht vieler Befragter an Skills in den Unternehmen. Daran könnte auch ein Chief Data Officer so schnell nichts ändern (Hilfe bei der Schaffung einer gemeinsamen, performanten Datenarchitektur für Big Data und Data-Warehouse-Systemen bietet die praxiserprobte QUNIS-Methodik).

Chief Data Officer – eher operativ oder strategisch tätig?

Hinzu kommt, dass sich der CDO in der Praxis offenbar häufig in einer schwierigen Position zwischen IT und Fachbereich befindet. Während die Business User immer lauter über den fehlenden Datenzugang klagten, müsse der CDO oft erst bei der IT anfragen, um hier Änderungen zu bewirken, so die Autoren. Diese könne oft Stunden oder gar Tage dauern. Zudem werde sich der Druck auf den Chief Data Officer in den kommenden zwei Jahren weiter verstärken, da Themen wie Datenschutz, die rasante technologische Entwicklung und steigende Kundenerwartungen viel Arbeit machten. QUNIS kann diese sehr operativ beschriebene Arbeitsweise eines CDOs aus ersten Kundenprojekten in Deutschland nicht bestätigen. Vielmehr stehen nach unserer Erfahrung eindeutig strategische Aufgaben im Vordergrund.

Konkurrenz zwischen Chief Data Officer und CIO

Viele CDOs beklagten in der Umfrage zudem, dass sie nicht zum C-Level gehörten, sondern häufig nur ein Junior Partner für das Top-Management seien. Auch bei den CIOs scheint diese Einstufung immer mehr zu überwiegen. So sahen vor zwei Jahren in einer vergleichbaren Umfrage von Experian  noch 16 Prozent mehr von ihnen den CDO als gleichrangigen Kollegen an als es jetzt der Fall ist. Ob diese Zurückstufung eher strategische, organisatorische oder vielleicht finanzielle Gründe hat, vermochten die Autoren nicht sicher zu sagen. Bei der QUNIS können wir diese Konstellation innerhalb der Hierarchie bislang nicht bestätigen. Vielmehr genießen die uns bekannten CDOs ein hohes Ansehen im Management und übernehmen strategische Aufgaben, die als sehr sinnvoll für die Organisation betrachtet werden. Möglich aber, dass in manchen der befragten Unternehmen eine Konkurrenzsituation zwischen CIO und CDO dahinter steckt. So bezeichneten über 40 Prozent der CDOs ihr Verhältnis zum CIO als „distanziert“ oder „nicht existent“. Umgekehrt bewerteten über 60 Prozent der CIOs ihre Beziehung zum Chief Data Officer als „positiv“, also in ihrem Sinne. Aktuell berichten etwa 40 Prozent der CDOs an den CEO, über die Hälfte hingegen an die IT oder Leiter von Geschäftsbereichen.

 

 

 

Business Intelligence und Data Warehousing in der Cloud auf dem Vormarsch

Erstellt am: Donnerstag, 14. September 2017 von Sascha

Ob Analyse und Reporting oder Data Warehousing: die Nutzung von Cloud-Dienste in der Verwaltung und Auswertung von Unternehmensdaten etabliert sich. Dies können wir auch aus den QUNIS-Kundenprojekten berichten, in denen immer öfter neue Anwendungen für Big Data und Advanced Analytics oder klassisches Data Warehousing in der Cloud (Microsoft Azure) entstehen.
Ein Stimmungsbild zur Cloud-Nutzung gab kürzlich auch die Online-Umfrage „BI and Data Management in the Cloud: Issues and Trends“ vom BARC und der Eckerson Group. Danach gaben 43 Prozent der 370 Unternehmensvertreter an, bereits heute zumindest Teile ihrer Business-Intelligence- oder Daten-Management-Vorhaben mit Hilfe von Cloud-Diensten umzusetzen. Die größte Gruppe unter den Teilnehmer der Umfrage stammten nach Region aus Europa (47 Prozent) und Nordamerika (37 Prozent).

Business Intelligence Tools am häufigsten in der Cloud

Von den rund 160 Cloud-Nutzern erklärte über die Hälfte, sie würde Business-Intelligence-Werkzeuge (62 Prozent) und -Server (51 Prozent) nutzen. Stark zugenommen hat in den letzten drei Jahren auch der Einsatz von Tools für die Datenexploration (49 Prozent). Die Gründe hierfür lägen laut der Autoren in der allgemein zunehmenden Verbreitung solcher Werkzeuge sowie dem großen Interesse insbesondere unter den „Power Usern“ an solchen visuellen Tools. Power User seien aktuell die stärkste Nutzergruppe von Cloud-Lösungen. Werkzeuge für Advanced Analytics werden in jedem vierten Unternehmen in der Cloud betrieben. Auf dem Gebiet des Datenmanagements in der Cloud dominieren Data-Warehouse-Systeme (42 Prozent) vor Datenintegrationswerkzeugen (35 Prozent).

Public Cloud bevorzugt

Beim Betrieb von Cloud-Lösungen setzen Unternehmen laut Umfrage vor allem auf die „Public Cloud“, während interne Systeme („Private Cloud“) oder hybride Ansätze weniger oft genannt wurden. Public Clouds (wie der Microsoft Azure Stack) sind einfach und vergleichsweise kostengünstig nutzbar, während im Vergleich dazu intern aufgebaute Lösungen von hohen Infrastrukturinvestitionen begleitet sind. Hybride Ansätze, so die Autoren, wären zudem schwieriger zu verwalten und würden Sicherheitsbedenken auslösen, weil sich beispielsweise ein BI-Anwendung in der Cloud durch die Unternehmens-Firewall mit der internen Lösung verbinden (Tunneling) muss.

Einen praxisorientierten Einblick in die derzeitige Cloud-Nutzung für Business Intelligence und Datenmanagement gibt Ihnen unser Blog-Beitrag Business Intelligence – No Cloud, Hybrid oder All Cloud?

 

Megatrend Digitalisierung

Erstellt am: Freitag, 1. September 2017 von Sascha

Großer Bahnhof auf dem diesjährigen Kundentag „QUNIS Day“ in Neubeuern. Mit neuem Besucherrekord und aufgeräumter Stimmung ging es am Morgen in die Konferenz, in deren Mittelpunkt Best Practices für Business Intelligence, Big Data und Advanced Analytics sowie der fachliche Austausch stehen. Unter dem Motto „Innovation Now“ erläutern Senior Analysten sowie unsere Kunden Henkel und Südpack  wie sich die allgegenwärtige digitale Transformation der Unternehmen aktuell darstellt.

QUNIS Day 2017

Großes Anwendertreffen zu Business Intelligence, Big Data und Advanced Analytics auf dem QUNIS Day 2017. Quelle: QUNIS

Geschäftsführer Hermann Hebben konnte zum Auftakt das erfolgreichste Geschäftsjahr seit Firmengründung 2013 verkünden. Mittlerweile werden über 150 Unternehmen im Mittelstand und Konzern betreut und auch die Belegschaft sei in den letzten zwölf Monaten um 73% gewachsen. Auch wirtschaftlich stehe das Beratungshaus sehr gut dar. Hebben betonte aber, dass man weiterhin auf die Kernkompetenz setzen werde, statt neue Beratungsfelder um jeden Preis anzugehen: „G´scheid oder gar ned!“.

Data Warehouse schneller und performant aufbauen

In den letzten zwölf Monaten wurden viele erfolgreiche Projekte umgesetzt. Die Strategieberatung bleibt dabei von zentraler Bedeutung, um ein Fundament für erfolgreiche Initiativen zu legen. Mit Blick auf die Umsetzung von Anforderungen hat QUNIS sein im Markt einmaliges „Data Warehouse Framework“ weiterentwickelt und in vielen Data-Warehouse-Projekten eingesetzt. Ferner wird auf dem QUNIS Day mit der „QUNIS Automation Engine“ erstmals im Plenum eine neue Methode und Technik vorgestellt, mit der sich die Beladung eines Data-Warehouse-„Core“ automatisieren lässt. Gut entwickle sich laut Hebben auch die Schwesterfirma GAPTEQ, die sich nach ihrem Start im September 2016 mittlerweile gut im Markt etabliert hat.

Digitalisierung verändert das Datenmanagement und Datenanalyse

All diese Entwicklungen erfolgen wie erwähnt in einem Marktumfeld, das sich für Unternehmen durch die Digitalisierung aktuell radikal verändert. Beispielhaft stellte Geschäftsführer Steffen Vierkorn vier Megatrends vor, die mit der Digitalisierung verknüpfte sind: Globalisierung, Mobilität, Konnektivität und Individualisierung. Die Technologie werde immer mehr zum Treiber von Veränderungen. Besonders sei dies bei der Nutzung von Cloud-Diensten und Komponenten wie „Microsoft Azure“ zu beobachten sowie bei der Vernetzung von Geräten (Internet of Things). Jenseits der Vorstellungskraft lägen mittlerweile die entstehenden Datenmengen. Bis 2025 sei mit 163 Zetabyte zu rechnen, so Vierkorn, die auf etwa 40 Billionen DVDs Platz hätten!

Veränderungen seien auch mit Hinblick auf die Datennutzung und -analyse bei der Produktentwicklung und Geschäftsbeziehungen zu beobachten. Die Rolle von Business Intelligence. Big Data und Advanced Analytics nehme in diesem Szenario weiter zu. Viele Unternehmen versuchten aktuell die Analytik in den Griff zu bekommen. In diesem Zusammenhang stellte Vierkorn das Data-Lake-Konzept der QUNIS vor.

Künstliche Intelligenz QUNIS Day

Ein Beispiel für die Nutzung Künstlicher Intelligenz war auf dem QUNIS Day am Beispiel eines Fahrzeugs zu sehen, das neben Gesichtserkennung auch Objekten beim Fahren ausweichen kann. Quelle: QUNIS

Die dazugehörige Architektur, die traditionelle Data-Warehouse-Welt und die Nutzung von Big Data methodisch und technologisch verknüpfen hilft, wurde auf der Veranstaltung ausführlich vorgestellt. Die Auswirkungen seien auch organisatorisch groß. So würde es künftig mehr und neue Rollen im Team geben müssen, um die unterschiedlichen Anforderungen abdecken zu können.

QUNIS Day 2017

QUNIS Day 2017 Steffen Vierkorn und Patrick Eisner vom QUNIS-Management.

Kostenlose Testdaten für Big-Data-Analysen

Erstellt am: Donnerstag, 1. Juni 2017 von Sascha
Der Verwendung von Testdaten für Big-Data-Analysen stehen häufig der Datenschutz und strategische Bedenken entgegen. Auch sind Daten unterschiedlicher Provenienz und Struktur nicht immer verfügbar oder müssen eventuell aufwändig bereitgestellt werden. Ebenso können beispielsweise Marktzahlen die eigene Analysebasis sinnvoll erweitern.
Umso erfreulicher ist es für Teams, die sich mit Big Data und Advanced Analytics vertraut machen wollen, dass es heute viele, meist öffentlich zugängliche Datenquellen im Internet gibt. Dabei handelt es sich beispielsweise um Daten öffentlicher Einrichtungen. Hier haben die Bemühungen um „Open Data“ Vieles in Bewegung gesetzt. Ebenso stellen Unternehmen zunehmend Daten über REST-Schnittstellen kostenfrei zur Verfügung, in der Hoffnung, dass sich aus der Nutzung Folgegeschäfte ergeben können. Die Testdaten können dabei durchaus ein erhebliches Volumen von bis zu mehreren Hundert Terabytes haben. Nachfolgend stellen wir Ihnen einige dieser Quellen kurz vor:

QUNIS

QUNIS arbeitet bei Big-Data-und Advanced-Analytics-Vorhaben mit Testdaten, um Aufgabenstellungen zu veranschaulichen. So verwenden wir Datasets von Kaggle, einer Online-Plattform, die rund 260 Datensätze anbietet. Zudem haben wir ergänzend mit unserer Lösungsbibliothek zahlreiche Big-Data-Anwendungsbeispiele aus allen Branchen vereint, die Ihnen bei der Auswahl und Priorisierung von Use Cases gute Dienste leisten.

Bund
Die Geschäfts- und Koordinierungsstelle GovData arbeitet seit Herbst 2015 an dem EU-konformen Metadatenstandard für offene Verwaltungsdaten in Deutschland „DCAT-AP.DE“. Über das Datenportal stellen teilnehmende öffentliche Stellen Informationen zu vorhandenen Datensätze aus verschiedenen Bereichen (z.B. Umwelt, Bildung, Statistik) zur Verfügung. Es ist eine Vielzahl an unterschiedlichen Daten vorhanden. So finden Sie über GovData neben Statistiken und Jahresberichten, beispielsweise auch Karten, Wahlergebnisse oder Datenbanken, die es Ihnen ermöglichen, über Suchkriterien passende Einrichtungen zu finden.
https://www.govdata.de/

US-Regierung
Hier findet sich Open Data zu Themen wie “Landwirtschaft”, “Finanzen”, “Wirtschaft”. Insgesamt über 180tausend Datensätze.
https://www.data.gov/

Eurostat
Das Statistische Amt der Europäischen Union, kurz Eurostat genannt, bietet ein umfängliches Open-Data-Repository. Hier finden sich beispielsweise Daten zu Themen zur Bevölkerung, Unternehmensdaten, Wirtschaftsdaten, Landwirtschaft oder dem Gesundheitswesen.
http://ec.europa.eu/eurostat/data/database

Amazon Datasets
Amazon bietet mit den „AWS Public Data Sets“ eine Vielzahl von Daten, die der Konzern in seiner S3-Cloud-Plattform vorhält. Die Daten sind frei, es fallen aber Prozessgebühren an, wenn Rechner zur Analyse die AWS-Plattform verwenden. Zu den angebotenen Daten gehören untern anderem die täglich aktualisierten NASA-Daten, Klimadaten, Musikdaten („The Millionen Song Collection“), Social-Media-Daten, Daten aus der Wikipedia oder vom „Human Genome Project“.
http://aws.amazon.com/datasets/

CERN
Das CERN, die Europäische Organisation für Kernforschung, stellt aus seinen Projekten ebenfalls Daten zur Verfügung. So etwa Proben aus der Arbeit mit dem “Large Hadron Collider”. Unter diesen insgesamt über 300 Terabyte sind nicht nur Rohdaten, sondern auch aufbereitete Daten, die sich etwa in Universitäten nutzen lassen.
http://opendata.cern.ch/?ln=de

Weltbank
Die Finanzorganisation bietet eine Fülle an Daten über die weltweite Entwicklung und Wirtschaft. Statt eines Downloads lässt sich auch über einfach zu bedienende Benutzeroberflächen auf die Daten zugreifen.
http://data.worldbank.org/

OECD
Die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) stellt ein Vielzahl statistischer Daten zu allen 30 OECD-Ländern, der EURO-Zone und der Gesamtorganisation zur Verfügung. Die Daten sind nach Themengruppen organisiert, wie beispielsweise Internationaler Handel, Preise, Public Management oder zum Arbeitsmarkt.
http://www.oecd.org/statistics/

Ein Verzeichnis weitere Datenquellen bietet beispielsweise die Website Quora.

Praktische Informationen zu Big Data und Advanced Analytics für Ihre Projekte sowie Analysen und Neuigkeiten aus dem Markt bietet Ihnen auch unser Seite Big Data Factory!

Data Science mit der Microsoft Azure Cortana Intelligence Suite

Erstellt am: Donnerstag, 1. Juni 2017 von Sascha
Kaum eine Business-Nachricht heutzutage ohne die Schlagworte Künstliche Intelligenz, Big Data, Advanced Analytics, Machine Learning. Es heißt, die Geschäftswelt wird sich schon bald komplett ändern – und tatsächlich hat die Zukunft bereits begonnen. Erst kürzlich verkündete Microsoft der Welt seine Vision und sein Credo, künstliche Intelligenz zu demokratisieren, damit jeder von ihr nicht nur profitieren kann, sondern auch soll. Spätestens jetzt sollte man sich als Unternehmer oder als Teil eines Unternehmens Gedanken machen, wie er an dieser gleichermaßen faszinierenden wie auch ein wenig erschreckenden neuen Welt nicht nur teilhaben kann, sondern auch wird.

Aber wie? Eine nähere Betrachtung des Themas zeigt schnell, dass es vor allem auf Use Cases ankommt, die sich ein Unternehmen überlegen und die es definieren muss. Ebenso muss das Ziel einer Big Data-Initiative klar sein, und damit auch, was man durch entsprechende Anwendungen prognostizieren und damit erreichen will. Daran anschließend drängen sich weitere Fragen auf: Wie kann ich mein Big Data- oder Advanced Analytics-Vorhaben in die Tat umsetzen? Welche Voraussetzungen müssen gegeben sein? Wie groß sind die Hürden für eine Umsetzung? Statt nur zu vermuten, was die Kunden über meine Produkte denken, will ich es wissen! Ich will präzise Voraussagen treffen können, ob und wann meine Kunden Interesse entwickeln oder wann ich Gefahr laufe, sie zu verlieren. Dies gelingt umso besser, je mehr möglicherweise kundenrelevante Informationen einbezogen werden können, beispielsweise aus den sozialen Medien oder aus Nachrichten-Feeds. Diese wertvollen Informationen will ich sodann mit meinen vorliegenden Geschäftsergebnissen „verheiraten“, um auf dieser Datenbasis fundierte und zuverlässige Geschäftsentscheidungen treffen zu können. 

Erfahrung mit der Microsoft Azure Cortana Intelligence Suite

Kann diesbezüglich Microsoft sein Versprechen halten? Sind die Komponenten der Microsoft Azure „Cortana Intelligence Suite“ wirklich geeignet, um Big Data-Vorhaben umzusetzen? Zunächst einmal ist das Angebot des Herstellers Cloud-basierend und komplett für den Nutzer administriert, d.h. man benötigt keine eigene Hardware oder Mitarbeiter, sondern nutzt vollständig verwaltete Dienste. Ferner lassen sich mit Hilfe der neuen „Azure Logik Apps“ auch die genannten sozialen Medien problemlos anzapfen, und das ganz ohne zusätzlichen Programmieraufwand. Einfach ist in der Praxis auch die Analyse des daraus entstandenen Datenstroms, etwa um Trends zu erkennen. So kann man beispielsweise für eine Stimmungsanalyse das „Text Analytics API“ –  ein Baustein der sogenannten Cognitive Services – verwenden, mit dessen Hilfe sich auch Schlüsselbegriffe aus dem Text ermitteln lassen. Und dies ist nur eine Option von vielen auf Machine Learning basierenden Bausteinen aus dem Microsoft-Angebot.

Werkzeuge für den Data Scientist

Für die Arbeit als Data Scientist findet sich das „Azure Machine Learning Studio“, eine sehr komfortable und benutzerfreundliche Anwendung, die sämtliche Schritte des Data-Science-Prozess per Drag & drop komponieren hilft. Neben vielen Methoden zur Unterstützung der Datenvorbereitung, bietet Azure ML Out of the box auch alle gängigen Machine-Learning-Modelle aus den Gebieten „Supervised“ sowie „Unsupervised Learning“ – von einfachen Classification-Modellen über Neuronale Netzwerke bis hin zum K-Means Clustering. Bereits vorhandene, in R oder Python entwickelten Scripts oder präferierten Modelle kann der Data Scientist ebenfalls einfach integrieren.
Flexibilität bietet Microsoft auch bei der Speicherung des Datenstroms plus Analyseergebnisse. Eine Option ist die Ablage in einem schier unbegrenzten Data-Lake-Speicher, auf dem der Anwender mit Hilfe der „Data Lake Analytics“ und U-SQL weitere Analysen vornehmen kann. Gleichfalls möglich ist eine Speicherung strukturierter Daten in einer Azure SQL-Datenbank oder einem Datawarehouse oder es lassen sich Daten auch direkt für den Endanwender interaktiv visualisiert per „Power BI“ bereitstellen.

Der Weg in die schöne neue Welt ist also keineswegs erschreckend schwierig, sondern mit einem Schritt ist man schon heute mitten drin! Dabei stellen die genannten Möglichkeiten nur ein Bruchteil dessen dar, was mit der „Azure Cortana Intelligence Suite“ bereits heute möglich ist. Für perfekt passende Szenarien sind der Fantasie dabei keine Grenzen gesetzt. Die Experten von QUNIS stehen Ihnen dabei mit Rat und Tat zur Seite! Sei es durch ein kostenfreies Advanced-Analytics-Webinar oder im Rahmen eines Big-Data-Workshops. Wir können Ihnen in jedem Fall dabei helfen, unternehmensspezifische Business Cases zu identifizieren, ein passendes Szenario mit Ihnen abzustimmen und dieses nachfolgend im Rahmen eines Proof of Concept auch gleich zu verproben.

Weitere Beiträge zur Nutzung von Big Data und Advanced Analytics finden Sie auf unserem Blog der Bigdata Factory!

QUNIS on Tour – Big Data in Bayern und Kongress der Controller

Erstellt am: Mittwoch, 17. Mai 2017 von Sascha
Zweimal „großer Bahnhof“ in Bayern: Unter dem Motto „Zukunft digital – Big Data“ trafen sich am vergangenen Montag zum einen Unternehmensvertreter und Mitglieder des Zukunftsrats der Bayerischen Wirtschaft in Straubing zum Austausch über die wirtschaftliche Bedeutung von Big Data. Die QUNIS war mit einem Stand vertreten und gab dort Interessenten Einblick in unsere Big-Data-Methodik, Use Cases sowie unser Anwenderbefragung zu Big Data und Advanced Analytics in der Praxis.
Im Mittelpunkt der Konferenz stand die erstmals 2016 präsentierte Studie zu den wirtschaftlichen Potenzialen und rechtlichen Rahmenbedingungen von „Big Data“. Im Auftrag der vbw – Vereinigung der Bayerischen Wirtschaft e. V. hatten die Prognos AG und Professor Dirk Heckmann vom Lehrstuhl für Öffentliches Recht, Sicherheitsrecht und Internetrecht an der Universität Passau, diese Untersuchung für den Zukunftsrat erstellt.
 Die darauf beruhenden Handlungsempfehlungen des Zukunftsrats an Politik, Wirtschaft und Wissenschaft stellte vbw-Präsident Alfred Gaffal den rund 120 anwesenden vbw-Mitgliedern noch einmal kurz vor. Big Data werde als Schlüssel zur Entwicklung innovativer hybrider Geschäftsmodelle entscheidend zum Wachstum der kommenden Jahre beitragen, so die Erwartung des Verbands. Bayern müsse dabei zur europäischen Leitregion für Big Data Technologien und Anwendungen werden.  Jedes Unternehmen sollte sich laut der Handlungsempfehlungen künftig eine Strategie für den Umgang mit Daten – möglichst unter Ausschöpfung der darin liegenden Potenziale im Rahmen von Big-Data-Anwendungen – geben. Sie beinhaltet gleichermaßen die Realisierung wirtschaftlicher Chancen wie eine möglichst rechtssichere Gestaltung des Umgangs mit Daten.

Auf dem vbw-Treffen in Straubing: Gastgeber Erich Sennebogen, Jutta Krogull, Geschäftsführerin der vbw Bezirksgruppe Niederbayern, sowie vbw-Präsident Alfred Gaffal. Foto: vbw

Big Data – wem gehören die Daten?

Auf letzteren Aspekt ging Professor Heckmann in einer Fragerunde näher ein und machte deutlich, dass hier noch viele Fragen beim Umgang mit Daten zu klären sind, um die Nutzung von Big Data zu fördern und zu erleichtern. Dabei gehe es zum einen um das komplexe Thema Datenschutz, zum anderen aber auch um Fragen der Fairness und die juristisch noch ungeklärte Frage, ob Daten vergleichbar zu Sachgegenständen auch als „Eigentum“ betrachten werden können (Wem gehören die Daten?). Unternehmen sollten ihren Umgang mit Daten mit vertrauensbildendenden Maßnahmen flankieren, empfiehlt der Zukunftsrat, indem sie transparent über die geplante Erhebung, Speicherung und Nutzung von Daten informieren. Innerhalb der Grenzen der notwendigen Geheimhaltung bezüglich eigener Geschäftsvorgänge sollte über Big-Data-Zwecke, -Anwendungen und -Schutzmaßnahmen informiert werden. Bei personenbezogenen Daten und insbesondere im Falle einer nicht von vornherein abschließend feststehenden Nutzung der erhobenen Daten ist dies ohnehin erforderlich. Prof. Heckmann erinnerte zudem die Teilnehmer daran, dass im kommenden Jahr mit der „Europäischen Datenschutzverordnung“ höhere Transparenz-Anforderungen bei der Datennutzung auf alle Beteiligten zukämen.

ICV-Kongress über Digitalisierung und die Folgen im Controlling 

Zum anderen zeigte die QUNIS Präsenz auf dem 42. Congress der Controller in München. Wir waren als Aussteller und als ein Sponsor des „Controllerpreis 2017“, der heuer an EDEKA Südwest ging,  stark vertreten. Die Veranstaltung stand heuer unter dem Motto „Agiles Controlling in der digitalen Realität – Umbrüche erfolgreich managen“ . Rund 650 Teilnehmer waren laut dem Veranstalter, dem Internationalen Controller Verein (ICV), zu Europas größter Controlling-Fachtagung an die Isar gekommen.

650 Besucher kamen dieses Jahr zum Kongress der Controller nach München. Die QUNIS war als Aussteller und Sponsor dabei. Foto: QUNIS

Der ICV-Vorsitzende und langjähriger CEO der Hansgrohe SE, Siegfried Gänßlen betonte in seiner Begrüßungsansprache, wie die Digitalisierung für tiefgreifende Veränderungen in den Unternehmen sorge, indem sie nicht nur technologische Innovationen mit sich bringe, sondern auch neue Geschäftsmodelle ermögliche und Märkte dadurch total umkrempele. Auch die Controller seien nun aufgefordert, „alles an sich selbst in Frage zu stellen“, erklärte der ICV-Vorsitzende. Eine zentrale Frage ist dabei,  wie man künftig mit den vielfältigen, oft in Echtzeit entstehenden steuerungsrelevante Daten umgehen könne: „Wer greift wann welche Daten ab? Und: Was ist jetzt die ‚one version of the truth‘?“ Gänßlen sieht es als Aufgabe der Controller dafür zu sorgen, dass Controlling-Skills an das Management vermittelt werden und die Rationalitätssicherung gewährleistet ist.

QUNIS Kongress der Controller

QUNIS testete auf dem Kongress der Controller ein Digital Signage System mit künstlicher Wahrnehmung. Neugierige Kollegen und Besucher ließen nicht lange auf sich warten  🙂   Foto: QUNIS

Unternehmensbeispiele zeigten, dass heute schon verschiedenste Controller-Tätigkeiten automatisiert sind, speziell im Reporting und in der Planung, so Gänßlen. „Wir befinden uns bereits in einer Zeit der Transformation. In der Unternehmenssteuerung vollzieht sich der Paradigmenwechsel: von reaktiv zu proaktiv-prognostizierend.“ Datenbasiert ließen sich quantitativ-statistische Zusammenhänge erkennen und kontinuierlich auf Validität überprüfen. Neue Modelle dienten als Grundlage für erweiterte Szenario-Planungen, zur Qualifizierung von strategischen Optionen sowie zur Bewertung von Business Cases.

Der ICV-Vorsitzende widmete sich den aktuellen und zukünftigen Aufgaben der Controller. „Qualitativ hochwertige IT-Systeme entwickeln sich nicht von selbst: Das betriebswirtschaftliche Design werden Controlling-Experten liefern müssen“, so der ICV-Vorsitzende. „Das Tooling muss in Zusammenarbeit mit Data Scientists erstellt werden. Wir erhalten eine neue Verteilung der Controlling-Aufgaben und ein stark verändertes Controller-Profil.“ Die Datenanalytik erweise sich bereits als Kompetenzfeld von Spezialisten. Data Scientists als Experten seien mit ihren technologischen, mathematischen und analytischen Kompetenzen gefragt.

Das Selbstverständnis des Controllers muss sich ändern

Viele Veröffentlichungen, Studien und Prognosen befassten sich mit dem Thema Digitalisierung und Künstliche Intelligenz. Die einen Szenarien würden neue Chancen für Controller hervorheben, die anderen den massiven Wegfall von Arbeit im Controlling beschreiben, der mit Jobverlusten der Controller einhergehen werde. Der Vorsitzende des Internationalen Controller Vereins (ICV) mahnte, die Controller müssten in den Veränderungsprozess einsteigen. Die bestehende Toolbox, die Fähigkeiten und der Mindset seien neu aufzustellen. Zu den neuen gefragten Fähigkeiten gehörten Kenntnisse in Statistik und Informationstechnologie, aber auch Kommunikationskompetenz sowie ein solides Verständnis des Geschäftsmodells und der Wertschöpfungskette des Unternehmens. „Wir müssen alte Verhaltensmuster über Bord werfen, noch innovativer werden und mehr Start-up Mentalität entwickeln“, fordert Gänßlen von den Controllern.

Die zunehmende Automatisierung schafft nach Ansicht Gänßlens auch Freiräume für Controller; neue Aufgaben und neue Jobs entstünden. „Controller haben durch ihren tiefen Einblick in das Unternehmen und in die Geschäftsmodelle die idealen Voraussetzungen, um höhere Managementpositionen zu übernehmen. Auch der Weg in die Unternehmensspitze ist machbar“, ist der ICV-Vorsitzende gewiss (mehr zum Thema Controlling und Big Data finden Sie auch in unserem Beitrag).
*Mit Material aus der Pressemitteilung des ICV

Controlling und Big Data – Teil 2

Erstellt am: Dienstag, 24. Januar 2017 von Sascha

Big-Data-Vorhaben haben einen experimentellen Charakter und laufen bislang in der Unternehmenspraxis häufig parallel zum IT-Betrieb. Allerdings zeichnet sich ab, dass dies mancherorts nur in der frühen Phase solcher Vorhaben der Falls ist und mittlerweile Unternehmen solche Aktivitäten künftig wieder in enger Abstimmung zwischen IT, Fachbereichen und mit dem Segen des Managements vorantreiben wollen. Die oft komplexen Resultate der Big-Data-Analysen müssen intern nicht nur vermittelbar sein, sondern möglichst in den produktiven Betrieb überführt werden. Man sollte sich also die eigenen Anforderungen, Ressourcen sowie klare „Use Cases“ definiert haben, bevor man umfänglich mit Big Data zu arbeiten beginnt!

Controlling und Finance als Berater im Big-Data-Projekt

Die Anwenderbefragung „Big Data & Advanced Analytics in der Praxis“ der QUNIS, Controller Akademie und der Aquma GmbH zeigt indes, dass viele Unternehmen aber genau noch nach solchen Use Cases für sich suchen. QUNIS legt in der Beratung daher auf diese Phase des Big-Data-Vorhabens besonders großen Wert und nutzt als Teil seiner Big-Data-Methodik beispielsweise eine umfangreiche „Lösungsbibliothek“ aus Fallbeispielen. Diese leisten bei der Diskussion und Identifikation eigener Use Cases gute Hilfe. Oft gibt es in der Unternehmensorganisation schon Ideen und man weiß um eigene Chancen oder Schwachpunkte, die man durch Advanced Analytics angehen möchte. Diese Ideen weiter zu analysieren, zu selektieren, zu strukturieren, zu priorisieren und dann Maßnahmen abzuleiten, ist ein entscheidender Erfolgsfaktor im Big-Data-Projekt. Auch hier können gerade Finance & Controlling mit ihrem breiten Fach- und Unternehmenswissen eine wichtige Rolle spielen.

In der weiteren Diskussion über die Umsetzung von Big-Data-Projekten wird man sich dann über eine unterstützende Datenarchitektur sowie die Nutzung solcher Daten und Analysen im Rahmen einer vorhandenen BI- oder neu zu definierenden Big-Data-Strategie einigen müssen. Will man erste Erfahrungen sammeln, ist es meist effizient und günstiger, wenn Teststellungen über Cloud Services wie „Microsoft Azure“ aufsetzt, statt intern eine separate IT-Umgebung aufzubauen.

Eine integrierte Unternehmensplanung bleibt das Ziel

Big Data und Advanced Analytics können Finance & Controlling ohne Frage dabei helfen, in einem dynamischen Marktumfeld schneller und gezielter zu planen und durch vorausschauende Analysen Risiken und Chancen zu erkennen (Predictive Analytics). Voraussetzung ist aber, dass alle benötigten Informationen und Ergebnisse zeitnah und in hoher Qualität verfügbar sind. Auch wenn man im Projekt häufig mit einzelnen Prozessen und Anforderungen beginnen wird, muss das Ziel daher eine integrierte Unternehmensplanung sein, von der heute die meisten Unternehmen noch weit entfernt sind. Sie Sie ist gekennzeichnet durch eine fachlich und betriebswirtschaftlich korrekte Verknüpfung der Teilpläne bis in die Ergebnisplanung und verzahnt Gewinn- und Verlustrechnung, Bilanz und Cashflow-Rechnung miteinander. Ferner müsste die Planung sich flexibel und über das Jahr immer wieder anpassen lassen und mit weiteren Prozessen wie das Berichtswesen und die Finanzkonsolidierung verknüpft sein.

Controlling und Big Data – Teil 1

Erstellt am: Dienstag, 24. Januar 2017 von Sascha
Der Aufbau einer integrierten Unternehmenssteuerung steht heute vor allem in großen Finanzorganisationen auf der Agenda. Vereinfacht gesagt geht es darum, die für das eigene Geschäftsmodell relevanten Kennzahlen wie die Umsatzrentabilität, Investitionen oder Kapitalkosten mit ihnen vorgelagerten, nicht-finanzielle Werttreibern wie beispielsweise die „Produktqualität“ zu kombinieren. Sind Erstere und das dazugehörige Modell gut definiert, lassen sich daraus Letztere ableiten, um so insgesamt den Fortschritt der einzelnen Werttreiber zu messen und Maßnahmen abzuleiten.

Mehr Informationen für die Planung und Forecasts

Dies setzt jedoch voraus, dass auch alle relevanten Daten für Bewertungen und Prognosen zur Verfügung stehen. An diesem Punkt kommen Big Data und Advanced Analytics ins Spiel, da bislang nicht verfügbare oder nicht berücksichtigte Daten über Kunden, Produkte, Ressourcen und Geschäftsprozesse sowie neue Verarbeitungs- und Analysemöglichkeiten Einzug in die Controlling-Prozesse halten – von der strategischen Planung und Budgetierung über das Reporting und die Kostenrechnung bis zum Risikomanagement.

Auch dort, wo eine derartige Steuerung noch nicht existiert oder zu ambitioniert erscheint, ist es auf jeden Fall überlegenswert, Big Data und Advanced Analytics zur Unterstützung des Controllings einzusetzen. Anders als im Reporting können sich Organisation beispielsweise durch eine gute Planung vom Wettbewerb differenzieren. Eine Analyse großer und polystrukturierter Datenmengen hilft beispielsweise Korrelationen und Einflussgrößen besser aufzudecken und die Planung verfeinern. Umgekehrt profitieren auch Big-Data-Vorhaben außerhalb des Finanzbereichs von der guten Verfügbarkeit von Finanzdaten bzw. werden durch diese erst machbar.

Big Data und Controlling

Abbildung: Die klassischen Unternehmensbereiche für Business Intelligence wie Controlling/Finance, Vertrieb und Marketing stehen auch bei der Big-Data-Diskussion aktuell im Mittelpunkt des Anwenderinteresses. Zugleich belegt aber die breite Verteilung der Anwendungsfelder, dass die Nutzung von Big Data überall in der Organisation von Nutzen sein kann, n= 33 (Mehrfachnennungen möglich).

Advanced Analytics zur Risikoanalyse

Angesichts des steigenden Steuerungsbedarfs und der skizzierten Vorteile überrascht es daher wenig, dass in der öffentlichen Diskussion über den geschäftlichen Nutzen von Big Data Controlling & Finance als wichtige Treiber und Nutznießer gelten. Dies bestätigt auch die Anwenderbefragung „Big Data & Advanced Analytics in der Praxis“ der QUNIS GmbH, der Controller Akademie und der Aquma GmbH. Teilnehmer waren 97 mittelständische und Großunternehmen aus dem deutschsprachigen Raum, bei einer breiten Branchenverteilung. Danach sehen 60 Prozent der Befragten interessante Anwendungsfelder im Controlling & Finance (siehe Abbildung). Ein Beispiel ist ein automatisierter Forecast auf der Basis von Markttendenzen oder die schon erwähnte wertreiberasierte Planung anhand aktueller Daten zum Wachstum, zur Branche und der Kundenumsätze. Insbesondere für Banken und Versicherer ist zudem das Risikomanagement ein wichtiges Anwendungsfeld. Neben der Identifikation von Risikofaktoren können Big-Data-Analysen beispielsweise bei der Betrugserkennung oder bei Compliance-bezogenen Auswertungen helfen.

Lesen Sie weiter im zweiten Teil des Beitrags zu Controlling und Big Data