Archiv für die Kategorie Big Data

Megatrend Digitalisierung

Erstellt am: Freitag, 1. September 2017 von Monika Düsterhöft

Großer Bahnhof auf dem diesjährigen Kundentag „QUNIS Day“ in Neubeuern. Mit neuem Besucherrekord und aufgeräumter Stimmung ging es am Morgen in die Konferenz, in deren Mittelpunkt Best Practices für Business Intelligence, Big Data und Advanced Analytics sowie der fachliche Austausch stehen. Unter dem Motto „Innovation Now“ erläutern Senior Analysten sowie unsere Kunden Henkel und Südpack  wie sich die allgegenwärtige digitale Transformation der Unternehmen aktuell darstellt.

QUNIS Day 2017

Großes Anwendertreffen zu Business Intelligence, Big Data und Advanced Analytics auf dem QUNIS Day 2017. Quelle: QUNIS

Geschäftsführer Hermann Hebben konnte zum Auftakt das erfolgreichste Geschäftsjahr seit Firmengründung 2013 verkünden. Mittlerweile werden über 150 Unternehmen im Mittelstand und Konzern betreut und auch die Belegschaft sei in den letzten zwölf Monaten um 73% gewachsen. Auch wirtschaftlich stehe das Beratungshaus sehr gut dar. Hebben betonte aber, dass man weiterhin auf die Kernkompetenz setzen werde, statt neue Beratungsfelder um jeden Preis anzugehen: „G´scheid oder gar ned!“.

Data Warehouse schneller und performant aufbauen

In den letzten zwölf Monaten wurden viele erfolgreiche Projekte umgesetzt. Die Strategieberatung bleibt dabei von zentraler Bedeutung, um ein Fundament für erfolgreiche Initiativen zu legen. Mit Blick auf die Umsetzung von Anforderungen hat QUNIS sein im Markt einmaliges „Data Warehouse Framework“ weiterentwickelt und in vielen Data-Warehouse-Projekten eingesetzt. Ferner wird auf dem QUNIS Day mit der „QUNIS Automation Engine“ erstmals im Plenum eine neue Methode und Technik vorgestellt, mit der sich die Beladung eines Data-Warehouse-“Core“ automatisieren lässt. Gut entwickle sich laut Hebben auch die Schwesterfirma GAPTEQ, die sich nach ihrem Start im September 2016 mittlerweile gut im Markt etabliert hat.

Digitalisierung verändert das Datenmanagement und Datenanalyse

All diese Entwicklungen erfolgen wie erwähnt in einem Marktumfeld, das sich für Unternehmen durch die Digitalisierung aktuell radikal verändert. Beispielhaft stellte Geschäftsführer Steffen Vierkorn vier Megatrends vor, die mit der Digitalisierung verknüpfte sind: Globalisierung, Mobilität, Konnektivität und Individualisierung. Die Technologie werde immer mehr zum Treiber von Veränderungen. Besonders sei dies bei der Nutzung von Cloud-Diensten und Komponenten wie „Microsoft Azure“ zu beobachten sowie bei der Vernetzung von Geräten (Internet of Things). Jenseits der Vorstellungskraft lägen mittlerweile die entstehenden Datenmengen. Bis 2025 sei mit 163 Zetabyte zu rechnen, so Vierkorn, die auf etwa 40 Billionen DVDs Platz hätten!

Veränderungen seien auch mit Hinblick auf die Datennutzung und -analyse bei der Produktentwicklung und Geschäftsbeziehungen zu beobachten. Die Rolle von Business Intelligence. Big Data und Advanced Analytics nehme in diesem Szenario weiter zu. Viele Unternehmen versuchten aktuell die Analytik in den Griff zu bekommen. In diesem Zusammenhang stellte Vierkorn das Data-Lake-Konzept der QUNIS vor.

Künstliche Intelligenz QUNIS Day

Ein Beispiel für die Nutzung Künstlicher Intelligenz war auf dem QUNIS Day am Beispiel eines Fahrzeugs zu sehen, das neben Gesichtserkennung auch Objekten beim Fahren ausweichen kann. Quelle: QUNIS

Die dazugehörige Architektur, die traditionelle Data-Warehouse-Welt und die Nutzung von Big Data methodisch und technologisch verknüpfen hilft, wurde auf der Veranstaltung ausführlich vorgestellt. Die Auswirkungen seien auch organisatorisch groß. So würde es künftig mehr und neue Rollen im Team geben müssen, um die unterschiedlichen Anforderungen abdecken zu können.

QUNIS Day 2017

QUNIS Day 2017 Steffen Vierkorn und Patrick Eisner vom QUNIS-Management.

Kostenlose Testdaten für Big-Data-Analysen

Erstellt am: Donnerstag, 1. Juni 2017 von Monika Düsterhöft
Der Verwendung von Testdaten für Big-Data-Analysen stehen häufig der Datenschutz und strategische Bedenken entgegen. Auch sind Daten unterschiedlicher Provenienz und Struktur nicht immer verfügbar oder müssen eventuell aufwändig bereitgestellt werden. Ebenso können beispielsweise Marktzahlen die eigene Analysebasis sinnvoll erweitern.
Umso erfreulicher ist es für Teams, die sich mit Big Data und Advanced Analytics vertraut machen wollen, dass es heute viele, meist öffentlich zugängliche Datenquellen im Internet gibt. Dabei handelt es sich beispielsweise um Daten öffentlicher Einrichtungen. Hier haben die Bemühungen um „Open Data“ Vieles in Bewegung gesetzt. Ebenso stellen Unternehmen zunehmend Daten über REST-Schnittstellen kostenfrei zur Verfügung, in der Hoffnung, dass sich aus der Nutzung Folgegeschäfte ergeben können. Die Testdaten können dabei durchaus ein erhebliches Volumen von bis zu mehreren Hundert Terabytes haben. Nachfolgend stellen wir Ihnen einige dieser Quellen kurz vor:

 

QUNIS

QUNIS arbeitet bei Big-Data-und Advanced-Analytics-Vorhaben mit Testdaten, um Aufgabenstellungen zu veranschaulichen. So verwenden wir Datasets von Kaggle, einer Online-Plattform, die rund 260 Datensätze anbietet. Zudem haben wir ergänzend mit unserer Lösungsbibliothek zahlreiche Big-Data-Anwendungsbeispiele aus allen Branchen vereint, die Ihnen bei der Auswahl und Priorisierung von Use Cases gute Dienste leisten.

 

Bund
Die Geschäfts- und Koordinierungsstelle GovData arbeitet seit Herbst 2015 an dem EU-konformen Metadatenstandard für offene Verwaltungsdaten in Deutschland „DCAT-AP.DE“. Über das Datenportal stellen teilnehmende öffentliche Stellen Informationen zu vorhandenen Datensätze aus verschiedenen Bereichen (z.B. Umwelt, Bildung, Statistik) zur Verfügung. Es ist eine Vielzahl an unterschiedlichen Daten vorhanden. So finden Sie über GovData neben Statistiken und Jahresberichten, beispielsweise auch Karten, Wahlergebnisse oder Datenbanken, die es Ihnen ermöglichen, über Suchkriterien passende Einrichtungen zu finden.
https://www.govdata.de/

 

US-Regierung
Hier findet sich Open Data zu Themen wie “Landwirtschaft”, “Finanzen”, “Wirtschaft”. Insgesamt über 180tausend Datensätze.
https://www.data.gov/

 

Eurostat
Das Statistische Amt der Europäischen Union, kurz Eurostat genannt, bietet ein umfängliches Open-Data-Repository. Hier finden sich beispielsweise Daten zu Themen zur Bevölkerung, Unternehmensdaten, Wirtschaftsdaten, Landwirtschaft oder dem Gesundheitswesen.
http://ec.europa.eu/eurostat/data/database

 

Amazon Datasets
Amazon bietet mit den „AWS Public Data Sets“ eine Vielzahl von Daten, die der Konzern in seiner S3-Cloud-Plattform vorhält. Die Daten sind frei, es fallen aber Prozessgebühren an, wenn Rechner zur Analyse die AWS-Plattform verwenden. Zu den angebotenen Daten gehören untern anderem die täglich aktualisierten NASA-Daten, Klimadaten, Musikdaten („The Millionen Song Collection“), Social-Media-Daten, Daten aus der Wikipedia oder vom „Human Genome Project“.
http://aws.amazon.com/datasets/

 

CERN
Das CERN, die Europäische Organisation für Kernforschung, stellt aus seinen Projekten ebenfalls Daten zur Verfügung. So etwa Proben aus der Arbeit mit dem “Large Hadron Collider”. Unter diesen insgesamt über 300 Terabyte sind nicht nur Rohdaten, sondern auch aufbereitete Daten, die sich etwa in Universitäten nutzen lassen.
http://opendata.cern.ch/?ln=de

 

Weltbank
Die Finanzorganisation bietet eine Fülle an Daten über die weltweite Entwicklung und Wirtschaft. Statt eines Downloads lässt sich auch über einfach zu bedienende Benutzeroberflächen auf die Daten zugreifen.
http://data.worldbank.org/

 

OECD
Die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) stellt ein Vielzahl statistischer Daten zu allen 30 OECD-Ländern, der EURO-Zone und der Gesamtorganisation zur Verfügung. Die Daten sind nach Themengruppen organisiert, wie beispielsweise Internationaler Handel, Preise, Public Management oder zum Arbeitsmarkt.
http://www.oecd.org/statistics/

 

Ein Verzeichnis weitere Datenquellen bietet beispielsweise die Website Quora.

Praktische Informationen zu Big Data und Advanced Analytics für Ihre Projekte sowie Analysen und Neuigkeiten aus dem Markt bietet Ihnen auch unser Seite Big Data Factory!

Data Science mit der Microsoft Azure Cortana Intelligence Suite

Erstellt am: Donnerstag, 1. Juni 2017 von Monika Düsterhöft
Kaum eine Business-Nachricht heutzutage ohne die Schlagworte Künstliche Intelligenz, Big Data, Advanced Analytics, Machine Learning. Es heißt, die Geschäftswelt wird sich schon bald komplett ändern – und tatsächlich hat die Zukunft bereits begonnen. Erst kürzlich verkündete Microsoft der Welt seine Vision und sein Credo, künstliche Intelligenz zu demokratisieren, damit jeder von ihr nicht nur profitieren kann, sondern auch soll. Spätestens jetzt sollte man sich als Unternehmer oder als Teil eines Unternehmens Gedanken machen, wie er an dieser gleichermaßen faszinierenden wie auch ein wenig erschreckenden neuen Welt nicht nur teilhaben kann, sondern auch wird.

 

Aber wie? Eine nähere Betrachtung des Themas zeigt schnell, dass es vor allem auf Use Cases ankommt, die sich ein Unternehmen überlegen und die es definieren muss. Ebenso muss das Ziel einer Big Data-Initiative klar sein, und damit auch, was man durch entsprechende Anwendungen prognostizieren und damit erreichen will. Daran anschließend drängen sich weitere Fragen auf: Wie kann ich mein Big Data- oder Advanced Analytics-Vorhaben in die Tat umsetzen? Welche Voraussetzungen müssen gegeben sein? Wie groß sind die Hürden für eine Umsetzung? Statt nur zu vermuten, was die Kunden über meine Produkte denken, will ich es wissen! Ich will präzise Voraussagen treffen können, ob und wann meine Kunden Interesse entwickeln oder wann ich Gefahr laufe, sie zu verlieren. Dies gelingt umso besser, je mehr möglicherweise kundenrelevante Informationen einbezogen werden können, beispielsweise aus den sozialen Medien oder aus Nachrichten-Feeds. Diese wertvollen Informationen will ich sodann mit meinen vorliegenden Geschäftsergebnissen „verheiraten“, um auf dieser Datenbasis fundierte und zuverlässige Geschäftsentscheidungen treffen zu können. 

 

Erfahrung mit der Microsoft Azure Cortana Intelligence Suite

Kann diesbezüglich Microsoft sein Versprechen halten? Sind die Komponenten der Microsoft Azure „Cortana Intelligence Suite“ wirklich geeignet, um Big Data-Vorhaben umzusetzen? Zunächst einmal ist das Angebot des Herstellers Cloud-basierend und komplett für den Nutzer administriert, d.h. man benötigt keine eigene Hardware oder Mitarbeiter, sondern nutzt vollständig verwaltete Dienste. Ferner lassen sich mit Hilfe der neuen „Azure Logik Apps“ auch die genannten sozialen Medien problemlos anzapfen, und das ganz ohne zusätzlichen Programmieraufwand. Einfach ist in der Praxis auch die Analyse des daraus entstandenen Datenstroms, etwa um Trends zu erkennen. So kann man beispielsweise für eine Stimmungsanalyse das „Text Analytics API“ –  ein Baustein der sogenannten Cognitive Services – verwenden, mit dessen Hilfe sich auch Schlüsselbegriffe aus dem Text ermitteln lassen. Und dies ist nur eine Option von vielen auf Machine Learning basierenden Bausteinen aus dem Microsoft-Angebot.

Werkzeuge für den Data Scientist

Für die Arbeit als Data Scientist findet sich das „Azure Machine Learning Studio“, eine sehr komfortable und benutzerfreundliche Anwendung, die sämtliche Schritte des Data-Science-Prozess per Drag & drop komponieren hilft. Neben vielen Methoden zur Unterstützung der Datenvorbereitung, bietet Azure ML Out of the box auch alle gängigen Machine-Learning-Modelle aus den Gebieten „Supervised“ sowie „Unsupervised Learning“ – von einfachen Classification-Modellen über Neuronale Netzwerke bis hin zum K-Means Clustering. Bereits vorhandene, in R oder Python entwickelten Scripts oder präferierten Modelle kann der Data Scientist ebenfalls einfach integrieren.
Flexibilität bietet Microsoft auch bei der Speicherung des Datenstroms plus Analyseergebnisse. Eine Option ist die Ablage in einem schier unbegrenzten Data-Lake-Speicher, auf dem der Anwender mit Hilfe der „Data Lake Analytics“ und U-SQL weitere Analysen vornehmen kann. Gleichfalls möglich ist eine Speicherung strukturierter Daten in einer Azure SQL-Datenbank oder einem Datawarehouse oder es lassen sich Daten auch direkt für den Endanwender interaktiv visualisiert per „Power BI“ bereitstellen.

Der Weg in die schöne neue Welt ist also keineswegs erschreckend schwierig, sondern mit einem Schritt ist man schon heute mitten drin! Dabei stellen die genannten Möglichkeiten nur ein Bruchteil dessen dar, was mit der „Azure Cortana Intelligence Suite“ bereits heute möglich ist. Für perfekt passende Szenarien sind der Fantasie dabei keine Grenzen gesetzt. Die Experten von QUNIS stehen Ihnen dabei mit Rat und Tat zur Seite! Sei es durch ein kostenfreies Advanced-Analytics-Webinar oder im Rahmen eines Big-Data-Workshops. Wir können Ihnen in jedem Fall dabei helfen, unternehmensspezifische Business Cases zu identifizieren, ein passendes Szenario mit Ihnen abzustimmen und dieses nachfolgend im Rahmen eines Proof of Concept auch gleich zu verproben.

Weitere Beiträge zur Nutzung von Big Data und Advanced Analytics finden Sie auf unserem Blog der Bigdata Factory!

QUNIS on Tour – Big Data in Bayern und Kongress der Controller

Erstellt am: Mittwoch, 17. Mai 2017 von Monika Düsterhöft
Zweimal „großer Bahnhof“ in Bayern: Unter dem Motto „Zukunft digital – Big Data“ trafen sich am vergangenen Montag zum einen Unternehmensvertreter und Mitglieder des Zukunftsrats der Bayerischen Wirtschaft in Straubing zum Austausch über die wirtschaftliche Bedeutung von Big Data. Die QUNIS war mit einem Stand vertreten und gab dort Interessenten Einblick in unsere Big-Data-Methodik, Use Cases sowie unser Anwenderbefragung zu Big Data und Advanced Analytics in der Praxis.
Im Mittelpunkt der Konferenz stand die erstmals 2016 präsentierte Studie zu den wirtschaftlichen Potenzialen und rechtlichen Rahmenbedingungen von „Big Data“. Im Auftrag der vbw – Vereinigung der Bayerischen Wirtschaft e. V. hatten die Prognos AG und Professor Dirk Heckmann vom Lehrstuhl für Öffentliches Recht, Sicherheitsrecht und Internetrecht an der Universität Passau, diese Untersuchung für den Zukunftsrat erstellt.
 Die darauf beruhenden Handlungsempfehlungen des Zukunftsrats an Politik, Wirtschaft und Wissenschaft stellte vbw-Präsident Alfred Gaffal den rund 120 anwesenden vbw-Mitgliedern noch einmal kurz vor. Big Data werde als Schlüssel zur Entwicklung innovativer hybrider Geschäftsmodelle entscheidend zum Wachstum der kommenden Jahre beitragen, so die Erwartung des Verbands. Bayern müsse dabei zur europäischen Leitregion für Big Data Technologien und Anwendungen werden.  Jedes Unternehmen sollte sich laut der Handlungsempfehlungen künftig eine Strategie für den Umgang mit Daten – möglichst unter Ausschöpfung der darin liegenden Potenziale im Rahmen von Big-Data-Anwendungen – geben. Sie beinhaltet gleichermaßen die Realisierung wirtschaftlicher Chancen wie eine möglichst rechtssichere Gestaltung des Umgangs mit Daten.

Auf dem vbw-Treffen in Straubing: Gastgeber Erich Sennebogen, Jutta Krogull, Geschäftsführerin der vbw Bezirksgruppe Niederbayern, sowie vbw-Präsident Alfred Gaffal. Foto: vbw

Big Data – wem gehören die Daten?

Auf letzteren Aspekt ging Professor Heckmann in einer Fragerunde näher ein und machte deutlich, dass hier noch viele Fragen beim Umgang mit Daten zu klären sind, um die Nutzung von Big Data zu fördern und zu erleichtern. Dabei gehe es zum einen um das komplexe Thema Datenschutz, zum anderen aber auch um Fragen der Fairness und die juristisch noch ungeklärte Frage, ob Daten vergleichbar zu Sachgegenständen auch als „Eigentum“ betrachten werden können (Wem gehören die Daten?). Unternehmen sollten ihren Umgang mit Daten mit vertrauensbildendenden Maßnahmen flankieren, empfiehlt der Zukunftsrat, indem sie transparent über die geplante Erhebung, Speicherung und Nutzung von Daten informieren. Innerhalb der Grenzen der notwendigen Geheimhaltung bezüglich eigener Geschäftsvorgänge sollte über Big-Data-Zwecke, -Anwendungen und -Schutzmaßnahmen informiert werden. Bei personenbezogenen Daten und insbesondere im Falle einer nicht von vornherein abschließend feststehenden Nutzung der erhobenen Daten ist dies ohnehin erforderlich. Prof. Heckmann erinnerte zudem die Teilnehmer daran, dass im kommenden Jahr mit der „Europäischen Datenschutzverordnung“ höhere Transparenz-Anforderungen bei der Datennutzung auf alle Beteiligten zukämen.

ICV-Kongress über Digitalisierung und die Folgen im Controlling 

Zum anderen zeigte die QUNIS Präsenz auf dem 42. Congress der Controller in München. Wir waren als Aussteller und als ein Sponsor des „Controllerpreis 2017“, der heuer an EDEKA Südwest ging,  stark vertreten. Die Veranstaltung stand heuer unter dem Motto „Agiles Controlling in der digitalen Realität – Umbrüche erfolgreich managen“ . Rund 650 Teilnehmer waren laut dem Veranstalter, dem Internationalen Controller Verein (ICV), zu Europas größter Controlling-Fachtagung an die Isar gekommen.

650 Besucher kamen dieses Jahr zum Kongress der Controller nach München. Die QUNIS war als Aussteller und Sponsor dabei. Foto: QUNIS

Der ICV-Vorsitzende und langjähriger CEO der Hansgrohe SE, Siegfried Gänßlen betonte in seiner Begrüßungsansprache, wie die Digitalisierung für tiefgreifende Veränderungen in den Unternehmen sorge, indem sie nicht nur technologische Innovationen mit sich bringe, sondern auch neue Geschäftsmodelle ermögliche und Märkte dadurch total umkrempele. Auch die Controller seien nun aufgefordert, „alles an sich selbst in Frage zu stellen“, erklärte der ICV-Vorsitzende. Eine zentrale Frage ist dabei,  wie man künftig mit den vielfältigen, oft in Echtzeit entstehenden steuerungsrelevante Daten umgehen könne: „Wer greift wann welche Daten ab? Und: Was ist jetzt die ‚one version of the truth‘?“ Gänßlen sieht es als Aufgabe der Controller dafür zu sorgen, dass Controlling-Skills an das Management vermittelt werden und die Rationalitätssicherung gewährleistet ist.

QUNIS Kongress der Controller

QUNIS testete auf dem Kongress der Controller ein Digital Signage System mit künstlicher Wahrnehmung. Neugierige Kollegen und Besucher ließen nicht lange auf sich warten  🙂   Foto: QUNIS

Unternehmensbeispiele zeigten, dass heute schon verschiedenste Controller-Tätigkeiten automatisiert sind, speziell im Reporting und in der Planung, so Gänßlen. „Wir befinden uns bereits in einer Zeit der Transformation. In der Unternehmenssteuerung vollzieht sich der Paradigmenwechsel: von reaktiv zu proaktiv-prognostizierend.“ Datenbasiert ließen sich quantitativ-statistische Zusammenhänge erkennen und kontinuierlich auf Validität überprüfen. Neue Modelle dienten als Grundlage für erweiterte Szenario-Planungen, zur Qualifizierung von strategischen Optionen sowie zur Bewertung von Business Cases.

Der ICV-Vorsitzende widmete sich den aktuellen und zukünftigen Aufgaben der Controller. „Qualitativ hochwertige IT-Systeme entwickeln sich nicht von selbst: Das betriebswirtschaftliche Design werden Controlling-Experten liefern müssen“, so der ICV-Vorsitzende. „Das Tooling muss in Zusammenarbeit mit Data Scientists erstellt werden. Wir erhalten eine neue Verteilung der Controlling-Aufgaben und ein stark verändertes Controller-Profil.“ Die Datenanalytik erweise sich bereits als Kompetenzfeld von Spezialisten. Data Scientists als Experten seien mit ihren technologischen, mathematischen und analytischen Kompetenzen gefragt.

Das Selbstverständnis des Controllers muss sich ändern

Viele Veröffentlichungen, Studien und Prognosen befassten sich mit dem Thema Digitalisierung und Künstliche Intelligenz. Die einen Szenarien würden neue Chancen für Controller hervorheben, die anderen den massiven Wegfall von Arbeit im Controlling beschreiben, der mit Jobverlusten der Controller einhergehen werde. Der Vorsitzende des Internationalen Controller Vereins (ICV) mahnte, die Controller müssten in den Veränderungsprozess einsteigen. Die bestehende Toolbox, die Fähigkeiten und der Mindset seien neu aufzustellen. Zu den neuen gefragten Fähigkeiten gehörten Kenntnisse in Statistik und Informationstechnologie, aber auch Kommunikationskompetenz sowie ein solides Verständnis des Geschäftsmodells und der Wertschöpfungskette des Unternehmens. „Wir müssen alte Verhaltensmuster über Bord werfen, noch innovativer werden und mehr Start-up Mentalität entwickeln“, fordert Gänßlen von den Controllern.

Die zunehmende Automatisierung schafft nach Ansicht Gänßlens auch Freiräume für Controller; neue Aufgaben und neue Jobs entstünden. „Controller haben durch ihren tiefen Einblick in das Unternehmen und in die Geschäftsmodelle die idealen Voraussetzungen, um höhere Managementpositionen zu übernehmen. Auch der Weg in die Unternehmensspitze ist machbar“, ist der ICV-Vorsitzende gewiss (mehr zum Thema Controlling und Big Data finden Sie auch in unserem Beitrag).
*Mit Material aus der Pressemitteilung des ICV

Controlling und Big Data – Teil 2

Erstellt am: Dienstag, 24. Januar 2017 von Monika Düsterhöft

Big-Data-Vorhaben haben einen experimentellen Charakter und laufen bislang in der Unternehmenspraxis häufig parallel zum IT-Betrieb. Allerdings zeichnet sich ab, dass dies mancherorts nur in der frühen Phase solcher Vorhaben der Falls ist und mittlerweile Unternehmen solche Aktivitäten künftig wieder in enger Abstimmung zwischen IT, Fachbereichen und mit dem Segen des Managements vorantreiben wollen. Die oft komplexen Resultate der Big-Data-Analysen müssen intern nicht nur vermittelbar sein, sondern möglichst in den produktiven Betrieb überführt werden. Man sollte sich also die eigenen Anforderungen, Ressourcen sowie klare „Use Cases“ definiert haben, bevor man umfänglich mit Big Data zu arbeiten beginnt!

Controlling und Finance als Berater im Big-Data-Projekt

Die Anwenderbefragung „Big Data & Advanced Analytics in der Praxis“ der QUNIS, Controller Akademie und der Aquma GmbH zeigt indes, dass viele Unternehmen aber genau noch nach solchen Use Cases für sich suchen. QUNIS legt in der Beratung daher auf diese Phase des Big-Data-Vorhabens besonders großen Wert und nutzt als Teil seiner Big-Data-Methodik beispielsweise eine umfangreiche „Lösungsbibliothek“ aus Fallbeispielen. Diese leisten bei der Diskussion und Identifikation eigener Use Cases gute Hilfe. Oft gibt es in der Unternehmensorganisation schon Ideen und man weiß um eigene Chancen oder Schwachpunkte, die man durch Advanced Analytics angehen möchte. Diese Ideen weiter zu analysieren, zu selektieren, zu strukturieren, zu priorisieren und dann Maßnahmen abzuleiten, ist ein entscheidender Erfolgsfaktor im Big-Data-Projekt. Auch hier können gerade Finance & Controlling mit ihrem breiten Fach- und Unternehmenswissen eine wichtige Rolle spielen.

In der weiteren Diskussion über die Umsetzung von Big-Data-Projekten wird man sich dann über eine unterstützende Datenarchitektur sowie die Nutzung solcher Daten und Analysen im Rahmen einer vorhandenen BI- oder neu zu definierenden Big-Data-Strategie einigen müssen. Will man erste Erfahrungen sammeln, ist es meist effizient und günstiger, wenn Teststellungen über Cloud Services wie „Microsoft Azure“ aufsetzt, statt intern eine separate IT-Umgebung aufzubauen.

Eine integrierte Unternehmensplanung bleibt das Ziel

Big Data und Advanced Analytics können Finance & Controlling ohne Frage dabei helfen, in einem dynamischen Marktumfeld schneller und gezielter zu planen und durch vorausschauende Analysen Risiken und Chancen zu erkennen (Predictive Analytics). Voraussetzung ist aber, dass alle benötigten Informationen und Ergebnisse zeitnah und in hoher Qualität verfügbar sind. Auch wenn man im Projekt häufig mit einzelnen Prozessen und Anforderungen beginnen wird, muss das Ziel daher eine integrierte Unternehmensplanung sein, von der heute die meisten Unternehmen noch weit entfernt sind. Sie Sie ist gekennzeichnet durch eine fachlich und betriebswirtschaftlich korrekte Verknüpfung der Teilpläne bis in die Ergebnisplanung und verzahnt Gewinn- und Verlustrechnung, Bilanz und Cashflow-Rechnung miteinander. Ferner müsste die Planung sich flexibel und über das Jahr immer wieder anpassen lassen und mit weiteren Prozessen wie das Berichtswesen und die Finanzkonsolidierung verknüpft sein.

Controlling und Big Data – Teil 1

Erstellt am: Dienstag, 24. Januar 2017 von Monika Düsterhöft
Der Aufbau einer integrierten Unternehmenssteuerung steht heute vor allem in großen Finanzorganisationen auf der Agenda. Vereinfacht gesagt geht es darum, die für das eigene Geschäftsmodell relevanten Kennzahlen wie die Umsatzrentabilität, Investitionen oder Kapitalkosten mit ihnen vorgelagerten, nicht-finanzielle Werttreibern wie beispielsweise die „Produktqualität“ zu kombinieren. Sind Erstere und das dazugehörige Modell gut definiert, lassen sich daraus Letztere ableiten, um so insgesamt den Fortschritt der einzelnen Werttreiber zu messen und Maßnahmen abzuleiten.

 

Mehr Informationen für die Planung und Forecasts

Dies setzt jedoch voraus, dass auch alle relevanten Daten für Bewertungen und Prognosen zur Verfügung stehen. An diesem Punkt kommen Big Data und Advanced Analytics ins Spiel, da bislang nicht verfügbare oder nicht berücksichtigte Daten über Kunden, Produkte, Ressourcen und Geschäftsprozesse sowie neue Verarbeitungs- und Analysemöglichkeiten Einzug in die Controlling-Prozesse halten – von der strategischen Planung und Budgetierung über das Reporting und die Kostenrechnung bis zum Risikomanagement.

Auch dort, wo eine derartige Steuerung noch nicht existiert oder zu ambitioniert erscheint, ist es auf jeden Fall überlegenswert, Big Data und Advanced Analytics zur Unterstützung des Controllings einzusetzen. Anders als im Reporting können sich Organisation beispielsweise durch eine gute Planung vom Wettbewerb differenzieren. Eine Analyse großer und polystrukturierter Datenmengen hilft beispielsweise Korrelationen und Einflussgrößen besser aufzudecken und die Planung verfeinern. Umgekehrt profitieren auch Big-Data-Vorhaben außerhalb des Finanzbereichs von der guten Verfügbarkeit von Finanzdaten bzw. werden durch diese erst machbar.

Big Data und Controlling

Abbildung: Die klassischen Unternehmensbereiche für Business Intelligence wie Controlling/Finance, Vertrieb und Marketing stehen auch bei der Big-Data-Diskussion aktuell im Mittelpunkt des Anwenderinteresses. Zugleich belegt aber die breite Verteilung der Anwendungsfelder, dass die Nutzung von Big Data überall in der Organisation von Nutzen sein kann, n= 33 (Mehrfachnennungen möglich).

Advanced Analytics zur Risikoanalyse

Angesichts des steigenden Steuerungsbedarfs und der skizzierten Vorteile überrascht es daher wenig, dass in der öffentlichen Diskussion über den geschäftlichen Nutzen von Big Data Controlling & Finance als wichtige Treiber und Nutznießer gelten. Dies bestätigt auch die Anwenderbefragung „Big Data & Advanced Analytics in der Praxis“ der QUNIS GmbH, der Controller Akademie und der Aquma GmbH. Teilnehmer waren 97 mittelständische und Großunternehmen aus dem deutschsprachigen Raum, bei einer breiten Branchenverteilung. Danach sehen 60 Prozent der Befragten interessante Anwendungsfelder im Controlling & Finance (siehe Abbildung). Ein Beispiel ist ein automatisierter Forecast auf der Basis von Markttendenzen oder die schon erwähnte wertreiberasierte Planung anhand aktueller Daten zum Wachstum, zur Branche und der Kundenumsätze. Insbesondere für Banken und Versicherer ist zudem das Risikomanagement ein wichtiges Anwendungsfeld. Neben der Identifikation von Risikofaktoren können Big-Data-Analysen beispielsweise bei der Betrugserkennung oder bei Compliance-bezogenen Auswertungen helfen.

Lesen Sie weiter im zweiten Teil des Beitrags zu Controlling und Big Data