Archiv für die Kategorie Advanced Analytics

Bereit für Künstliche Intelligenz?

Erstellt am: Donnerstag, 14. Juni 2018 von Monika Düsterhöft

Wir alle kennen den Begriff Künstliche Intelligenz und haben über das Science-Fiction-Genre Bekanntschaft mit An droiden oder dem Supercomputer Deep Thought gemacht. Wir nutzen Internet-Suchmaschinen oder Sprachassistenten, und in den Medien wird täglich über Innovationen wie selbstfahrende Autos, intelligente meinungsbildende Algorithmen oder menschlich anmutende, sogar mit Gefühlen ausgestattete Pflege- und Service-Roboter berichtet. Veränderungen, die KI für unsere Lebens-, Geschäfts- und Arbeitswelt mit sich bringt, werden in der kompletten Bandbreite von Panik über Skepsis und Besorgnis bis hin zur totalen Faszination diskutiert. Und dass Daten sowie der intelligente Umgang damit die Basis dafür bilden, ist kein Geheimnis mehr.

In diesem Zusammenhang den Umsetzungstand von KI in den Unternehmen zu erfragen und dabei den Fokus auf die Gruppe der Controller zu legen, erschien uns als logisch und interessant. Denn gerade die Controller sind es, die sich schon lange mit dem Thema Datenauswertung beschäftigen und auf dem Weg der digitalen Transformation zum datengetriebenen Unternehmen viele entscheidende Stationen mitgestaltet haben. Sie sind es, die innovativen Schlüsseltechnologien und Verfahren der Datenanalyse aufgegriffen, weiterentwickelt und bis hin zur Etablierung als Standardtechnologie vorangetrieben haben. Waren BI, OLAP, Big Data und Advanced Analytics namentlich bis dato zwar eher im Umfeld der Unternehmenssteuerung anzutreffen, so sind sie nun Teil von Digitalisierungsinitiativen und Innovationsprojekten.

Gemeinsam mit der Controller Akademie haben wir von QUNIS eine Anwenderbefragung zur Organisation von Projekten mit Big Data und Advanced Analytics durchgeführt und sind zu folgenden Ergebnissen gelangt: Eine große Mehrheit der Unternehmen gaben an, dass Advanced Analytics bzw. KI-Methoden hoch strategische Themen sind und eine wichtige Rolle bei der digitalen Transformation spielen. Dabei setzen 44 Prozent mit Advanced Analytics noch primär auf interne Prozessverbesserungen. Genauso viele Unternehmen sehen diese Methoden jedoch als entscheidend für zukünftige Innovationen rund um ihre Produkte und Services. Trotz der bestehenden Unsicherheiten hinsichtlich der Umsetzung erklären die Unternehmen fast durchweg ihre hohe Investitionsbereitschaft.

Beim Thema Datenmanagement ist den meisten sehr wohl klar, dass die klassische BI-Architektur mit Data Warehouse (DWH) nur begrenzt für die neuen Anwendungsbereiche geeignet ist. Die Kombination vorhandener Daten, die oft in einem DWH organisiert sind, mit weiteren internen oder externen Datenquellen und -formaten, wird als eine der größten Herausforderungen genannt. Dazu gehört auch die offene Frage, wie sich eine flexible Datenarchitektur schaffen lässt, welche die bisherige BI- mit der Big-Data-Welt zusammenführt und somit auch Investitionen schützt. Für diese Verbindung hat sich das Data-Lake-Konzept in der Praxis als sehr tragfähige Lösung bewährt. Dieses kann den Auf- und Umbau hin zu agileren und offenen Architekturen unterstützen.

Aber auch organisatorisch müssen für das datengetriebene Unternehmen die richtigen Weichen gestellt werden. Ohne klare Definitionen der Datenhoheit mit Verantwortlichkeiten, die über Rollen wie Data Owner, Data Scientist oder Data Engineer im Rahmen einer Data Governance festgelegt sind, nutzt das beste Systemkonzept nichts.

Einig ist man sich zudem darüber, dass die Verantwortlichen über spezifische Skills verfügen müssen, die über bisherige Anforderungen im BI-Bereich hinausgehen. Falls das BI-Team sich um Advanced Analytics kümmern sollte, halten fast 60 Prozent der Befragten es für notwendig, dass hier zusätzliche Kompetenzen aufgebaut werden. Neben Spezialisten für statistisch-mathematische Methoden sind dabei auch Experten gefragt, die hochkomplexe Auswertungen in verständliche, businessrelevante Informationen übertragen.

Viele Unternehmen haben bereits gute Ideen, an welcher Stelle sie Advanced Analytics und KI-Methodik einsetzen könnten. Hinsichtlich der konkreten Umsetzung auf Basis praktikabler Use Cases tut man sich derzeit aber noch schwer. Hier sind Controller gefordert, ihre Erfahrung in der Datenanalyse einzubringen. Expertenhäuser wie QUNIS ergänzen und begleiten dies mit bereichsübergreifender, strategischer Fachkompetenz. Diese Kombination ist eine optimale Basis, um datengetriebene Geschäftsmodelle voranzubringen und neue Potenziale für das Unternehmen zu erschließen.

Alle Ergebnisse im Detail finden Sie hier KOMPLETTE STUDIE DOWNLOADEN

Trends bei Nutzung von Big Data

Erstellt am: Dienstag, 6. März 2018 von Sascha

Nach Einschätzung der Marktforscher von IDC wird der weltweite Umsatz mit Software, Hardware und Services für Big Data und Big Data Analytics in den kommenden zwei Jahren auf 203 Milliarden US-Dollar steigen. Das jährlich zu den bereits vorhandenen Datenbergen hinzukommende Datenvolumen könnte laut der Auguren im Jahr 2025 bereits bei 180 Zetabyte liegen. Gewaltige Datenmengen und viele Chancen für Unternehmen, neue oder detailliertere Informationen zu extrahieren und für die Unternehmens- und Prozesssteuerung, Planung oder Produktentwicklung einzusetzen.

Prescriptive Analytics

Unter den vielen Aspekten, die im Zusammenhang mit der Nutzung von Big Data und Advanced Analytics diskutiert werden, finden sich einige Entwicklungen, die laut Marktbeobachtern in den kommenden zwölf Monaten besondere öffentliche Aufmerksamkeit erfahren werden.
So wird erwartet, dass das Interesse an Prescriptive Analytics steigt. Es vereint Verfahren des Machine Learning, Simulationen und mathematische Berechnungen, um bei einer bestimmten Fragestellung die optimale Lösung oder das beste Ergebnis unter verschiedenen zur Auswahl stehenden Möglichkeiten zu ermitteln. Praktisch werden also beispielsweise kontinuierlich und automatisch neue Daten verarbeitet, um die Genauigkeit von Vorhersagen zu erhöhen und bessere datengetriebene Entscheidungsoptionen zu bieten. Prescriptive Analytics könnte so neben Cognitive Computing den Mehrwert bei der Analyse von Big Data künftig erheblich steigern helfen.

ECM und Big Data

Big Data ist ein Sammelbegriff, der in der Praxis sowohl vorhandenen Daten, etwa aus einem Data Warehouse oder ERP-System, als auch neue Datenquellen einbezieht. Diese können dabei durchaus auch innerhalb der eigenen Unternehmensgrenzen liegen. So wird für 2018 erwartet, dass sich Organisationen mehr für historische Daten und Dokumente interessieren werden, die bislang nicht in einer digitalen Form vorliegen. In diesen können wichtige Informationen liegen, die zum Beispiel für Voraussagen hilfreich sein können. Damit zeichnet sich hier eine Entwicklung ab, die wir auch bei QUNIS sehen, nämlich der Annäherung und Kombination von Enterprise Content Management und Analyseumgebungen.

Datenqualität statt Datenquantität

Angesichts der wachsenden Datenberge ist es trotz sinkender Hardwarepreise, Cloud und Konzepten wie dem Data Lake auf Dauer nicht wirtschaftlich, schlicht alle erreichbaren Daten zu speichern. Unternehmen müssen sich daher in den kommenden Monaten strategisch damit beschäftigen, auf welche Datensätze sie es besonders abgesehen haben bzw. welche ihnen Ansätze für bessere Analysen bieten können. Ebenso wird es um Wege zur Verbesserung der Datenqualität gehen, denn Datensätze können irrelevant, ungenau oder gar beschädigt sein. Qualität statt Quantität, heißt also die Parole für 2018.

Machine Learing hilft beim Datenschutz

Herzstück einer Big-Data-Analyse sind Verfahren der Künstlichen Intelligenz. Diese müssen in 2018 verstärkt für Auswertungen im Bereich der Datensicherung und Datensicherheit zum Einsatz kommen, da auf diesem Anwendungsgebiet laut Marktbeobachtern Nachholbedarf herrscht. So werden Maschinen beispielsweise schon bald in der Lage sein, mit Hilfe von Machine Learning menschliches Verhalten „vorherzusagen“ und automatisiert „unlabeled data“ zu verwenden. Dadurch wird sich Künstliche Intelligenz zu einem zentralen Instrument für Datenschutz und Abwehr unerlaubter Zugriff entwickeln.

Neue Rollen und viele Stellenangebote

Aber nicht nur die Vielfalt und Nutzungsformen von Big Data werden sich in der nächsten Zeit weiterentwickeln, sondern auch die Menschen, die damit arbeiten. So entstehen neben dem viel zitierten Data Scientist weitere Rollen in den Organisationen, welche die Erfassung, Auswertung und Operationalisierung von Big Data überhaupt erst strukturiert möglich machen. Auch die QUNIS hat hierzu bereits im Rahmen ihrer Big Data Methodik ein modernes Rollenmodell entwickelt, das detailliert die Aufgaben und Kombinationen diskutieren und definieren hilft. Zugleich wächst im Markt die Sorge, dass sich nicht ausreichend Spezialisten für diese oft sehr anspruchsvollen Aufgaben und Rollen rund um Big Data finden lassen. So schätz beispielsweise IBM, dass allein in den USA das Stellenangebot für Big-Data-Experten im weitesten Sinne von 364.000 offenen Stellen in 2018 auf 2,72 Millionen bis 2020 ansteigen wird.

Keine Industrie 4.0 ohne Big Data und Künstliche Intelligenz

Erstellt am: Mittwoch, 14. Februar 2018 von Sascha

Mit der zunehmenden Praxis wächst auch die Zahl der Umfragen zu Industrie 4.0. So hat sich jetzt die Siemens Financial Services bei Herstellern und Beratungshäuser aus dem Bereich der Produktion und Wartung in elf Ländern umgehört, wo der Schuh drückt. Heraus kamen sechs Themenfelder, die Hersteller nach eigenen Aussagen aktuell angehen müssen:

  • Entwicklung der Kompetenzen und Kenntnisse von digitaler Technologie für einen erfolgreichen Übergang zu Industrie 4.0
  • Zugang zu Finanzierungen, die den erforderlichen Investitionszeitraum berücksichtigen
  • Aufbau einer Kooperationskultur, die notwendig ist, um gemeinsam am Erfolg in einer vernetzten Industrie-4.0-Welt zu arbeiten, ob im eigenen Unternehmen, in der Lieferkette oder branchenübergreifend (mehr zur Unternehmenskultur und Industrie 4.0 finden Sie hier)
  • Überwindung von Risiken bezüglich der Daten- und Internetsicherheit in einer Welt, in der sich große Mengen sensibler Daten durch das Internet bewegen
  • Umfassender Zugang zu einer ausreichenden Zahl an realen Beispielen für erfolgreiche digitale Transformation aus allen Fertigungssektoren
  • Spezialisierte strategische Managementkompetenzen zur Erarbeitung eines klaren Stufenplans, um Industrie 4.0 zu erreichen. Spezialisierte strategische Führungsqualität zur Entwicklung eines klaren, gestaffelten Plans, um Industrie 4.0 umzusetzen.

Laut der Autoren zeigen diese Aspekte, dass es mittlerweile nicht mehr darum geht, grundsätzlich die Notwendigkeit zur Digitalisierung und Automatisierung zu diskutieren. Vielmehr stehen mittlerweile praktische Fragen im Mittelpunkt, wie Organisation den Weg zur Industrie 4.0 schrittweise und mit Augenmaß gehen können – einschließlich laufender Qualitätskontrollen und RoI-Maßnahmen.

Es fehlt an Expertise für digitale Produkte und Künstliche Intelligenz

Von allen Themenfeldern wurde die „Entwicklung der Kompetenzen und Kenntnisse von digitaler Technologie für einen erfolgreichen Übergang zu Industrie 4.0“ als größte Herausforderung benannt. Es fehlt bis dato digitales Produktionswissen, welches es operativen Mitarbeitern ermöglicht, Maschinen- und Leistungsdaten auf ihren portablen Dashboards zu interpretieren und entsprechende Maßnahmen zu ergreifen. Ferner müssen „digitaler Wartungskompetenzen“ entstehen, wie es die Studienautoren nennen, also, dass Techniker auch das Know-how haben, um komplexe digitalisierte Betriebssysteme und Geräte instandzuhalten. Und schließlich bedarf es der Expertise für operative und strategische Analysen. Gemeint ist damit, dass man die Auswertung großer Datenmengen, die sich durch die enge Vernetzung von Maschinen, Anwendungen und Menschen künftig rasant erhöhen (Big Data) in den Griff bekommt. Diese Unmengen an Daten – einschließlich Produktionsdaten, Lieferkettendaten, Marktdaten und finanziellen Daten – erfassen und analysieren zu können, ist entscheidend um die eigene Wettbewerbsfähigkeit künftig zu erhalten bzw. zu verbessern.

Datenmanagement auf Industrie 4.0 vorbereiten

Voraussetzung dafür ist, dass Unternehmen zunächst ihr bisheriges Datenmanagement und ihre Dateninfrastruktur bewerten, ob und wie sich diese für die Erfassung und Analyse von Big Data weiterentwickeln lassen – ohne bisherige Investitionen deshalb gleich aufgeben zu müssen. Ebenso gehört zu Vorarbeiten eine Strategiediskussion sowie Auswahl von Use Cases. Schauen Sie sich einmal unsere Methodik für Big-Data-Umgebungen sowie unser Data Lake Konzept an, die unsere langjährige Projekterfahrung und Expertise auch in den neuen Technologien und Verfahren wie die der Künstlichen Intelligenz widerspiegeln!

Big Data Anwendungsfälle PayPal und ProSiebenSat1

Erstellt am: Mittwoch, 24. Januar 2018 von Sascha

Auch wenn heute Big Data in aller Munde ist, so stehen doch die Unternehmen mehrheitlich immer noch am Anfang mit der Umsetzung. Gerade zu Beginn einer Big-Data-Initiative fällt es schwer, die geeigneten Use Cases zu finden beziehungsweise vorhandene Ideen weiter auszuarbeiten und für ein Proof-of-Concept zu priorisieren. Wir empfehlen daher, sich zunächst in einem individuellen Workshop über die eigenen Anforderungen,  den Markt und Technologien bis hin zur eine Road Map klar zu werden. Im Rahmen dieser Vorarbeiten erläutern wir unter anderem Anwendungsbeispiele aus der jeweiligen Branche oder Fachbereich, die von Kunden oder aus dem Markt stammen. Die QUNIS hat hierfür als Besonderheit im Markt eine „Lösungsbibliothek“ geschaffen. Sie vereint und strukturiert aktuell weit über 100 im Markt veröffentlichte Anwendungsbeispiele für die Nutzung von Big Data.

Ein besonders spannendes Anwendungsgebiet für Advanced Analytics ist beispielsweise das Marketing. Die in der Branche viel zitierte 360°-Sicht auf den Kunden bildet künftig die Grundlage dafür, welches Produkt und welche Dienstleistung er über welchen der vielen Kanäle zu welchen Konditionen angeboten bekommt. Je präziser daher eine Segmentierung von Kunden und die Prognose ihres Verhaltens möglich ist, desto höher sind Kontakt- und Antwortraten und damit auch Abschlussquoten und Umsatz, desto höher die Kundenzufriedenheit und Loyalität. Nachfolgend zwei Beispiele:

PayPal – Kunden besser verstehen und binden – Service optimieren durch Text Analytics

PayPal hat über 143 Millionen aktive Kunden und wickelt täglich über 8 Millionen Zahlungen ab. Zahlreiche Kunden äußern sich über Kundenumfragen, E-Mail, Feedback-Formulare im Web, Twitter zu den Dienstleistungen von PayPal, unter anderem darüber, welche technischen Probleme sie haben, was sie mögen, was sie stört und wie man den Service verbessern könnte. Wegen der enorm großen Menge an Feedback, wäre es sehr zeit- und kostenaufwändig, alles textuelle Feedback einzeln zu lesen und zu berücksichtigen. Die automatisierte Analyse des Kundenfeedbacks aus über 60 Ländern und in über 30 Sprachen ermöglicht es PayPal nun, wichtige Probleme und Themen sowie ihre Häufigkeit und Kritikalität automatisch und fast in Echtzeit zu erkennen, zu priorisieren und zu beheben.

ProSiebenSat.1 – Fakten mit Big Data: Was bringen TV-Spots für E-Commerce?

Die ProSiebenSat.1 Media AG vermarktet einerseits klassische TV-Werbezeiten und beteiligt sich andererseits an zahlreiche E-Commerce-Unternehmen. Im Rahmen der Beteiligung stellt ProSieben-Sat.1 u. a. Werbezeiten für die Bewerbung der E-Commerce-Angebote zur Verfügung. Es ist daher von hohem Interesse für ProSiebenSat.1, systematisch ermitteln zu können, welchen konkreten Beitrag die TV-Werbung zur Wertschöpfung des beworbenen E-Commerce-Unternehmens leistet. Wie viele Visitors besuchen genau deshalb die E-Commerce-Website, weil sie die TV-Werbung gesehen haben? Und welchen Umsatz bringen diese Visitors, die nachweislich ursächlich wegen der TV-Werbung auf die Website gekommen sind, in einem bestimmten Zeitraum? Durch den Big Data-Ansatz konnte ein Verfahren entwickelt werden, um den TV-Einfluss auf den Website-Traffic zu messen.

Mehr zu Big Data und der QUNIS-Methodik finden Sie hier

Self Service Business Intelligence will gelernt sein

Erstellt am: Donnerstag, 7. Dezember 2017 von Sascha

Es war um das Jahr 2010 als das Schlagwort Self Service im Markt für Business Intelligence die Runde machte. Das Thema wurde zunächst stark von Herstellern wie Microsoft, Tableau oder QlikView getrieben, während diese Anforderung in Anwenderunternehmen noch selten formuliert wurde. So mussten wir denn auch in der Beratung häufig zunächst ein Grundverständnis für Self Service BI (SSBI) schaffen, welche Vorzüge SSBI bieten könnte. Vielen Anwendern war gar nicht bewusst, wo SSBI anfängt und wo es endet. Seitdem hat es sich mehr und mehr etabliert und ist aus keinem Projekt mehr wegzudenken.

Selbst wenn es zu Beginn nicht explizit vom Kunden gefordert wird, zeigt sich bei der Ausarbeitung der Anforderungen, dass hier Bedarf besteht. Anwender, meist so genannte Power User, wollen sich ihre Daten immer häufiger selber erschließen und Analysen und Reports erstellen – eigenständig und unabhängig von der IT. Entsprechend wird erwartet, dass eine Business-Intelligence-Lösung und Technologie diese Nutzer bestmöglich unterstützt.

SSBI erfordert Erfahrung im Umgang mit Daten

Doch Self Service Business Intelligence ist kein Selbstläufer, sondern bedeutet für alle Betroffenen ein Umdenken. Man kann dem Anwender nicht ohne Anleitung einfach Werkzeuge an die Hand gegeben, damit er sich seine Daten selbst erschließt oder Reports erstellt. Es ist für ihn ungewohnt oder neu, sich jetzt mit den Tools sowie Fragen auseinandersetzen zu müssen, die Ihm sonst die IT abgenommen hat. Hilfe bei der Nutzung des BI-Frontends als auch die Datenintegration sind daher bei SSBI vonnöten.

Die gilt im noch stärkeren Maße bei der Datenexploration. Diese ist dann sinnvoll, wenn wenig über die Daten bekannt ist und die Explorationsziele nicht genau spezifiziert sind. Der Nutzer muss dann mit Hilfe von Methoden und Verfahren aus dem Gebiet der Advanced Analytics diese Daten selbstständig erforschen und Schlussfolgerungen ziehen können. Ebenso muss er im Explorationsprozess in der Lage sein, die Explorationsziele bei Bedarf verändern und anpassen zu können. Dies setzt viel Erfahrung mit Advanced Analytics voraus.

Ebenso mussten und müssen BI-Software-Hersteller lernen, wie sie SSBI in ihren Produkten am besten unterstützen. Manche Produkte konnten sich am Markt durchsetzen, andere verschwanden wieder. So konnte beispielsweise Microsoft in seinem BI-Stack anfangs nur wenige Tools für SSBI vorweisen: Excel, Power-Pivot, PerformancePointServices und die ReportingServices. Mit der Zeit gesellten sich zu diesen weitere Möglichkeiten hinzu durch MobileReports, PowerBI, PowerView, PowerQuery, AS-Tabular und DAX. PowerBI hat mittlerweile in seiner aktuellen Version sogar Künstliche Intelligenz integriert, um die Datenexploration zu vereinfachen (mehr zu PowerBI finden Sie hier).

IT muss Tools und Infrastruktur harmonisieren

Neben dem Anwender galt es auch für die IT umzudenken. Sie konnte nun nicht mehr einfach einen Cube entwickeln, dem nur mit Spezial-Wissen und als MDX-Experte die richtigen Zahlen zu entlocken waren. Nein, Cubes mussten auf einmal anwenderfreundlich sein! Dies setzte unter anderem voraus, dass man verstand, wie SSBI-Tools mit einem Cube umgehen, denn diese arbeiten eher per Drag-and-Drop mit Measures und Dimension auf den verschiedenen Achsen. Für selbstgeschriebene MDX-Abfragen war da kein Platz. Die IT muss daher Infrastruktur und Tools bestmöglich aufeinander abstimmen, soll SSBI in der Praxis funktioniere. In diesem Zusammenhang hört man gelegentlich auch von Self Service Data Integration (SSDI). Power-Pivot und AS-Tabular waren im Microsoft-BI-Stack die ersten Gehversuche, um den Anwendern die Integration von Daten aus verschiedenen Datenquellen zu einem Datenmodel zu ermöglichen. Dem Thema wird aber bislang noch zu wenig Aufmerksamkeit geschenkt, vielleicht auch weil die Tools dafür noch nicht die notwendige Flexibilität und Leichtigkeit bieten.

SSBI für den Power User

Selbst wenn alle genannten Voraussetzungen und Anpassungen gegeben sind, wird SSBI wohl auch künftig eine Domäne für Power User bleiben. Man muss schon ein gutes Verständnis über die eigenen Daten und Datenmodelle haben, um selbstständig arbeiten zu können. In den Projekten läuft es daher für gewöhnlich darauf hinaus, dass Power-User aus den Daten neue Erkenntnisse gewinnen und diese dann als Report den übrigen Endanwendern (Report-Konsumenten) zur Verfügung stellen.

Weitere Beiträge zu Entwicklungen in der Business Intelligence:

Die Unternehmensplanung verändert sich

Erstellt am: Freitag, 17. November 2017 von Sascha

Schon lange wird von Experten eine integrierte Planung gefordert, doch bleibt es in der Praxis häufig noch bei den alten Abläufen und Vorgehensweisen, die seit vielen Jahren eher kosmetisch angepasst werden. Es dominieren weiterhin Insellösungen, während schätzungsweise erst ein Drittel aller Unternehmen hierzulande schon moderne Planungslösungen im Einsatz hat. Dieser Nachholbedarf bremst auch die Einführung neuer Verfahren und Techniken wie Advanced Analytics. Zu viele Hausaufgaben sind im Zusammenhang mit der Planung noch zu erledigen. So etwa die Bereinigung und Harmonisierung von Datenmodellen. Auch scheuen Unternehmen die Kosten für den Umbau in Richtung integrierte Planung, da es sich um keine kurzfristigen und billigen Vorhaben handelt.

Planungsumgebungen, Simulationen und Predictive Analytics

Dennoch ist die Entwicklung nicht stehengeblieben. Vielmehr zeigen sich deutlich drei Entwicklungen bei der Modernisierung der Planungsumgebung. So existieren in manchen Unternehmen mittlerweile große Planungsplattformen mit neuen Tools und leistungsstarken Datenbanken, über die verschiedene Planungsprozesse integriert und automatisiert werden. Ferner werden häufiger Szenarien modelliert und simuliert. Dadurch wird das bisher dominierende Einsammeln von Plandaten (Bottom up) zurückgedrängt zugunsten einer Top-down-Planung.
Und schließlich kommen auch Lösungen für Advanced Analytics mittlerweile zum Einsatz. Mit ihnen lassen sich laut Finanzexperten schon heute besonders für kurzfristige Prognosen (Predictive Analytics) und für operative Größen gute Ergebnisse erzielen. Aggregierte Größen wie zum Beispiel der EBIT ließen sich hingegen bislang noch nicht so gut berechnen. Doch dies sei nur eine Frage der Zeit. Auch die wachsenden Datenmengen seien in diesem Zusammenhang weniger das Problem, sondern vielmehr die Verfügbarkeit und Qualität der Daten. Aktuell haben 20 Prozent aller Unternehmen eine Planungsumgebung mit automatisierten Analysen, so eine Schätzung.

Weitere Beiträge zum Thema Planung:

Die Digitalisierung wird oft der IT überlassen

Erstellt am: Dienstag, 7. November 2017 von Sascha

Nur in 42 Prozent aller Unternehmen werden Digitalisierungsprojekte und digitale Innovationen aktuell vom Vorstand oder der Geschäftsleitung angestoßen. Stattdessen kommen die Initiativen in 86 Prozent der Unternehmen aus der IT-Abteilung. Dies ergab jetzt eine Umfrage von Bitkom Research im Auftrag von Tata Consultancy Services (TCS) unter 905 Unternehmen mit 100 oder mehr Mitarbeitern in Deutschland. Konkret seien die Interviews mit Führungskräften geführt worden, die in ihrem Unternehmen für das Thema Digitalisierung verantwortlich sind. In einer vergleichbaren Umfrage aus dem Vorjahr hatten noch 51 Prozent der Befragten das Management als Treiber der Digitalisierung gesehen und 78 Prozent die IT.

Grundsätzlich seien laut einer Pressemeldung jeweils rund drei Viertel der Befragten interessiert und aufgeschlossen gegenüber Cloud Computing (77 Prozent) und Big Data Analytics (72 Prozent), jeder Zweite gegenüber dem Internet der Dinge (46 Prozent). Rund jedes dritte Unternehmen interessiert sich für Technologien wie Virtual und Augmented Reality (37 Prozent), 3D-Druck (36 Prozent), Künstliche Intelligenz (35 Prozent) oder Robotik (29 Prozent).

Bedarf an Skills für Digitalisierung

Mit dem Wandel sehen die befragten Unternehmen auch einen steigenden Bedarf an zusätzlich und neuen Mitarbeitern bzw. an Beratungsdienstleistungen. So planen fünf Prozent der Unternehmen Stellen für Data Scientists und Application Developer, externe Dienstleister wollen dazu vier bzw. neun Prozent nutzen. Die größte Nachfrage besteht allerdings nach IT-Sicherheitsexperten. Eine solche Stelle im Unternehmen wollen 15 Prozent besetzen, 20 Prozent wollen das entsprechende Know-how extern beziehen.

Mehr zum Thema Digitalisierung finden Sie hier:

Business Intelligence und Data Warehousing in der Cloud auf dem Vormarsch

Erstellt am: Donnerstag, 14. September 2017 von Sascha

Ob Analyse und Reporting oder Data Warehousing: die Nutzung von Cloud-Dienste in der Verwaltung und Auswertung von Unternehmensdaten etabliert sich. Dies können wir auch aus den QUNIS-Kundenprojekten berichten, in denen immer öfter neue Anwendungen für Big Data und Advanced Analytics oder klassisches Data Warehousing in der Cloud (Microsoft Azure) entstehen.
Ein Stimmungsbild zur Cloud-Nutzung gab kürzlich auch die Online-Umfrage „BI and Data Management in the Cloud: Issues and Trends“ vom BARC und der Eckerson Group. Danach gaben 43 Prozent der 370 Unternehmensvertreter an, bereits heute zumindest Teile ihrer Business-Intelligence- oder Daten-Management-Vorhaben mit Hilfe von Cloud-Diensten umzusetzen. Die größte Gruppe unter den Teilnehmer der Umfrage stammten nach Region aus Europa (47 Prozent) und Nordamerika (37 Prozent).

Business Intelligence Tools am häufigsten in der Cloud

Von den rund 160 Cloud-Nutzern erklärte über die Hälfte, sie würde Business-Intelligence-Werkzeuge (62 Prozent) und -Server (51 Prozent) nutzen. Stark zugenommen hat in den letzten drei Jahren auch der Einsatz von Tools für die Datenexploration (49 Prozent). Die Gründe hierfür lägen laut der Autoren in der allgemein zunehmenden Verbreitung solcher Werkzeuge sowie dem großen Interesse insbesondere unter den „Power Usern“ an solchen visuellen Tools. Power User seien aktuell die stärkste Nutzergruppe von Cloud-Lösungen. Werkzeuge für Advanced Analytics werden in jedem vierten Unternehmen in der Cloud betrieben. Auf dem Gebiet des Datenmanagements in der Cloud dominieren Data-Warehouse-Systeme (42 Prozent) vor Datenintegrationswerkzeugen (35 Prozent).

Public Cloud bevorzugt

Beim Betrieb von Cloud-Lösungen setzen Unternehmen laut Umfrage vor allem auf die „Public Cloud“, während interne Systeme („Private Cloud“) oder hybride Ansätze weniger oft genannt wurden. Public Clouds (wie der Microsoft Azure Stack) sind einfach und vergleichsweise kostengünstig nutzbar, während im Vergleich dazu intern aufgebaute Lösungen von hohen Infrastrukturinvestitionen begleitet sind. Hybride Ansätze, so die Autoren, wären zudem schwieriger zu verwalten und würden Sicherheitsbedenken auslösen, weil sich beispielsweise ein BI-Anwendung in der Cloud durch die Unternehmens-Firewall mit der internen Lösung verbinden (Tunneling) muss.

Einen praxisorientierten Einblick in die derzeitige Cloud-Nutzung für Business Intelligence und Datenmanagement gibt Ihnen unser Blog-Beitrag Business Intelligence – No Cloud, Hybrid oder All Cloud?

 

Der Chief Data Officer – Eine neue Rolle mit noch vielen Fragezeichen

Erstellt am: Montag, 11. September 2017 von Sascha

Die digitale Transformation von Unternehmen ist eng verknüpft mit der Organisation und Weiterentwicklung des bisherigen Information Managements. Damit Daten tatsächlich operativ nutzbar werden, müssen sie auch technisch verfügbar, korrekt und standardisiert (Governance) vorliegen. Um diese Vorgaben umzusetzen und zu überwachen, haben manche Organisationen damit begonnen, die Rolle eines „Chief Data Officers“ (CDO) zu definieren und zu besetzen. Dieser verantwortet, wie Daten künftig erfasst, verwaltet, geschützt und letztlich zu Geld gemacht werden sollen.

Soweit der hohe Anspruch an diese Rolle. Wie sich die Praxis bislang darstellt hat nun die vom US-Anbieter Experian in Auftrag gegebene Umfrage „The Chief Data Officer: Powering business opportunities with data“ näher beleuchtet. 200 CIOs und 50 CDOs aus den USA nahmen laut der Autoren teil. Sie stammen aus Unternehmen mit mehr als 500 Mitarbeitern und aus diversen Branchen. Nachfolgend einige Ergebnisse aus dieser Untersuchung.

Die Arbeit des Chief Data Officer

Häufigstes Motiv für die Schaffung einer dedizierten CDO-Rolle ist danach der Wunsch, durch sein Wirken die Nutzung von Big Data profitabel zu machen sowie einen datengetriebenen Ansatz zu finden, der strategische Vorteile schafft, bei gleichzeitig überschaubaren Projektrisiken. Selbst zwei Drittel aller CIOs, in deren Unternehmen bislang keine entsprechende Position existiert, erklärten, dass sie sich mit den oben erwähnten Themen im Datenmanagement überfordert fühlten und daher einen CDO begrüßen würden.
Doch Anspruch und Wirklichkeit klaffen in der Praxis offenbar noch häufig auseinander. So erklärte fast jeder zweite CDO, er habe seine Positionen angetreten, ohne dass der Aufgabenbereich und die Verantwortlichkeiten zuvor geklärt worden seien. Zwar wären im weiteren Verlauf der Karriere bei etwa 40 Prozent der Befragten die ebenfalls knappen Ressourcen und Budgets etwas aufgestockt und auch der bis dato meist beschränkte Zugriff auf die Datenhaltungen gelockert worden. Viele würden sich aber bis heute nicht mit der innovativen Nutzung von Daten beschäftigen, sondern müssten vor allem Projekte zur Kostenersparnis treiben.

Anspruch und Wirklichkeit im Datenmanagement

Die Gründe für diesen Widerspruch seien laut der Autoren nicht allein auf unklare Rollendefinitionen zurückzuführen, sondern vielmehr auf die Tatsache, dass in vielen Organisationen das Datenmanagement grundsätzlich noch erhebliche Defizite aufweise. So sehen laut Umfrage insbesondere die CIOs im fehlenden Datenzugriff das häufigste Hindernis auf dem Weg zu einer stärker datengetriebenen Organisation. Die von den CDOs beklagten schmalen Budgets würden Investitionen in entsprechende Dateninfrastrukturen erschweren, und es fehle nach Ansicht vieler Befragter an Skills in den Unternehmen. Daran könnte auch ein CDOs so schnell nichts ändern. Hinzu kommt, dass sich der CDO in der Praxis häufig in einer schwierigen Position zwischen IT und Fachbereich befindet. Während die Business User immer lauter über den fehlenden Datenzugang klagten, müsse der CDO oft erst bei der IT anfragen, um hier Änderungen zu bewirken. Diese könne oft Stunden oder gar Tage dauern. Zudem werde sich der Druck auf den CDO in den kommenden zwei Jahren weiter verstärken, da Themen wie Datenschutz, die rasante technologische Entwicklung und steigende Kundenerwartungen viel Arbeit machten.

Gerangel im C-Level

Trotz seiner wichtigen strategischen Rolle, scheint sich der CDO innerhalb der Hackordnung bislang nicht entsprechend zu etablieren. Viele CDOs beklagten in der Umfrage, dass sie nicht auf dem C-Level, sondern häufig nur ein Junior Partner für das Top-Management seien. Auch bei den CIOs scheint sich diese Bewertung durchzusetzen. So hatten in einer vergleichbaren Umfrage von Experian vor zwei Jahren noch 16 Prozent mehr von ihnen den CDO als einen gleichrangigen Kollegen gesehen. Ob diese Zurückstufung eher strategische, organisatorische oder vielleicht finanzielle Gründe hat, vermochten die Autoren nicht sicher zu sagen. Möglich auch, dass hier eine Konkurrenzsituation zwischen CIO und CDO besteht. So bezeichneten über 40 Prozent der CDOs ihr Verhältnis zum CIO als „distanziert“ oder „nicht existent“. Umgekehrt bewerteten über 60 Prozent der CIOs ihre Beziehung zum CDO als „positiv“. Aktuell berichten etwa 40 Prozent der CDOs an den CEO, über die Hälfte hingegen an die IT oder Leiter von Geschäftsbereichen.

 

 

 

Megatrend Digitalisierung

Erstellt am: Freitag, 1. September 2017 von Sascha

Großer Bahnhof auf dem diesjährigen Kundentag „QUNIS Day“ in Neubeuern. Mit neuem Besucherrekord und aufgeräumter Stimmung ging es am Morgen in die Konferenz, in deren Mittelpunkt Best Practices für Business Intelligence, Big Data und Advanced Analytics sowie der fachliche Austausch stehen. Unter dem Motto „Innovation Now“ erläutern Senior Analysten sowie unsere Kunden Henkel und Südpack  wie sich die allgegenwärtige digitale Transformation der Unternehmen aktuell darstellt.

QUNIS Day 2017

Großes Anwendertreffen zu Business Intelligence, Big Data und Advanced Analytics auf dem QUNIS Day 2017. Quelle: QUNIS

Geschäftsführer Hermann Hebben konnte zum Auftakt das erfolgreichste Geschäftsjahr seit Firmengründung 2013 verkünden. Mittlerweile werden über 150 Unternehmen im Mittelstand und Konzern betreut und auch die Belegschaft sei in den letzten zwölf Monaten um 73% gewachsen. Auch wirtschaftlich stehe das Beratungshaus sehr gut dar. Hebben betonte aber, dass man weiterhin auf die Kernkompetenz setzen werde, statt neue Beratungsfelder um jeden Preis anzugehen: „G´scheid oder gar ned!“.

Data Warehouse schneller und performant aufbauen

In den letzten zwölf Monaten wurden viele erfolgreiche Projekte umgesetzt. Die Strategieberatung bleibt dabei von zentraler Bedeutung, um ein Fundament für erfolgreiche Initiativen zu legen. Mit Blick auf die Umsetzung von Anforderungen hat QUNIS sein im Markt einmaliges „Data Warehouse Framework“ weiterentwickelt und in vielen Data-Warehouse-Projekten eingesetzt. Ferner wird auf dem QUNIS Day mit der „QUNIS Automation Engine“ erstmals im Plenum eine neue Methode und Technik vorgestellt, mit der sich die Beladung eines Data-Warehouse-„Core“ automatisieren lässt. Gut entwickle sich laut Hebben auch die Schwesterfirma GAPTEQ, die sich nach ihrem Start im September 2016 mittlerweile gut im Markt etabliert hat.

Digitalisierung verändert das Datenmanagement und Datenanalyse

All diese Entwicklungen erfolgen wie erwähnt in einem Marktumfeld, das sich für Unternehmen durch die Digitalisierung aktuell radikal verändert. Beispielhaft stellte Geschäftsführer Steffen Vierkorn vier Megatrends vor, die mit der Digitalisierung verknüpfte sind: Globalisierung, Mobilität, Konnektivität und Individualisierung. Die Technologie werde immer mehr zum Treiber von Veränderungen. Besonders sei dies bei der Nutzung von Cloud-Diensten und Komponenten wie „Microsoft Azure“ zu beobachten sowie bei der Vernetzung von Geräten (Internet of Things). Jenseits der Vorstellungskraft lägen mittlerweile die entstehenden Datenmengen. Bis 2025 sei mit 163 Zetabyte zu rechnen, so Vierkorn, die auf etwa 40 Billionen DVDs Platz hätten!

Veränderungen seien auch mit Hinblick auf die Datennutzung und -analyse bei der Produktentwicklung und Geschäftsbeziehungen zu beobachten. Die Rolle von Business Intelligence. Big Data und Advanced Analytics nehme in diesem Szenario weiter zu. Viele Unternehmen versuchten aktuell die Analytik in den Griff zu bekommen. In diesem Zusammenhang stellte Vierkorn das Data-Lake-Konzept der QUNIS vor.

Künstliche Intelligenz QUNIS Day

Ein Beispiel für die Nutzung Künstlicher Intelligenz war auf dem QUNIS Day am Beispiel eines Fahrzeugs zu sehen, das neben Gesichtserkennung auch Objekten beim Fahren ausweichen kann. Quelle: QUNIS

Die dazugehörige Architektur, die traditionelle Data-Warehouse-Welt und die Nutzung von Big Data methodisch und technologisch verknüpfen hilft, wurde auf der Veranstaltung ausführlich vorgestellt. Die Auswirkungen seien auch organisatorisch groß. So würde es künftig mehr und neue Rollen im Team geben müssen, um die unterschiedlichen Anforderungen abdecken zu können.

QUNIS Day 2017

QUNIS Day 2017 Steffen Vierkorn und Patrick Eisner vom QUNIS-Management.