Archiv für die Kategorie Business Intelligence

Softbots als nächste Evolutionsstufe in der Anwendungsentwicklung

Erstellt am: Freitag, 24. August 2018 von Malte Hoffmann

Ein Chat- oder noch besser Softbot – je nachdem, wie leistungsfähig sein Kernprogramm ist – sehe ich als beste Idee einer möglichen Weiterentwicklung des klassischen Anwendungsprogramms, die mir seit langem begegnet ist. Nennen wir diese Konstruktion im Nachfolgenden einfach Bot, um die Sache nicht unnötig zu verkomplizieren.

Digitaler bester Freund, Kollege und Ratgeber

Ein Bot kann so vieles sein – schlichte Frage-/Antwortmaschine, leicht und effizient bedienbarer FAQ-Service, umfassendes und weltumspannendes Auskunftsbüro, unbürokratisches, sympathisches Helferlein bei der Datenerfassung oder effizientes Hilfsinstrument bei Recherchearbeiten. Der Einsatz geht bis hin zum digitalen intelligenten Assistenten, der on Demand entweder BI-Analysen interaktiv durchführt oder hochkomplexe KI-Algorithmen zur Ausführung bringt oder mir ganz schlicht über einen Internetservice eine Pizza bestellt, wenn mich der kleine Hunger packt.

Die möglichen Anwendungsfälle sind von unbegrenzter Mannigfaltigkeit. Vor allem aber ist ein Bot ein treuer, intelligenter – und wenn der Entwickler sich ein wenig Mühe mit dem Charakter gibt auch recht liebenswürdiger – vor allem aber nimmermüder hilfreicher Geselle, der mich, sei es privat oder auch und ganz explizit geschäftlich, angenehm und effizient unterstützend durch meinen Tag begleiten kann.

Funktion und Technik kurz erklärt

Um zu verstehen, wie so ein Bot technisch funktioniert, befassen wir uns am besten mit den Komponenten, aus denen er besteht.

Da haben wir zum einen die Schnittstellen zu seiner Umwelt – in der Grafik links und rechts außen dargestellt. Hier sitzt der Mensch, der mit dem Bot in Interaktion tritt und zwar üblicherweise mittels Text – also Tippen – oder Sprache – also verbal.

Kommt die Sprachsteuerung zum Einsatz, braucht es dafür auf beiden Seiten jedenfalls die dafür vorgesehenen Künstliche-Intelligenz (KI)-Bausteine – zum einen für die automatische Spracherkennung, also die Umwandlung des gesprochenen Wortes in maschinenlesbaren Text – und  zum anderen für die Sprachsynthese, also die Umwandlung des textbasierten Maschinenoutputs in eine künstliche Sprechstimme.

Beide Verfahren basieren heutzutage immer mehr auf Deep Learning Methoden, die einen sehr positiven Einfluss auf die Qualität des Ergebnisses haben – auf der einen Seite die Minimierung der Fehlerrate bei der Spracherkennung, auf der anderen Seite die Verbesserung der Natürlichkeit der Sprachmelodie.

Die Interpretation des Gesagten

Nachdem nun also die Benutzereingabe in maschinenlesbarer Form vorliegt, folgt oftmals als optionale Komponente ein weiterer KI-Baustein, der auf den ersten Blick eventuell gar nicht weiter als solcher auffällt, aber dennoch eine sehr essentielle Funktionalität darstellt. Ich spreche hier von der Notwendigkeit der Interpretation des Gesagten, also der Feststellung des besonderen Wunsches, der Intention des Anwenders.

Wie Sie vielleicht schon selbst beim Chatten mit einem Bot bemerkt haben, können Sie in mehr oder weniger ganzen, auch umgangssprachlichen Sätzen mit ihm kommunizieren. Weder ist es nötig, sich bestimmte Sprachbefehle zu merken oder aber verabredete Wortlaute zu verwenden; selbst kleine Tippfehler werden großzügig toleriert.

Wie funktioniert das? Nun, hier kommt eine weitere Disziplin der KI zum Einsatz, das Natural Language Processing (NLP). Es übernimmt die Interpretation des Anwenderwunsches.

Zu guter Letzt, sozusagen im Zentrum des Geschehens befindet sich dann das Kernprogramm. Hier passiert quasi die Fleißarbeit, alle Programmschritte, die für die Erfüllung des Anwenderwunsches vollzogen werden müssen. Und da befinden wir uns in der traditionellen, wenngleich auch sehr stark dialogorientierten Anwendungsentwicklung, die aber auch hier ganz stark über den Einbezug von weiteren, individuellen KI-Komponenten intelligent gemacht werden kann.

Ein Wort noch zur Sprachsteuerung

Diejenigen Bots, die Stand heute vorrangig durch direkte Ansprache funktionieren, sind beispielsweise Alexa von Amazon, Google Home, Siri von Apple oder Cortana von Microsoft, um jetzt nur ein paar bekannte Vertreter zu nennen. Wir haben uns mittlerweile mit dem permanenten Lauschangriff seitens dieser treuen Gefährten arrangiert, ist es doch zu bequem, auf diese Weise mit den gewünschten Funktionen zu korrespondieren.

Was jedoch im privaten Umfeld so angenehm anmutet, gilt – noch? – nicht gleichermaßen für das professionelle Umfeld. Zumindest wird es heutzutage bisher eher nicht toleriert, wenn im Großraumbüro der Kollege nebenan permanent mit seinem Computer spricht, um seine Anweisungen durchzugeben – dies stößt noch zu sehr auf Irritationen, vergleichbar mit einem Sitznachbarn im Bus, der mit seinem Bekannten lautstark mobil telefoniert.

Weder schöner Traum noch ferne Zukunftsvision

Wenn Sie jetzt anhand dieser Detail-Informationen den Eindruck gewonnen haben sollten, die Entwicklung eines Bots sei sehr aufwändig und kompliziert, so stimmt das nur bedingt, denn mittlerweile gibt es dafür umfassende Hilfestellung. So hat beispielsweise Microsoft mit seinem Bot Framework eine für die sofortige Nutzbarkeit bereitstehende Rahmenhandlung geschaffen, mittels derer man einen einfachen Bot binnen weniger Minuten zum Laufen bringen kann.

Für die notwendigen KI-Funktionalitäten stehen fertig nutzbare sogenannte kognitive Services zur Verfügung, so beispielsweise die Applikation LUIS – Language Understanding Intelligent System – eine Applikation für die Interpretation der Anwenderwünsche anhand der eingegebenen Anweisungen, die ich ganz nach den umzusetzenden Funktionalitäten gestalten kann. Hier definiere ich die zu realisierenden Intentionen und hinterlege diese mit dazu passenden Redewendungen, auf die ich anschließend einen Machine Learning Algorithmus trainiere, so dass auch sinnverwandte Formulierungen verstanden werden.

So kann sich der Entwickler voll und ganz auf die Umsetzung der Kernfunktionalität konzentrieren, für die er aus einem reichhaltigen Fundus an kognitiven KI- und anderen Services schöpfen kann, während der Bot Connector Service als universelle Schnittstelle dafür Sorge trägt, dass der Bot ohne Änderung des Programms über zahlreiche bekannte Kanäle angesprochen werden kann – sei es via Facebook Messenger, Microsoft Teams, Skype und viele mehr;  selbst Cortana steht für eine Anbindung zur Verfügung.

Denn schlussendlich ist der Bot ja ein Anwendungsprogramm ohne eigene grafische Benutzeroberfläche, benötigt also immer noch ein weiteres Medium für den Dialog mit dem Anwender.

Flexible Anwendungen mit großem Potential

Sicherlich haben all die großen ERP-, CRM- und übrigen Datenbankanwendungen mit unternehmensweitem Charakter unverändert und auch künftig ihre Daseinsberechtigung. Die flexiblen und wendigen Chat- und Softbots jedoch bergen ein enormes Potential, all die Aufgaben zu lösen, für die es bis dato kein spezielles oder aber viele kleine Programme brauchte.

War es bislang nur höhergestellten Personen im Unternehmen oder im Privaten vergönnt, einen persönlichen Assistenten zur Hand zu haben, der all die kleinen lästigen Aufgaben erfüllte, so rückt die enorme Vielfalt jetzt schon verfügbarer kleiner und großer KI-basierter Funktionalitäten den intelligenten digitalen Assistenten in greifbare Nähe. Es sollte kein Wunschtraum in ferner Zukunft mehr sein, sondern mit den zur Verfügung gestellten Mitteln und cloudbasierten Betreiberservices direkt in die Tat umgesetzt werden können.

Best-Practice zum Anfassen

Mit MrQ bietet QUNIS eine Best-Practice-Lösung und macht damit die Funktionsweise eines Softbots bestehend aus dialogorientierter klassischer Anwendungsentwicklung, Artifical Intelligence (AI), Cloud und Machine Learning direkt erlebbar. Darüber hinaus bildet MrQ den Grundstock für die Entwicklung kundenspezifischer Prototypen und Softbots. MrQ nutzt das Microsoft Bot Framework und die Azure Cognitive Services, betrieben wird MrQ als Azure Managed Service.

Mehr von MrQ finden Sie unter www.mr-qunis.com, auf seiner Facebook-Seite oder in der QUNIS-App.

Bereit für Künstliche Intelligenz?

Erstellt am: Donnerstag, 14. Juni 2018 von Monika Düsterhöft

Wir alle kennen den Begriff Künstliche Intelligenz und haben über das Science-Fiction-Genre Bekanntschaft mit An droiden oder dem Supercomputer Deep Thought gemacht. Wir nutzen Internet-Suchmaschinen oder Sprachassistenten, und in den Medien wird täglich über Innovationen wie selbstfahrende Autos, intelligente meinungsbildende Algorithmen oder menschlich anmutende, sogar mit Gefühlen ausgestattete Pflege- und Service-Roboter berichtet. Veränderungen, die KI für unsere Lebens-, Geschäfts- und Arbeitswelt mit sich bringt, werden in der kompletten Bandbreite von Panik über Skepsis und Besorgnis bis hin zur totalen Faszination diskutiert. Und dass Daten sowie der intelligente Umgang damit die Basis dafür bilden, ist kein Geheimnis mehr.

In diesem Zusammenhang den Umsetzungstand von KI in den Unternehmen zu erfragen und dabei den Fokus auf die Gruppe der Controller zu legen, erschien uns als logisch und interessant. Denn gerade die Controller sind es, die sich schon lange mit dem Thema Datenauswertung beschäftigen und auf dem Weg der digitalen Transformation zum datengetriebenen Unternehmen viele entscheidende Stationen mitgestaltet haben. Sie sind es, die innovativen Schlüsseltechnologien und Verfahren der Datenanalyse aufgegriffen, weiterentwickelt und bis hin zur Etablierung als Standardtechnologie vorangetrieben haben. Waren BI, OLAP, Big Data und Advanced Analytics namentlich bis dato zwar eher im Umfeld der Unternehmenssteuerung anzutreffen, so sind sie nun Teil von Digitalisierungsinitiativen und Innovationsprojekten.

Gemeinsam mit der Controller Akademie haben wir von QUNIS eine Anwenderbefragung zur Organisation von Projekten mit Big Data und Advanced Analytics durchgeführt und sind zu folgenden Ergebnissen gelangt: Eine große Mehrheit der Unternehmen gaben an, dass Advanced Analytics bzw. KI-Methoden hoch strategische Themen sind und eine wichtige Rolle bei der digitalen Transformation spielen. Dabei setzen 44 Prozent mit Advanced Analytics noch primär auf interne Prozessverbesserungen. Genauso viele Unternehmen sehen diese Methoden jedoch als entscheidend für zukünftige Innovationen rund um ihre Produkte und Services. Trotz der bestehenden Unsicherheiten hinsichtlich der Umsetzung erklären die Unternehmen fast durchweg ihre hohe Investitionsbereitschaft.

Beim Thema Datenmanagement ist den meisten sehr wohl klar, dass die klassische BI-Architektur mit Data Warehouse (DWH) nur begrenzt für die neuen Anwendungsbereiche geeignet ist. Die Kombination vorhandener Daten, die oft in einem DWH organisiert sind, mit weiteren internen oder externen Datenquellen und -formaten, wird als eine der größten Herausforderungen genannt. Dazu gehört auch die offene Frage, wie sich eine flexible Datenarchitektur schaffen lässt, welche die bisherige BI- mit der Big-Data-Welt zusammenführt und somit auch Investitionen schützt. Für diese Verbindung hat sich das Data-Lake-Konzept in der Praxis als sehr tragfähige Lösung bewährt. Dieses kann den Auf- und Umbau hin zu agileren und offenen Architekturen unterstützen.

Aber auch organisatorisch müssen für das datengetriebene Unternehmen die richtigen Weichen gestellt werden. Ohne klare Definitionen der Datenhoheit mit Verantwortlichkeiten, die über Rollen wie Data Owner, Data Scientist oder Data Engineer im Rahmen einer Data Governance festgelegt sind, nutzt das beste Systemkonzept nichts.

Einig ist man sich zudem darüber, dass die Verantwortlichen über spezifische Skills verfügen müssen, die über bisherige Anforderungen im BI-Bereich hinausgehen. Falls das BI-Team sich um Advanced Analytics kümmern sollte, halten fast 60 Prozent der Befragten es für notwendig, dass hier zusätzliche Kompetenzen aufgebaut werden. Neben Spezialisten für statistisch-mathematische Methoden sind dabei auch Experten gefragt, die hochkomplexe Auswertungen in verständliche, businessrelevante Informationen übertragen.

Viele Unternehmen haben bereits gute Ideen, an welcher Stelle sie Advanced Analytics und KI-Methodik einsetzen könnten. Hinsichtlich der konkreten Umsetzung auf Basis praktikabler Use Cases tut man sich derzeit aber noch schwer. Hier sind Controller gefordert, ihre Erfahrung in der Datenanalyse einzubringen. Expertenhäuser wie QUNIS ergänzen und begleiten dies mit bereichsübergreifender, strategischer Fachkompetenz. Diese Kombination ist eine optimale Basis, um datengetriebene Geschäftsmodelle voranzubringen und neue Potenziale für das Unternehmen zu erschließen.

Alle Ergebnisse im Detail finden Sie hier KOMPLETTE STUDIE DOWNLOADEN

QUNIS ist Top-Arbeitgeber Mittelstand 2018

Erstellt am: Freitag, 8. Dezember 2017 von Sascha

Eine tolle Anerkennung für unsere noch junge QUNIS GmbH haben wir dieser Tage mit der Bewertung als „Top Arbeitgeber Mittelstand 2018“ erhalten. Das Wirtschaftsmagazin „Focus Business“ und das Arbeitgeberbewertungsportal kununu.com hatten hierzu nach eigenen Angaben 13.000 Datensätze und 324.000 Einzelbewertungen von Unternehmen ausgewertet. Aus diesem Datenbestand wurden schließlich rund 1300 mittelständische Unternehmen identifiziert (elf bis 500 Mitarbeiter), die in Deutschland, Österreich und der Schweiz ansässig sind (DACH-Region).

Top-Anbieter MIttelstand 2018

Nicht nur Kunden, auch Mitarbeiter und Bewerber haben ein Herz für QUNIS, wie jetzt die Auszeichnung von „Focus Business“ zeigt. Quelle: QUNIS

Das Ranking innerhalb dieser Gruppe ergab sich laut der Initiatoren aus dem Bewertungsdurchschnitt und der Gesamtzahl der Bewertungen auf kununu.com. Die kleine QUNIS mit ihren immerhin schon 32 Mitarbeitern schaffte es dabei auf Anhieb auf Platz 378! Wie „Radio Charivari“ meldete, waren wir damit eine von sechs Firmen aus der Region, die es in die Top-Liste geschafft hat.

Self Service Business Intelligence will gelernt sein

Erstellt am: Donnerstag, 7. Dezember 2017 von Sascha

Es war um das Jahr 2010 als das Schlagwort Self Service im Markt für Business Intelligence die Runde machte. Das Thema wurde zunächst stark von Herstellern wie Microsoft, Tableau oder QlikView getrieben, während diese Anforderung in Anwenderunternehmen noch selten formuliert wurde. So mussten wir denn auch in der Beratung häufig zunächst ein Grundverständnis für Self Service BI (SSBI) schaffen, welche Vorzüge SSBI bieten könnte. Vielen Anwendern war gar nicht bewusst, wo SSBI anfängt und wo es endet. Seitdem hat es sich mehr und mehr etabliert und ist aus keinem Projekt mehr wegzudenken.

Selbst wenn es zu Beginn nicht explizit vom Kunden gefordert wird, zeigt sich bei der Ausarbeitung der Anforderungen, dass hier Bedarf besteht. Anwender, meist so genannte Power User, wollen sich ihre Daten immer häufiger selber erschließen und Analysen und Reports erstellen – eigenständig und unabhängig von der IT. Entsprechend wird erwartet, dass eine Business-Intelligence-Lösung und Technologie diese Nutzer bestmöglich unterstützt.

SSBI erfordert Erfahrung im Umgang mit Daten

Doch Self Service Business Intelligence ist kein Selbstläufer, sondern bedeutet für alle Betroffenen ein Umdenken. Man kann dem Anwender nicht ohne Anleitung einfach Werkzeuge an die Hand gegeben, damit er sich seine Daten selbst erschließt oder Reports erstellt. Es ist für ihn ungewohnt oder neu, sich jetzt mit den Tools sowie Fragen auseinandersetzen zu müssen, die Ihm sonst die IT abgenommen hat. Hilfe bei der Nutzung des BI-Frontends als auch die Datenintegration sind daher bei SSBI vonnöten.

Die gilt im noch stärkeren Maße bei der Datenexploration. Diese ist dann sinnvoll, wenn wenig über die Daten bekannt ist und die Explorationsziele nicht genau spezifiziert sind. Der Nutzer muss dann mit Hilfe von Methoden und Verfahren aus dem Gebiet der Advanced Analytics diese Daten selbstständig erforschen und Schlussfolgerungen ziehen können. Ebenso muss er im Explorationsprozess in der Lage sein, die Explorationsziele bei Bedarf verändern und anpassen zu können. Dies setzt viel Erfahrung mit Advanced Analytics voraus.

Ebenso mussten und müssen BI-Software-Hersteller lernen, wie sie SSBI in ihren Produkten am besten unterstützen. Manche Produkte konnten sich am Markt durchsetzen, andere verschwanden wieder. So konnte beispielsweise Microsoft in seinem BI-Stack anfangs nur wenige Tools für SSBI vorweisen: Excel, Power-Pivot, PerformancePointServices und die ReportingServices. Mit der Zeit gesellten sich zu diesen weitere Möglichkeiten hinzu durch MobileReports, PowerBI, PowerView, PowerQuery, AS-Tabular und DAX. PowerBI hat mittlerweile in seiner aktuellen Version sogar Künstliche Intelligenz integriert, um die Datenexploration zu vereinfachen (mehr zu PowerBI finden Sie hier).

IT muss Tools und Infrastruktur harmonisieren

Neben dem Anwender galt es auch für die IT umzudenken. Sie konnte nun nicht mehr einfach einen Cube entwickeln, dem nur mit Spezial-Wissen und als MDX-Experte die richtigen Zahlen zu entlocken waren. Nein, Cubes mussten auf einmal anwenderfreundlich sein! Dies setzte unter anderem voraus, dass man verstand, wie SSBI-Tools mit einem Cube umgehen, denn diese arbeiten eher per Drag-and-Drop mit Measures und Dimension auf den verschiedenen Achsen. Für selbstgeschriebene MDX-Abfragen war da kein Platz. Die IT muss daher Infrastruktur und Tools bestmöglich aufeinander abstimmen, soll SSBI in der Praxis funktioniere. In diesem Zusammenhang hört man gelegentlich auch von Self Service Data Integration (SSDI). Power-Pivot und AS-Tabular waren im Microsoft-BI-Stack die ersten Gehversuche, um den Anwendern die Integration von Daten aus verschiedenen Datenquellen zu einem Datenmodel zu ermöglichen. Dem Thema wird aber bislang noch zu wenig Aufmerksamkeit geschenkt, vielleicht auch weil die Tools dafür noch nicht die notwendige Flexibilität und Leichtigkeit bieten.

SSBI für den Power User

Selbst wenn alle genannten Voraussetzungen und Anpassungen gegeben sind, wird SSBI wohl auch künftig eine Domäne für Power User bleiben. Man muss schon ein gutes Verständnis über die eigenen Daten und Datenmodelle haben, um selbstständig arbeiten zu können. In den Projekten läuft es daher für gewöhnlich darauf hinaus, dass Power-User aus den Daten neue Erkenntnisse gewinnen und diese dann als Report den übrigen Endanwendern (Report-Konsumenten) zur Verfügung stellen.

Weitere Beiträge zu Entwicklungen in der Business Intelligence:

Vom guten Sinn eines Data Warehouse

Erstellt am: Freitag, 13. Oktober 2017 von Sascha

Natürlich kann ich meine Business Intelligence Reports, Ad-hoc-Abfragen und Analysen, ja sogar Self Service BI direkt auf Basis meines ERP-Systems erstellen bzw. durchführen. Dass diese Praxis jedoch ihre natürlichen Grenzen hat, merke ich spätestens, wenn die ERP-Anwender in Scharen zu mir strömen, um sich über fehlende Performance bei ihren Erfassungsarbeiten zu beschweren.
Oder aber dann, wenn ich – da ich ja für meine Reports nicht nur Daten aus einem System benötige, sondern auch diverse Ergänzungen und Zusatzberechnungen in meinen Reports unterbringen muss – mir ein nahezu unentwirrbares System aus zusätzlicher Logik gebastelt habe, welches ich mir für weitere Auswertungen im schlimmsten Fall immer wieder neu konstruieren muss.

Steigender Aufwand im Reporting ohne ein Data Warehouse

Auch macht mich die stetig zunehmende Aktualisierungsdauer meiner Reports alles andere als glücklich. Dass meine Berichte zwangsläufig immer langsamer laufen, da die Komplexität meiner Abfragen darin stetig zunimmt und ich immer mehr zusätzliche Logik darin verbaut habe, ist mir sehr wohl bewusst. Indes sehe ich bei meiner über die Jahre gewachsenen Landschaft mittlerweile kein Entrinnen mehr. Heißt es nicht: Never change a running System?
Ein weiterer schlimmer Nebeneffekt ist, dass ich einmal erzeugte Reports auf ewig aufheben muss, da ich diese Auswertung im Bedarfsfall nicht mehr zu einem bestimmten Stichtag wiederholen kann, denn die Daten haben sich mittlerweile geändert. Einmal gültige Zuordnungen, beispielsweise von Vertretern zu Kunden, sind Schnee von gestern und heute nicht mehr gleichermaßen zugänglich.

Data Warehouse mit praxiserprobter Methode aufbauen

All dies und noch unzählige weitere gute Gründe sollten Anwender darüber nachdenken lassen, was ein solides Data Warehouse für einen Wert bedeutet. Insbesondere wenn es auf einem so wohldurchdachten und nachhaltigen Konzept wie bei der QUNIS basiert. Zeit also, die eigene Business-Intelligence-Landschaft endlich auf stabile und profitable Beine zu stellen!
Wir von der QUNIS haben aufgrund all dieser Erfahrungen aus unzähligen erfolgreichen Projekten ein „Data Warehouse Framework“ geschaffen, das all die beschriebenen Probleme und Stolpersteine beseitigt. Es umfasst alle notwendigen Strategien und Methoden, mit denen sich die Daten in einem Data Warehouse optimal strukturieren, die bestmögliche Verarbeitungs- und Abfrage-Performance sowie eine umfassende Datenversionierung erzielen lassen, um jederzeit historisch korrekte Reports und vieles mehr zu erzeugen.

Neugierig geworden? Dann lassen Sie sich von unserer ganzheitlichen Methodik überzeugen! Rufen Sie uns doch einfach einmal unverbindlich an oder schreiben Sie uns eine Email! Wir freuen uns auf Ihre Anfrage!

Phone +49 8035 95790 0,
E-Mail info@qunis.de

Weitere Beiträge zum Thema:

Business Intelligence – No Cloud, Hybrid oder All Cloud?

Erstellt am: Donnerstag, 21. September 2017 von Sascha

Schaut man sich die aktuelle Situation bei Kunden an, so finden sich sehr unterschiedliche Szenarien für den Betrieb der Business-Intelligence-Lösungen. Das reicht von No Cloud über Hybrid bis hin zu All-Cloud-Strategien. Sobald das Thema Cloud ins Spiel kommt, ist zudem zwischen einer „Plattform as a Service“ (PaaS) und „Infrastructure as a Service“ (IaaS) zu unterscheiden. IaaS ist vergleichbar mit einer Virtuellen Maschine (VM). Der Anwender bekommt einen virtuellen Server, muss sich aber immer noch um alles selber kümmern (Installation, Wartung, Konfiguration etc). Bei PaaS erhält er hingegen ein Stück Software, wofür er sonst eine VM oder physikalischen Server hätte aufsetzen müssen, als fertig nutzbare Komponente. Das kann zum Beispiel eine relationale Datenbank sein. Im Fall von PaaS muss sich der Kunde also nicht um die Installation, Wartung, Konfiguration etc. kümmern.

Business Intelligence als On-Premises-Lösung

Bei No-Cloud-Anwendern wird heute immer noch alles On-Premises abgebildet. Dies ist immer noch die häufigste Lösung für BI-Systeme beim Kunden. Dieser Ansatz schließt nicht nur die BI-Lösung, sondern auch anderen Systeme ein. Je nach Bedarf wird dabei die notwendige Infrastruktur für das BI-System durch physikalische oder virtualisierte Server zur Verfügung gestellt. Unternehmen, die auf dieses Szenario setzen, starten gerne virtualisiert, um sich einen Eindruck von der maximalen Performance und Wartbarkeit der Lösung verschaffen zu können. Genügt diese nicht, bleibt die Option, später auf physikalische Server umzustellen. Dieses Vorgehen ist bei No Cloud meiner Meinung nach auch zu empfehlen, weil man virtuell schneller auf Anforderungen reagieren kann und meistens keine neue Hardware anschaffen muss. Ist hingegen absehbar, dass die geplante Lösung virtuell nicht abbildbar ist, startet man natürlich gleich mit physikalischen Servern.

Nach den konkreten Gründen für No Cloud gefragt, erhält man unterschiedliche Antworten. So kann es sich zum Beispiel um Daten handeln, die aus Gründen des Datenschutzes oder aufgrund von Unternehmensrichtlinien nicht außerhalb des Unternehmens gespeichert werden dürfen. Oder aber das Dritte solche Vorgaben machen (Gesetzgeber, Verbände, etc.). Ebenso erfährt man, dass die Option gewählt wurde, weil man sich mit dem Thema noch nicht ausgiebig beschäftigt hat oder das Know-how im Hause fehlt. Die Beratungspraxis zeigt hier aber, dass Unternehmen immer mehr eine Öffnung für die Cloud vornehmen, wenn man ihnen fachliche und organisatorisch zur Seite steht (einen Einblick in die weltweite Nutzung von Cloud-Diensten für Business Intelligence und Data Warehousing finden Sie hier) .

Cloud und On-Premises – Hybridlösung für Business Intelligence

Eine zweite Gruppe an Unternehmen setzt bis dato auf Hybrid-Lösungen. Hierbei werden Teile der BI-Gesamtlösung in die Cloud verlagert. Das können Komponenten sein, die nur in der Cloud erhältlich sind, wie zum Beispiel spezielle Frontends mit besonderen Features. Oder der Anwender nutzt Teil der Lösung in der Cloud, weil er sie in der Form, Flexibilität, Qualität (Know-how) und Verfügbarkeit nicht On-Premises betreiben kann. Beim Beispiel Frontend in der Cloud bleibt die Datenhaltung und Bewirtschaftung On-Premises, während der Zugriff auf die Daten für Analysezwecke über die Cloud stattfindet. Diese Lösung findet man in der Tat immer häufiger beim Kunden.

Business Intelligence komplett in der Cloud

Unternehmen mit einer All-Cloud-Strategie wollen die gesamt BI-Lösung in der Cloud abbilden und nichts davon On-Premises betreiben. Datenhaltung, Bewirtschaftung und Analysemöglichkeiten werden durch Cloud-Komponenten zur Verfügung gestellt. Sofern die Vorsysteme (ERP, CRM, etc.) nicht auch in der Cloud laufen, erfolgt die Anbindung zwischen Cloud und On-Premises-Umgebung meist über Tunnel-Technik (VPN). Dieses Szenario wird meiner Ansicht nach die Zukunft sein. Zum einen hat die Cloud in der Vergangenheit enorme Fortschritte gemacht und bietet immer mehr Möglichkeiten für den Betrieb von Anwendungen und Infrastruktur. Zum anderen steigen mit der Nutzung und Kombination von Big Data, Machine Learning und Business Intelligence die Anforderungen und erfordern sehr viel Know-How und Infrastruktur, um entsprechende Lösungen On-Premises abzubilden. In dem Fall kann die Cloud viele Vorteile bieten. Im Einzelnen nennen Kunden folgende Vorteile, die sie in Cloud-Lösungen sehen:

  • Skalierbarkeit / Flexibilität
  • Verfügbarkeit
  • Konzentration auf Kernkompetenzen / Know-how im eigenen Team
  • Einsparung bzw. bessere Nutzung von Ressourcen
  • Kosten
  • Sicherheit
  • Softwareaktualität
  • Spezielle Features (z.B. Georedundanz)

Herausforderungen und Umsetzung von BI-Cloud-Lösungen

Aber natürlich bringt wie jedes Szenario auch die Cloud-Nutzung ihre Herausforderungen mit sich. Diese beginnen damit, dass ein Unternehmen die passende Cloud-Strategie für sich finden muss. Ebenso gilt es, den richtigen Cloud-Anbieter und die passenden Komponenten zu finden. Die Möglichkeiten sind heute vielfältig, zumal sich die Cloud-Dienste verschiedener Anbieter auch kombinieren lassen. Ist eine strategische Entscheidung gefallen, stellen sich bei der Umsetzung typische Fragen:

  • Wie bringt man die On-Premises-Infrastruktur mit der Cloud zusammen?
  • Wie integriert man die Cloud Komponenten in die BI-Lösung?
  • Wie stellt man Autorisierung und Authentifizierung sicher?
  • Wie gut ist die Netz-Anbindung an die Cloud?
  • Wie bekommt man das Know-how ins Team?
  • Wie flexibel und mit welchem Aufwand lassen sich Standard-Cloud-Lösungen an Kundenwünsche anpassen?

Eine fertige, vollumfängliche und rein auf Standards basierende Cloud-Lösung für Business Intelligence gibt es meines Wissens bislang noch von keinem Hersteller. Doch sind viele Komponenten erhältlich, die man als Unternehmen je nach Bedarf dafür einsetzen kann – vorausgesetzt man verfügt über das Wissen, die passenden Komponenten richtig einzusetzen. So gibt es in Microsoft Azure einige Komponenten, die sich für eine reine BI-Cloud-Lösung verwenden lassen. Aber auch hier braucht man eine klare Vision, wie die Lösung aussehen soll, damit es am Ende funktioniert. Hier gibt es Abhängigkeiten und Grenzen, die zu beachten sind. QUNIS hat dank langjähriger Praxiserfahrung mit seinem „Data Warehouse Framework“ (DWH-Framework) ein Angebot entwickelt, das die Essenz all unserer Best Practices, Strategien, Methoden und Techniken zum Aufbau eines hochqualitativen, performanten und vor allem stabilen Data Warehouse vereint. Gemeinsam mit Microsoft haben wir dazu auch ein Architektur-Bild auf Basis der Azure-Komponenten entwickelt, welche den Anforderungen an eine moderne und zukunftssichere BI-Lösung in der Cloud gerecht wird. Darüber hinaus haben wir dieses Architektur-Bild in Azure mit unserem DWH-Framework umgesetzt und verprobt. Der Anpassungsaufwand am DWH-Framework war wider Erwarten gering. Bis auf ein paar Fallstricke funktionierte das meiste ohne große Anpassungen.

Möchten Sie Näheres zum DWH-Framework sowie zur Definition und Umsetzung von Cloud-Strategien erfahren. Dann kommen Sie gern auf uns zu!

 

Business Intelligence und Data Warehousing in der Cloud auf dem Vormarsch

Erstellt am: Donnerstag, 14. September 2017 von Sascha

Ob Analyse und Reporting oder Data Warehousing: die Nutzung von Cloud-Dienste in der Verwaltung und Auswertung von Unternehmensdaten etabliert sich. Dies können wir auch aus den QUNIS-Kundenprojekten berichten, in denen immer öfter neue Anwendungen für Big Data und Advanced Analytics oder klassisches Data Warehousing in der Cloud (Microsoft Azure) entstehen.
Ein Stimmungsbild zur Cloud-Nutzung gab kürzlich auch die Online-Umfrage „BI and Data Management in the Cloud: Issues and Trends“ vom BARC und der Eckerson Group. Danach gaben 43 Prozent der 370 Unternehmensvertreter an, bereits heute zumindest Teile ihrer Business-Intelligence- oder Daten-Management-Vorhaben mit Hilfe von Cloud-Diensten umzusetzen. Die größte Gruppe unter den Teilnehmer der Umfrage stammten nach Region aus Europa (47 Prozent) und Nordamerika (37 Prozent).

Business Intelligence Tools am häufigsten in der Cloud

Von den rund 160 Cloud-Nutzern erklärte über die Hälfte, sie würde Business-Intelligence-Werkzeuge (62 Prozent) und -Server (51 Prozent) nutzen. Stark zugenommen hat in den letzten drei Jahren auch der Einsatz von Tools für die Datenexploration (49 Prozent). Die Gründe hierfür lägen laut der Autoren in der allgemein zunehmenden Verbreitung solcher Werkzeuge sowie dem großen Interesse insbesondere unter den „Power Usern“ an solchen visuellen Tools. Power User seien aktuell die stärkste Nutzergruppe von Cloud-Lösungen. Werkzeuge für Advanced Analytics werden in jedem vierten Unternehmen in der Cloud betrieben. Auf dem Gebiet des Datenmanagements in der Cloud dominieren Data-Warehouse-Systeme (42 Prozent) vor Datenintegrationswerkzeugen (35 Prozent).

Public Cloud bevorzugt

Beim Betrieb von Cloud-Lösungen setzen Unternehmen laut Umfrage vor allem auf die „Public Cloud“, während interne Systeme („Private Cloud“) oder hybride Ansätze weniger oft genannt wurden. Public Clouds (wie der Microsoft Azure Stack) sind einfach und vergleichsweise kostengünstig nutzbar, während im Vergleich dazu intern aufgebaute Lösungen von hohen Infrastrukturinvestitionen begleitet sind. Hybride Ansätze, so die Autoren, wären zudem schwieriger zu verwalten und würden Sicherheitsbedenken auslösen, weil sich beispielsweise ein BI-Anwendung in der Cloud durch die Unternehmens-Firewall mit der internen Lösung verbinden (Tunneling) muss.

Einen praxisorientierten Einblick in die derzeitige Cloud-Nutzung für Business Intelligence und Datenmanagement gibt Ihnen unser Blog-Beitrag Business Intelligence – No Cloud, Hybrid oder All Cloud?

 

Megatrend Digitalisierung

Erstellt am: Freitag, 1. September 2017 von Sascha

Großer Bahnhof auf dem diesjährigen Kundentag „QUNIS Day“ in Neubeuern. Mit neuem Besucherrekord und aufgeräumter Stimmung ging es am Morgen in die Konferenz, in deren Mittelpunkt Best Practices für Business Intelligence, Big Data und Advanced Analytics sowie der fachliche Austausch stehen. Unter dem Motto „Innovation Now“ erläutern Senior Analysten sowie unsere Kunden Henkel und Südpack  wie sich die allgegenwärtige digitale Transformation der Unternehmen aktuell darstellt.

QUNIS Day 2017

Großes Anwendertreffen zu Business Intelligence, Big Data und Advanced Analytics auf dem QUNIS Day 2017. Quelle: QUNIS

Geschäftsführer Hermann Hebben konnte zum Auftakt das erfolgreichste Geschäftsjahr seit Firmengründung 2013 verkünden. Mittlerweile werden über 150 Unternehmen im Mittelstand und Konzern betreut und auch die Belegschaft sei in den letzten zwölf Monaten um 73% gewachsen. Auch wirtschaftlich stehe das Beratungshaus sehr gut dar. Hebben betonte aber, dass man weiterhin auf die Kernkompetenz setzen werde, statt neue Beratungsfelder um jeden Preis anzugehen: „G´scheid oder gar ned!“.

Data Warehouse schneller und performant aufbauen

In den letzten zwölf Monaten wurden viele erfolgreiche Projekte umgesetzt. Die Strategieberatung bleibt dabei von zentraler Bedeutung, um ein Fundament für erfolgreiche Initiativen zu legen. Mit Blick auf die Umsetzung von Anforderungen hat QUNIS sein im Markt einmaliges „Data Warehouse Framework“ weiterentwickelt und in vielen Data-Warehouse-Projekten eingesetzt. Ferner wird auf dem QUNIS Day mit der „QUNIS Automation Engine“ erstmals im Plenum eine neue Methode und Technik vorgestellt, mit der sich die Beladung eines Data-Warehouse-„Core“ automatisieren lässt. Gut entwickle sich laut Hebben auch die Schwesterfirma GAPTEQ, die sich nach ihrem Start im September 2016 mittlerweile gut im Markt etabliert hat.

Digitalisierung verändert das Datenmanagement und Datenanalyse

All diese Entwicklungen erfolgen wie erwähnt in einem Marktumfeld, das sich für Unternehmen durch die Digitalisierung aktuell radikal verändert. Beispielhaft stellte Geschäftsführer Steffen Vierkorn vier Megatrends vor, die mit der Digitalisierung verknüpfte sind: Globalisierung, Mobilität, Konnektivität und Individualisierung. Die Technologie werde immer mehr zum Treiber von Veränderungen. Besonders sei dies bei der Nutzung von Cloud-Diensten und Komponenten wie „Microsoft Azure“ zu beobachten sowie bei der Vernetzung von Geräten (Internet of Things). Jenseits der Vorstellungskraft lägen mittlerweile die entstehenden Datenmengen. Bis 2025 sei mit 163 Zetabyte zu rechnen, so Vierkorn, die auf etwa 40 Billionen DVDs Platz hätten!

Veränderungen seien auch mit Hinblick auf die Datennutzung und -analyse bei der Produktentwicklung und Geschäftsbeziehungen zu beobachten. Die Rolle von Business Intelligence. Big Data und Advanced Analytics nehme in diesem Szenario weiter zu. Viele Unternehmen versuchten aktuell die Analytik in den Griff zu bekommen. In diesem Zusammenhang stellte Vierkorn das Data-Lake-Konzept der QUNIS vor.

Künstliche Intelligenz QUNIS Day

Ein Beispiel für die Nutzung Künstlicher Intelligenz war auf dem QUNIS Day am Beispiel eines Fahrzeugs zu sehen, das neben Gesichtserkennung auch Objekten beim Fahren ausweichen kann. Quelle: QUNIS

Die dazugehörige Architektur, die traditionelle Data-Warehouse-Welt und die Nutzung von Big Data methodisch und technologisch verknüpfen hilft, wurde auf der Veranstaltung ausführlich vorgestellt. Die Auswirkungen seien auch organisatorisch groß. So würde es künftig mehr und neue Rollen im Team geben müssen, um die unterschiedlichen Anforderungen abdecken zu können.

QUNIS Day 2017

QUNIS Day 2017 Steffen Vierkorn und Patrick Eisner vom QUNIS-Management.

Self Service Business Intelligence mit Microsoft Power BI

Erstellt am: Montag, 26. Juni 2017 von Sascha
Power BI ist Microsofts strategische Antwort auf den Wunsch in Anwenderorganisationen nach mehr Self Service in der Business Intelligence (BI). Informationsmitarbeiter sollen künftig ohne einen aufwändigen technologischen Unterbau flexibel an der Nutzung und Analyse von Daten partizipieren können, um so das Potenzial von BI besser auszuschöpfen. Um diesen Anspruch gerecht zu werden, wollte Microsoft ein leistungsfähiges Tool mit modernen Visualisierungsmöglichkeiten und starken Analyse-Features entwickeln, welches einfach zu bedienen ist und zugleich umfangreiche Kollaborationsmöglichkeiten für Informationsmitarbeiter bietet. Zugleich musste es aber auch für individuelle Anforderungen offen bleiben.

Das Ergebnis war Power BI. Die Software ist als Cloud-basierende Lösung konzipiert, kann aber ebenso On-Premises betrieben werden. Sie verfügt über eine weitreichende Office-365-Integration sowie offene Schnittstellen für eigene Entwicklungen. Nutzern steht damit ein umfangreiches Self-Service-BI-Tool zur Datenmodellierung, Analyse und Reporting zur Verfügung, das zudem regelmäßig aktualisiert wird. Power BI reiht sich sehr gut in das bestehende Microsoft-Portfolio ein und wird kontinuierlich weiterentwickelt. Zudem hat sich eine sehr aktive Community gebildet.

Berichte visuell ansprechend gestalten

Der übliche Entwicklungszyklus eines Power-BI-Berichtes beginnt in „Power BI Desktop“. Hierbei handelt es sich um die Desktop Applikation von Power BI. Sie verfügt über eine breite Palette an Datenkonnektoren, deren Umfang kontinuierlich erweitert wird. Hier ist auch der Platz, an welchem die Datenmodellierung unter Verwendung der Power-Query-Sprache „M“ stattfindet. Entsprechend dem eingesetzten Architekturszenario – QUNIS sieht hier vier mögliche Architekturvarianten – können die Daten aus der Cloud und oder von On-Premises- Systemen stammen. Sind die Daten nach Bedarf modelliert, lässt sich der Bericht erstellen. Dabei stehen im Standard mehr als 25 Visualisierungsmöglichkeiten zur Auswahl (Über 70 weitere Visualisierungen sind aktuell noch kostenfrei im Web erhältlich). Ist der Bericht vollendet, wird er üblicherweise im „Power BI Service“ in der Cloud oder in einer On-Premisis-Umgebung veröffentlicht. Diese Berichte lassen sich anschließend in Dashboards verwenden oder mit weiteren Usern teilen.

In dem von QUNIS definierten Frontend-Rollenkonzept deckt Power BI drei von vier vorhandenen Rollen ab. Es ist demnach ein passendes Tool für „End User“, „Ad Hoc User“ und „Power User“. Diese Rollen müssen immer unter Berücksichtigung der unternehmensinternen BI Governance identifiziert und besetzt werden, andernfalls kann es rasch zu einem unkontrollierbaren Berichtswildwuchs kommen (eine Übersicht zu den von der QUNIS in Projekten genutzten Software und Technologien finden Sie hier).

Ad-hoc Anforderungen effizient umsetzen

Power BI zeigt seine besondere Stärke, wenn es um Ad-hoc-Anforderungen mit einem hohen Bedarf an Visualisierung geht, und dass sowohl in der BI als auch im Big-Data-Umfeld. Es lässt sich damit auch für Ad-hoc Reporting sehr gut verwenden. Seine umfangreichen Datenkonnektoren spielen dabei eine wichtige Rolle. Ebenso sind Standardreporting und Dashboarding mit Power BI gut umsetzbar, aber es existieren leistungsfähigere Alternativen für dieses Spezialszenario – wie beispielsweise die Reporting Services von Microsoft. Ferner fehlt bis jetzt eine umfangreiche Parametrisierbarkeit und das Zusammenspiel der einzelnen Berichte könnte abgestimmter sein. Die heute noch fehlenden Funktionen verhindern jedoch keineswegs die einfache Nutzbarkeit der Software gemäß dem Self-Service-Gedanken.

Integration mit den Microsoft Reporting Services

Ein weiterer wichtiger Aspekt von Power BI ist die Integration auf Applikationsebene. Z.B. können Anwender Berichte, die mit den „Microsoft Reporting Services“ erstellt wurden, in den Power BI Services veröffentlichen und genauso funktioniert es auch andersherum. Wurden die Power-BI-Berichte im „Microsoft Report Server“ vormals lediglich als statisches Kachelsymbol dargestellt, so sind sie mittlerweile als Power-BI-Berichtsdatei verteilbar, und auch Dashboard-Elemente finden nun in Reporting-Services-Berichten Platz. Zukünftig soll eine vollständige Integration von Power-BI-Berichten in den Reporting Services möglich sein, womit Power BI als reine On-Premises-Lösung mit vollem Funktionsumfang betrieben werden könnte. Darüber hinaus bietet Power BI noch weitere Integrationsmöglichkeiten, wie zum Beispiel in die Software „BI Office“ von Pyramid Analytics oder in SharePoint, wenngleich hier noch Nachholbedarf besteht. Sehr hilfreich und beliebt ist die Integration in PowerPoint, wodurch Berichte und Dashboards mit nur wenigen Mausklicks und in ihrer gesamten Interaktivität in eine Präsentation eingebunden werden können. Damit zeigt sich, dass Power BI nicht nur im Cloud Umfeld nutzbar ist, sondern auch als On-Premises-Lösung, die schon heute gut mit anderen Applikationen interagiert.

Abschließend lässt sich sagen, dass Microsoft mit Power BI ein sehr interessantes Tool am Markt erfolgreich etabliert hat, dass sich durch eine starke Community schnell weiterentwickelt, immer mehr Anforderungen der Nutzer abdeckt und in Folge dessen ein ernstzunehmendes Produkt für Anforderungen in der BI aber auch im Big-Data-Umfeld darstellt. Der vollständige Funktionsumfang steht allerdings nur in der lizenzpflichtigen Pro Version zur Verfügung. Für das Microsoft Portfolio ist Power BI eine moderne Ergänzung, die sich als eigenständiges Self Service BI Tool sowohl in die bestehende Cloud- und On-Premises-BI- als auch Big-Data-Produktpalette des Anbieters integriert.

Weitere Blog-Beiträge, die Sie interessieren könnten:

Die Suche nach der passenden Business Intelligence Strategie

Erstellt am: Donnerstag, 18. Mai 2017 von Sascha

Anwendungen für Business Intelligence (BI), beispielsweise für Reporting und Analyse, sind heute aus den Unternehmen nicht mehr wegzudenken. Da sie eine hohe strategische und damit wirtschaftliche Bedeutung für die Unternehmenssteuerung haben, sollten sie nicht wahllos und ungesteuert eingeführt und betrieben werden. Dennoch zeigt die QUNIS-Beratungspraxis, dass Business Intelligence oftmals noch „nebenher“ läuft. Ebenso scheitern häufig die ersten Versuche, Business Intelligence im Unternehmen einzuführen, weil eben keine BI-Strategie definiert wurde. So ist in solchen Organisationen beispielsweise unklar, wer für BI im Haus verantwortlich ist oder man erkennt nicht, dass es für BI eigener Ressourcen und einer BI-Organisation bedarf.

Business Intelligence und Unternehmensstrategie gehören zusammen

Damit sich dies ändert, gilt es zunächst einmal zu verstehen, dass eine BI-Strategie die Unternehmensstrategie maßgeblich unterstützen kann. Danach ausgerichtet sind die drei wichtigsten Facetten einer BI-Strategie zu beachten: Die Fachliche, die Technologische sowie die Organisatorische. Bei der fachlichen Facette ist u. a. Voraussetzung, dass die fachlichen Anforderungen in einem Konzept niedergeschrieben werden und man sich über einheitliche Kennzahlendefinitionen einig ist. Je nach Anforderung wir sich für eine passende Infrastruktur entschieden, welche die technologische Basis für das BI System bildet. Letztendlich ist Business Intelligence auch in die Organisation einzubetten und setzt für die Einführung und Weiterentwicklung entsprechende Prozesse voraus.

Hilfe bei der Definition und Umsetzung der Business-Intelligence-Strategie

Hilfe bei der Strategiefindung bietet das „QUNIS BI und Big Data Strategie Framework“, das eine aus langjähriger Projekterfahrung abgeleitete detaillierte Methodik mit zahlreichen Best Practices und modernen Umfrageverfahren vereint. Gemeinsam mit dem Kunden entwickelt die QUNIS nach sechs Aspekten gruppiert die Fachkonzeption, diskutiert Architektur & Technologie und klärt Organisationsfragen (zum Beispiel Rollen und Verantwortlichkeiten). Aus diesen strukturierten und gewichteten Vorgaben wird nachfolgend die Strategie für Business Intelligence, Advanced Analytics oder Big Data definiert. Ziel ist die Entwicklung einer BI Roadmap für die zukünftige Lösung. Im Ergebnis wird sich später für eine Big-Data-Lösung für gewöhnlich eine andere Systemarchitektur als für die BI-Lösung ergeben (mehr Informationen zum Vorgehen in Big-Data-Projekten finden Sie hier). Aber genau aus diesem Grund ist es so wichtig, die Anforderungen vorher mit dem Kunden zu erarbeiten.

Folgende Blog-Beiträge der QUNIS zum Thema könnten für Sie auch interessant sein: