Beiträge mit dem Schlagwort Künstliche Intelligenz

Trends bei Nutzung von Big Data

Erstellt am: Dienstag, 6. März 2018 von Monika Düsterhöft

Nach Einschätzung der Marktforscher von IDC wird der weltweite Umsatz mit Software, Hardware und Services für Big Data und Big Data Analytics in den kommenden zwei Jahren auf 203 Milliarden US-Dollar steigen. Das jährlich zu den bereits vorhandenen Datenbergen hinzukommende Datenvolumen könnte laut der Auguren im Jahr 2025 bereits bei 180 Zetabyte liegen. Gewaltige Datenmengen und viele Chancen für Unternehmen, neue oder detailliertere Informationen zu extrahieren und für die Unternehmens- und Prozesssteuerung, Planung oder Produktentwicklung einzusetzen.

Prescriptive Analytics

Unter den vielen Aspekten, die im Zusammenhang mit der Nutzung von Big Data und Advanced Analytics diskutiert werden, finden sich einige Entwicklungen, die laut Marktbeobachtern in den kommenden zwölf Monaten besondere öffentliche Aufmerksamkeit erfahren werden.
So wird erwartet, dass das Interesse an Prescriptive Analytics steigt. Es vereint Verfahren des Machine Learning, Simulationen und mathematische Berechnungen, um bei einer bestimmten Fragestellung die optimale Lösung oder das beste Ergebnis unter verschiedenen zur Auswahl stehenden Möglichkeiten zu ermitteln. Praktisch werden also beispielsweise kontinuierlich und automatisch neue Daten verarbeitet, um die Genauigkeit von Vorhersagen zu erhöhen und bessere datengetriebene Entscheidungsoptionen zu bieten. Prescriptive Analytics könnte so neben Cognitive Computing den Mehrwert bei der Analyse von Big Data künftig erheblich steigern helfen.

ECM und Big Data

Big Data ist ein Sammelbegriff, der in der Praxis sowohl vorhandenen Daten, etwa aus einem Data Warehouse oder ERP-System, als auch neue Datenquellen einbezieht. Diese können dabei durchaus auch innerhalb der eigenen Unternehmensgrenzen liegen. So wird für 2018 erwartet, dass sich Organisationen mehr für historische Daten und Dokumente interessieren werden, die bislang nicht in einer digitalen Form vorliegen. In diesen können wichtige Informationen liegen, die zum Beispiel für Voraussagen hilfreich sein können. Damit zeichnet sich hier eine Entwicklung ab, die wir auch bei QUNIS sehen, nämlich der Annäherung und Kombination von Enterprise Content Management und Analyseumgebungen.

Datenqualität statt Datenquantität

Angesichts der wachsenden Datenberge ist es trotz sinkender Hardwarepreise, Cloud und Konzepten wie dem Data Lake auf Dauer nicht wirtschaftlich, schlicht alle erreichbaren Daten zu speichern. Unternehmen müssen sich daher in den kommenden Monaten strategisch damit beschäftigen, auf welche Datensätze sie es besonders abgesehen haben bzw. welche ihnen Ansätze für bessere Analysen bieten können. Ebenso wird es um Wege zur Verbesserung der Datenqualität gehen, denn Datensätze können irrelevant, ungenau oder gar beschädigt sein. Qualität statt Quantität, heißt also die Parole für 2018.

Machine Learing hilft beim Datenschutz

Herzstück einer Big-Data-Analyse sind Verfahren der Künstlichen Intelligenz. Diese müssen in 2018 verstärkt für Auswertungen im Bereich der Datensicherung und Datensicherheit zum Einsatz kommen, da auf diesem Anwendungsgebiet laut Marktbeobachtern Nachholbedarf herrscht. So werden Maschinen beispielsweise schon bald in der Lage sein, mit Hilfe von Machine Learning menschliches Verhalten „vorherzusagen“ und automatisiert „unlabeled data“ zu verwenden. Dadurch wird sich Künstliche Intelligenz zu einem zentralen Instrument für Datenschutz und Abwehr unerlaubter Zugriff entwickeln.

Neue Rollen und viele Stellenangebote

Aber nicht nur die Vielfalt und Nutzungsformen von Big Data werden sich in der nächsten Zeit weiterentwickeln, sondern auch die Menschen, die damit arbeiten. So entstehen neben dem viel zitierten Data Scientist weitere Rollen in den Organisationen, welche die Erfassung, Auswertung und Operationalisierung von Big Data überhaupt erst strukturiert möglich machen. Auch die QUNIS hat hierzu bereits im Rahmen ihrer Big Data Methodik ein modernes Rollenmodell entwickelt, das detailliert die Aufgaben und Kombinationen diskutieren und definieren hilft. Zugleich wächst im Markt die Sorge, dass sich nicht ausreichend Spezialisten für diese oft sehr anspruchsvollen Aufgaben und Rollen rund um Big Data finden lassen. So schätz beispielsweise IBM, dass allein in den USA das Stellenangebot für Big-Data-Experten im weitesten Sinne von 364.000 offenen Stellen in 2018 auf 2,72 Millionen bis 2020 ansteigen wird.

Keine Industrie 4.0 ohne Big Data und Künstliche Intelligenz

Erstellt am: Mittwoch, 14. Februar 2018 von Monika Düsterhöft

Mit der zunehmenden Praxis wächst auch die Zahl der Umfragen zu Industrie 4.0. So hat sich jetzt die Siemens Financial Services bei Herstellern und Beratungshäuser aus dem Bereich der Produktion und Wartung in elf Ländern umgehört, wo der Schuh drückt. Heraus kamen sechs Themenfelder, die Hersteller nach eigenen Aussagen aktuell angehen müssen:

  • Entwicklung der Kompetenzen und Kenntnisse von digitaler Technologie für einen erfolgreichen Übergang zu Industrie 4.0
  • Zugang zu Finanzierungen, die den erforderlichen Investitionszeitraum berücksichtigen
  • Aufbau einer Kooperationskultur, die notwendig ist, um gemeinsam am Erfolg in einer vernetzten Industrie-4.0-Welt zu arbeiten, ob im eigenen Unternehmen, in der Lieferkette oder branchenübergreifend (mehr zur Unternehmenskultur und Industrie 4.0 finden Sie hier)
  • Überwindung von Risiken bezüglich der Daten- und Internetsicherheit in einer Welt, in der sich große Mengen sensibler Daten durch das Internet bewegen
  • Umfassender Zugang zu einer ausreichenden Zahl an realen Beispielen für erfolgreiche digitale Transformation aus allen Fertigungssektoren
  • Spezialisierte strategische Managementkompetenzen zur Erarbeitung eines klaren Stufenplans, um Industrie 4.0 zu erreichen. Spezialisierte strategische Führungsqualität zur Entwicklung eines klaren, gestaffelten Plans, um Industrie 4.0 umzusetzen.

Laut der Autoren zeigen diese Aspekte, dass es mittlerweile nicht mehr darum geht, grundsätzlich die Notwendigkeit zur Digitalisierung und Automatisierung zu diskutieren. Vielmehr stehen mittlerweile praktische Fragen im Mittelpunkt, wie Organisation den Weg zur Industrie 4.0 schrittweise und mit Augenmaß gehen können – einschließlich laufender Qualitätskontrollen und RoI-Maßnahmen.

Es fehlt an Expertise für digitale Produkte und Künstliche Intelligenz

Von allen Themenfeldern wurde die „Entwicklung der Kompetenzen und Kenntnisse von digitaler Technologie für einen erfolgreichen Übergang zu Industrie 4.0“ als größte Herausforderung benannt. Es fehlt bis dato digitales Produktionswissen, welches es operativen Mitarbeitern ermöglicht, Maschinen- und Leistungsdaten auf ihren portablen Dashboards zu interpretieren und entsprechende Maßnahmen zu ergreifen. Ferner müssen „digitaler Wartungskompetenzen“ entstehen, wie es die Studienautoren nennen, also, dass Techniker auch das Know-how haben, um komplexe digitalisierte Betriebssysteme und Geräte instandzuhalten. Und schließlich bedarf es der Expertise für operative und strategische Analysen. Gemeint ist damit, dass man die Auswertung großer Datenmengen, die sich durch die enge Vernetzung von Maschinen, Anwendungen und Menschen künftig rasant erhöhen (Big Data) in den Griff bekommt. Diese Unmengen an Daten – einschließlich Produktionsdaten, Lieferkettendaten, Marktdaten und finanziellen Daten – erfassen und analysieren zu können, ist entscheidend um die eigene Wettbewerbsfähigkeit künftig zu erhalten bzw. zu verbessern.

Datenmanagement auf Industrie 4.0 vorbereiten

Voraussetzung dafür ist, dass Unternehmen zunächst ihr bisheriges Datenmanagement und ihre Dateninfrastruktur bewerten, ob und wie sich diese für die Erfassung und Analyse von Big Data weiterentwickeln lassen – ohne bisherige Investitionen deshalb gleich aufgeben zu müssen. Ebenso gehört zu Vorarbeiten eine Strategiediskussion sowie Auswahl von Use Cases. Schauen Sie sich einmal unsere Methodik für Big-Data-Umgebungen sowie unser Data Lake Konzept an, die unsere langjährige Projekterfahrung und Expertise auch in den neuen Technologien und Verfahren wie die der Künstlichen Intelligenz widerspiegeln!

Big Data Anwendungsfälle PayPal und ProSiebenSat1

Erstellt am: Mittwoch, 24. Januar 2018 von Monika Düsterhöft

Auch wenn heute Big Data in aller Munde ist, so stehen doch die Unternehmen mehrheitlich immer noch am Anfang mit der Umsetzung. Gerade zu Beginn einer Big-Data-Initiative fällt es schwer, die geeigneten Use Cases zu finden beziehungsweise vorhandene Ideen weiter auszuarbeiten und für ein Proof-of-Concept zu priorisieren. Wir empfehlen daher, sich zunächst in einem individuellen Workshop über die eigenen Anforderungen,  den Markt und Technologien bis hin zur eine Road Map klar zu werden. Im Rahmen dieser Vorarbeiten erläutern wir unter anderem Anwendungsbeispiele aus der jeweiligen Branche oder Fachbereich, die von Kunden oder aus dem Markt stammen. Die QUNIS hat hierfür als Besonderheit im Markt eine „Lösungsbibliothek“ geschaffen. Sie vereint und strukturiert aktuell weit über 100 im Markt veröffentlichte Anwendungsbeispiele für die Nutzung von Big Data.

Ein besonders spannendes Anwendungsgebiet für Advanced Analytics ist beispielsweise das Marketing. Die in der Branche viel zitierte 360°-Sicht auf den Kunden bildet künftig die Grundlage dafür, welches Produkt und welche Dienstleistung er über welchen der vielen Kanäle zu welchen Konditionen angeboten bekommt. Je präziser daher eine Segmentierung von Kunden und die Prognose ihres Verhaltens möglich ist, desto höher sind Kontakt- und Antwortraten und damit auch Abschlussquoten und Umsatz, desto höher die Kundenzufriedenheit und Loyalität. Nachfolgend zwei Beispiele:

PayPal – Kunden besser verstehen und binden – Service optimieren durch Text Analytics

PayPal hat über 143 Millionen aktive Kunden und wickelt täglich über 8 Millionen Zahlungen ab. Zahlreiche Kunden äußern sich über Kundenumfragen, E-Mail, Feedback-Formulare im Web, Twitter zu den Dienstleistungen von PayPal, unter anderem darüber, welche technischen Probleme sie haben, was sie mögen, was sie stört und wie man den Service verbessern könnte. Wegen der enorm großen Menge an Feedback, wäre es sehr zeit- und kostenaufwändig, alles textuelle Feedback einzeln zu lesen und zu berücksichtigen. Die automatisierte Analyse des Kundenfeedbacks aus über 60 Ländern und in über 30 Sprachen ermöglicht es PayPal nun, wichtige Probleme und Themen sowie ihre Häufigkeit und Kritikalität automatisch und fast in Echtzeit zu erkennen, zu priorisieren und zu beheben.

ProSiebenSat.1 – Fakten mit Big Data: Was bringen TV-Spots für E-Commerce?

Die ProSiebenSat.1 Media AG vermarktet einerseits klassische TV-Werbezeiten und beteiligt sich andererseits an zahlreiche E-Commerce-Unternehmen. Im Rahmen der Beteiligung stellt ProSieben-Sat.1 u. a. Werbezeiten für die Bewerbung der E-Commerce-Angebote zur Verfügung. Es ist daher von hohem Interesse für ProSiebenSat.1, systematisch ermitteln zu können, welchen konkreten Beitrag die TV-Werbung zur Wertschöpfung des beworbenen E-Commerce-Unternehmens leistet. Wie viele Visitors besuchen genau deshalb die E-Commerce-Website, weil sie die TV-Werbung gesehen haben? Und welchen Umsatz bringen diese Visitors, die nachweislich ursächlich wegen der TV-Werbung auf die Website gekommen sind, in einem bestimmten Zeitraum? Durch den Big Data-Ansatz konnte ein Verfahren entwickelt werden, um den TV-Einfluss auf den Website-Traffic zu messen.

Mehr zu Big Data und der QUNIS-Methodik finden Sie hier

Data Science mit der Microsoft Azure Cortana Intelligence Suite

Erstellt am: Donnerstag, 1. Juni 2017 von Monika Düsterhöft
Kaum eine Business-Nachricht heutzutage ohne die Schlagworte Künstliche Intelligenz, Big Data, Advanced Analytics, Machine Learning. Es heißt, die Geschäftswelt wird sich schon bald komplett ändern – und tatsächlich hat die Zukunft bereits begonnen. Erst kürzlich verkündete Microsoft der Welt seine Vision und sein Credo, künstliche Intelligenz zu demokratisieren, damit jeder von ihr nicht nur profitieren kann, sondern auch soll. Spätestens jetzt sollte man sich als Unternehmer oder als Teil eines Unternehmens Gedanken machen, wie er an dieser gleichermaßen faszinierenden wie auch ein wenig erschreckenden neuen Welt nicht nur teilhaben kann, sondern auch wird.

 

Aber wie? Eine nähere Betrachtung des Themas zeigt schnell, dass es vor allem auf Use Cases ankommt, die sich ein Unternehmen überlegen und die es definieren muss. Ebenso muss das Ziel einer Big Data-Initiative klar sein, und damit auch, was man durch entsprechende Anwendungen prognostizieren und damit erreichen will. Daran anschließend drängen sich weitere Fragen auf: Wie kann ich mein Big Data- oder Advanced Analytics-Vorhaben in die Tat umsetzen? Welche Voraussetzungen müssen gegeben sein? Wie groß sind die Hürden für eine Umsetzung? Statt nur zu vermuten, was die Kunden über meine Produkte denken, will ich es wissen! Ich will präzise Voraussagen treffen können, ob und wann meine Kunden Interesse entwickeln oder wann ich Gefahr laufe, sie zu verlieren. Dies gelingt umso besser, je mehr möglicherweise kundenrelevante Informationen einbezogen werden können, beispielsweise aus den sozialen Medien oder aus Nachrichten-Feeds. Diese wertvollen Informationen will ich sodann mit meinen vorliegenden Geschäftsergebnissen „verheiraten“, um auf dieser Datenbasis fundierte und zuverlässige Geschäftsentscheidungen treffen zu können. 

 

Erfahrung mit der Microsoft Azure Cortana Intelligence Suite

Kann diesbezüglich Microsoft sein Versprechen halten? Sind die Komponenten der Microsoft Azure „Cortana Intelligence Suite“ wirklich geeignet, um Big Data-Vorhaben umzusetzen? Zunächst einmal ist das Angebot des Herstellers Cloud-basierend und komplett für den Nutzer administriert, d.h. man benötigt keine eigene Hardware oder Mitarbeiter, sondern nutzt vollständig verwaltete Dienste. Ferner lassen sich mit Hilfe der neuen „Azure Logik Apps“ auch die genannten sozialen Medien problemlos anzapfen, und das ganz ohne zusätzlichen Programmieraufwand. Einfach ist in der Praxis auch die Analyse des daraus entstandenen Datenstroms, etwa um Trends zu erkennen. So kann man beispielsweise für eine Stimmungsanalyse das „Text Analytics API“ –  ein Baustein der sogenannten Cognitive Services – verwenden, mit dessen Hilfe sich auch Schlüsselbegriffe aus dem Text ermitteln lassen. Und dies ist nur eine Option von vielen auf Machine Learning basierenden Bausteinen aus dem Microsoft-Angebot.

Werkzeuge für den Data Scientist

Für die Arbeit als Data Scientist findet sich das „Azure Machine Learning Studio“, eine sehr komfortable und benutzerfreundliche Anwendung, die sämtliche Schritte des Data-Science-Prozess per Drag & drop komponieren hilft. Neben vielen Methoden zur Unterstützung der Datenvorbereitung, bietet Azure ML Out of the box auch alle gängigen Machine-Learning-Modelle aus den Gebieten „Supervised“ sowie „Unsupervised Learning“ – von einfachen Classification-Modellen über Neuronale Netzwerke bis hin zum K-Means Clustering. Bereits vorhandene, in R oder Python entwickelten Scripts oder präferierten Modelle kann der Data Scientist ebenfalls einfach integrieren.
Flexibilität bietet Microsoft auch bei der Speicherung des Datenstroms plus Analyseergebnisse. Eine Option ist die Ablage in einem schier unbegrenzten Data-Lake-Speicher, auf dem der Anwender mit Hilfe der „Data Lake Analytics“ und U-SQL weitere Analysen vornehmen kann. Gleichfalls möglich ist eine Speicherung strukturierter Daten in einer Azure SQL-Datenbank oder einem Datawarehouse oder es lassen sich Daten auch direkt für den Endanwender interaktiv visualisiert per „Power BI“ bereitstellen.

Der Weg in die schöne neue Welt ist also keineswegs erschreckend schwierig, sondern mit einem Schritt ist man schon heute mitten drin! Dabei stellen die genannten Möglichkeiten nur ein Bruchteil dessen dar, was mit der „Azure Cortana Intelligence Suite“ bereits heute möglich ist. Für perfekt passende Szenarien sind der Fantasie dabei keine Grenzen gesetzt. Die Experten von QUNIS stehen Ihnen dabei mit Rat und Tat zur Seite! Sei es durch ein kostenfreies Advanced-Analytics-Webinar oder im Rahmen eines Big-Data-Workshops. Wir können Ihnen in jedem Fall dabei helfen, unternehmensspezifische Business Cases zu identifizieren, ein passendes Szenario mit Ihnen abzustimmen und dieses nachfolgend im Rahmen eines Proof of Concept auch gleich zu verproben.

Weitere Beiträge zur Nutzung von Big Data und Advanced Analytics finden Sie auf unserem Blog der Bigdata Factory!

QUNIS on Tour – Big Data in Bayern und Kongress der Controller

Erstellt am: Mittwoch, 17. Mai 2017 von Monika Düsterhöft
Zweimal „großer Bahnhof“ in Bayern: Unter dem Motto „Zukunft digital – Big Data“ trafen sich am vergangenen Montag zum einen Unternehmensvertreter und Mitglieder des Zukunftsrats der Bayerischen Wirtschaft in Straubing zum Austausch über die wirtschaftliche Bedeutung von Big Data. Die QUNIS war mit einem Stand vertreten und gab dort Interessenten Einblick in unsere Big-Data-Methodik, Use Cases sowie unser Anwenderbefragung zu Big Data und Advanced Analytics in der Praxis.
Im Mittelpunkt der Konferenz stand die erstmals 2016 präsentierte Studie zu den wirtschaftlichen Potenzialen und rechtlichen Rahmenbedingungen von „Big Data“. Im Auftrag der vbw – Vereinigung der Bayerischen Wirtschaft e. V. hatten die Prognos AG und Professor Dirk Heckmann vom Lehrstuhl für Öffentliches Recht, Sicherheitsrecht und Internetrecht an der Universität Passau, diese Untersuchung für den Zukunftsrat erstellt.
 Die darauf beruhenden Handlungsempfehlungen des Zukunftsrats an Politik, Wirtschaft und Wissenschaft stellte vbw-Präsident Alfred Gaffal den rund 120 anwesenden vbw-Mitgliedern noch einmal kurz vor. Big Data werde als Schlüssel zur Entwicklung innovativer hybrider Geschäftsmodelle entscheidend zum Wachstum der kommenden Jahre beitragen, so die Erwartung des Verbands. Bayern müsse dabei zur europäischen Leitregion für Big Data Technologien und Anwendungen werden.  Jedes Unternehmen sollte sich laut der Handlungsempfehlungen künftig eine Strategie für den Umgang mit Daten – möglichst unter Ausschöpfung der darin liegenden Potenziale im Rahmen von Big-Data-Anwendungen – geben. Sie beinhaltet gleichermaßen die Realisierung wirtschaftlicher Chancen wie eine möglichst rechtssichere Gestaltung des Umgangs mit Daten.

Auf dem vbw-Treffen in Straubing: Gastgeber Erich Sennebogen, Jutta Krogull, Geschäftsführerin der vbw Bezirksgruppe Niederbayern, sowie vbw-Präsident Alfred Gaffal. Foto: vbw

Big Data – wem gehören die Daten?

Auf letzteren Aspekt ging Professor Heckmann in einer Fragerunde näher ein und machte deutlich, dass hier noch viele Fragen beim Umgang mit Daten zu klären sind, um die Nutzung von Big Data zu fördern und zu erleichtern. Dabei gehe es zum einen um das komplexe Thema Datenschutz, zum anderen aber auch um Fragen der Fairness und die juristisch noch ungeklärte Frage, ob Daten vergleichbar zu Sachgegenständen auch als „Eigentum“ betrachten werden können (Wem gehören die Daten?). Unternehmen sollten ihren Umgang mit Daten mit vertrauensbildendenden Maßnahmen flankieren, empfiehlt der Zukunftsrat, indem sie transparent über die geplante Erhebung, Speicherung und Nutzung von Daten informieren. Innerhalb der Grenzen der notwendigen Geheimhaltung bezüglich eigener Geschäftsvorgänge sollte über Big-Data-Zwecke, -Anwendungen und -Schutzmaßnahmen informiert werden. Bei personenbezogenen Daten und insbesondere im Falle einer nicht von vornherein abschließend feststehenden Nutzung der erhobenen Daten ist dies ohnehin erforderlich. Prof. Heckmann erinnerte zudem die Teilnehmer daran, dass im kommenden Jahr mit der „Europäischen Datenschutzverordnung“ höhere Transparenz-Anforderungen bei der Datennutzung auf alle Beteiligten zukämen.

ICV-Kongress über Digitalisierung und die Folgen im Controlling 

Zum anderen zeigte die QUNIS Präsenz auf dem 42. Congress der Controller in München. Wir waren als Aussteller und als ein Sponsor des „Controllerpreis 2017“, der heuer an EDEKA Südwest ging,  stark vertreten. Die Veranstaltung stand heuer unter dem Motto „Agiles Controlling in der digitalen Realität – Umbrüche erfolgreich managen“ . Rund 650 Teilnehmer waren laut dem Veranstalter, dem Internationalen Controller Verein (ICV), zu Europas größter Controlling-Fachtagung an die Isar gekommen.

650 Besucher kamen dieses Jahr zum Kongress der Controller nach München. Die QUNIS war als Aussteller und Sponsor dabei. Foto: QUNIS

Der ICV-Vorsitzende und langjähriger CEO der Hansgrohe SE, Siegfried Gänßlen betonte in seiner Begrüßungsansprache, wie die Digitalisierung für tiefgreifende Veränderungen in den Unternehmen sorge, indem sie nicht nur technologische Innovationen mit sich bringe, sondern auch neue Geschäftsmodelle ermögliche und Märkte dadurch total umkrempele. Auch die Controller seien nun aufgefordert, „alles an sich selbst in Frage zu stellen“, erklärte der ICV-Vorsitzende. Eine zentrale Frage ist dabei,  wie man künftig mit den vielfältigen, oft in Echtzeit entstehenden steuerungsrelevante Daten umgehen könne: „Wer greift wann welche Daten ab? Und: Was ist jetzt die ‚one version of the truth‘?“ Gänßlen sieht es als Aufgabe der Controller dafür zu sorgen, dass Controlling-Skills an das Management vermittelt werden und die Rationalitätssicherung gewährleistet ist.

QUNIS Kongress der Controller

QUNIS testete auf dem Kongress der Controller ein Digital Signage System mit künstlicher Wahrnehmung. Neugierige Kollegen und Besucher ließen nicht lange auf sich warten  🙂   Foto: QUNIS

Unternehmensbeispiele zeigten, dass heute schon verschiedenste Controller-Tätigkeiten automatisiert sind, speziell im Reporting und in der Planung, so Gänßlen. „Wir befinden uns bereits in einer Zeit der Transformation. In der Unternehmenssteuerung vollzieht sich der Paradigmenwechsel: von reaktiv zu proaktiv-prognostizierend.“ Datenbasiert ließen sich quantitativ-statistische Zusammenhänge erkennen und kontinuierlich auf Validität überprüfen. Neue Modelle dienten als Grundlage für erweiterte Szenario-Planungen, zur Qualifizierung von strategischen Optionen sowie zur Bewertung von Business Cases.

Der ICV-Vorsitzende widmete sich den aktuellen und zukünftigen Aufgaben der Controller. „Qualitativ hochwertige IT-Systeme entwickeln sich nicht von selbst: Das betriebswirtschaftliche Design werden Controlling-Experten liefern müssen“, so der ICV-Vorsitzende. „Das Tooling muss in Zusammenarbeit mit Data Scientists erstellt werden. Wir erhalten eine neue Verteilung der Controlling-Aufgaben und ein stark verändertes Controller-Profil.“ Die Datenanalytik erweise sich bereits als Kompetenzfeld von Spezialisten. Data Scientists als Experten seien mit ihren technologischen, mathematischen und analytischen Kompetenzen gefragt.

Das Selbstverständnis des Controllers muss sich ändern

Viele Veröffentlichungen, Studien und Prognosen befassten sich mit dem Thema Digitalisierung und Künstliche Intelligenz. Die einen Szenarien würden neue Chancen für Controller hervorheben, die anderen den massiven Wegfall von Arbeit im Controlling beschreiben, der mit Jobverlusten der Controller einhergehen werde. Der Vorsitzende des Internationalen Controller Vereins (ICV) mahnte, die Controller müssten in den Veränderungsprozess einsteigen. Die bestehende Toolbox, die Fähigkeiten und der Mindset seien neu aufzustellen. Zu den neuen gefragten Fähigkeiten gehörten Kenntnisse in Statistik und Informationstechnologie, aber auch Kommunikationskompetenz sowie ein solides Verständnis des Geschäftsmodells und der Wertschöpfungskette des Unternehmens. „Wir müssen alte Verhaltensmuster über Bord werfen, noch innovativer werden und mehr Start-up Mentalität entwickeln“, fordert Gänßlen von den Controllern.

Die zunehmende Automatisierung schafft nach Ansicht Gänßlens auch Freiräume für Controller; neue Aufgaben und neue Jobs entstünden. „Controller haben durch ihren tiefen Einblick in das Unternehmen und in die Geschäftsmodelle die idealen Voraussetzungen, um höhere Managementpositionen zu übernehmen. Auch der Weg in die Unternehmensspitze ist machbar“, ist der ICV-Vorsitzende gewiss (mehr zum Thema Controlling und Big Data finden Sie auch in unserem Beitrag).
*Mit Material aus der Pressemitteilung des ICV