AI verändert Data & Analytics – aber nicht allein durch Technologie

Der Wunsch nach Einsatz und Nutzung von Künstlicher Intelligenz hat in modernen Data & Analytics-Initiativen heute einen festen Platz. Copilots, natürliche Sprachabfragen und generative Modelle versprechen schnellere Analysen, effizientere Datenarbeit und neue Möglichkeiten für Fachbereiche.

AI macht sichtbar, was in vielen Organisationen heute (noch) nicht vorhanden ist  

In der Realität vieler Unternehmen zeigt sich häufig folgendes Bild: Die Diskussion rund um AI konzentriert sich auf Modelle, Plattformen und neue Tools. Startet dann ein Projekt, zeigt sich schnell, wo die eigentlichen Engpässe liegen: nicht in der Technologie, sondern in der Organisation der Daten. Wo Datenqualität, Metadaten und Governance funktionieren, beschleunigt AI Prozesse und verbessert den Zugang zu Daten deutlich. Wo diese Grundlagen fehlen, verstärkt sie bestehende Schwächen.

Gerade Large Language Models verändern die Schnittstelle zwischen Fachbereichen und Datenplattformen grundlegend. Nutzer erwarten Antworten auf Fragen in natürlicher Sprache. Damit solche Abfragen funktionieren, müssen Begriffe, Zusammenhänge und Kennzahlen logisch und konsistent modelliert sein. Fehlen diese Grundlagen, entstehen schnell widersprüchliche oder nicht nachvollziehbare Ergebnisse. AI zeigt hier auf, was in vielen Organisationen bereits zuvor vorhanden war: strukturelle Schwächen in Datenmodellen, Verantwortlichkeiten und Governance.

quote-signs

AI macht Data & Analytics nicht automatisch besser. Sie macht vielmehr sichtbar, wie tragfähig die bestehenden Strukturen sind, und zeigt auf, wo man nachlegen muss, um AI wirksam werden zu lassen.

Patrick Keller
Principal Consultant
QUNIS

So wird AI in Analytics wirksam:

Damit AI in Analytics funktioniert, ist es weniger eine Frage, welches Tool oder Modell man wie und wo nutzen möchte, als vielmehr eine grundlegende erste Frage, wie tragfähig meine bestehende Datenorganisation ist und was mit ihr möglich ist, um AI wirksam werden zu lassen? Denn moderne AI-Anwendungen benötigen eine belastbare Grundlage aus:

konsistenter Datenqualität

klar definierten Kennzahlen

dokumentierter Semantik

nachvollziehbaren Datenflüssen

Effizienzgewinne durch AI im Data Engineering 

Ein Data & Analytics-Themenfeld, in dem sich der Nutzen von AI sehr zeitnah zeigt, ist das Data Engineering. AI-gestützte Werkzeuge unterstützen hier bei zahlreichen Aufgaben. Gerade in Transformations- oder Migrationsprojekten können solche Werkzeuge repetitive Aufgaben reduzieren und Entwicklungszyklen beschleunigen.  

In der Praxis zeigt sich dabei häufig ein messbarer Effekt: Viele Aufgaben lassen sich effizienter durchführen, während sich der Schwerpunkt der Rolle verschiebt. Statt rein operativer Entwicklung gewinnen Architekturentscheidungen, Qualitätsmanagement und Standardisierung an Bedeutung. 

  • Generierung und Vervollständigung von Code
  • Übersetzung zwischen unterschiedlichen SQL-Dialekten
  • Erstellung von Testfällen
  • Dokumentation von Datenpipelines
  • Analyse und Debugging von Datenprozessen.

AI erhöht damit nicht nur die Geschwindigkeit technischer Arbeit. Sie verändert auch, welche Kompetenzen im Data Engineering künftig im Mittelpunkt stehen.

Self-Service Analytics mit AI braucht mehr Governance, nicht weniger  

Auch für Analysten und Fachanwender verändert AI den Zugang zu Daten deutlich. Natural-Language-Abfragen, automatische Zusammenfassungen oder assistierte Analysen verkürzen den Weg von der Fragestellung zum Ergebnis. Damit solche Ansätze funktionieren, sind jedoch klare Leitplanken notwendig. Self-Service Analytics ohne Governance führt häufig zu Problemen wie:

  • widersprüchlichen Kennzahlen
  • unklarer Verantwortlichkeit für Daten
  • fehlender Nachvollziehbarkeit von Ergebnissen
  • sinkendes Vertrauen in Analysen.

Gerade weil AI den Zugang zu Daten erleichtert, wird die Rolle von Data Management und Governance wichtiger und bildet die Basis für belastbares Arbeiten mit AI in Analytics Use Cases. 

quote-signs

Governance und Data Management werden zur Voraussetzung dafür, dass AI-gestützte Analysen zuverlässig funktionieren. Sie sorgen dafür, dass Daten konsistent interpretierbar werden und Ergebnisse reproduzierbar bleiben.

Patrick Keller
Principal Consultant
QUNIS

Datenorganisation entscheidet über AI-Skalierbarkeit 

Viele Unternehmen starten ihre AI-Initiativen mit einzelnen Pilotprojekten. Erste Use Cases werden umgesetzt, Prototypen getestet und neue Möglichkeiten erprobt. Der nächste Schritt – die Skalierung solcher Ansätze – erweist sich häufig als deutlich schwieriger. In der Praxis zeigt sich, dass erfolgreiche AI-Anwendungen mehrere strukturelle Voraussetzungen benötigen:

  • eine konsistente Datenplattform
  • klare Verantwortlichkeiten für Datenprodukte
  • definierte Governance-Prozesse
  • ein strukturiertes Use-Case-Management.

Definiertes Use-Case-Management macht AI greifbar

Insbesondere die bewusste und strukturierte Arbeit sowie Organisation von Use Cases gewinnt an Bedeutung. Ideen für AI-Anwendungen entstehen häufig in großer Zahl. Entscheidend ist jedoch, welche davon tatsächlich umgesetzt werden und welchen Wertbeitrag sie leisten. Ein strukturierter Ansatz kann hier beispielsweise folgende Schritte umfassen:

  • Identifikation möglicher Use Cases
  • Bewertung nach Nutzen, Umsetzbarkeit und Datenverfügbarkeit
  • Priorisierung der wichtigsten Initiativen
  • Überführung erfolgreicher Piloten in den produktiven Betrieb.

Erst wenn diese Prozesse etabliert sind, lassen sich AI-Anwendungen langfristig betreiben und weiterentwickeln.  In vielen Organisationen zeigt sich dabei zunehmend ein Data-Product-Ansatz als hilfreicher Rahmen, um Verantwortlichkeiten, Datenqualität und Governance strukturiert zusammenzuführen. 

Drei Fragen, die über die Skalierbarkeit von AI entscheiden 

Sind Datenqualität und Semantik ausreichend dokumentiert?
Nur wenn Datenmodelle und Kennzahlenlogiken nachvollziehbar sind, können AI-Systeme verlässliche Ergebnisse liefern. 

Gibt es klare Verantwortlichkeiten für Daten und Datenprodukte?
Ohne Data Owner oder vergleichbare Rollen bleibt die Qualität von Daten häufig dem Zufall überlassen. 

Wie werden AI-Use-Cases bewertet und priorisiert?
Nicht jede Idee bringt automatisch einen wirtschaftlichen Mehrwert. Eine strukturierte Auswahl verhindert Ressourcenverschwendung. 

Architektur, Betrieb und Organisation müssen zusammenspielen  

Neben der Datenorganisation rücken auch Architektur- und Betriebsfragen stärker in den Fokus. AI-Anwendungen benötigen eine Reihe technischer Komponenten, die gemeinsam funktionieren müssen. Dazu gehören unter anderem folgende Komponenten:

  • Data Stores und Datenplattformen
  • Vektor- und Modell-Speicher
  • Pre-Processing und Embedding-Verfahren
  • Inference- und Serving-Mechanismen
  • Monitoring und Qualitätskontrollen
  • Security- und Compliance-Mechanismen.

Viele Proof-of-Concept-Projekte scheitern nicht an der technischen Idee, sondern an der Frage, wie solche Lösungen langfristig betrieben werden sollen.

Wer übernimmt Support und Wartung?
Wie werden Modelle versioniert und überwacht?
Und wie lässt sich sicherstellen, dass Qualität und Kosten dauerhaft kontrolliert bleiben?

Erst wenn diese Fragen beantwortet sind, kann aus einem experimentellen Prototyp eine belastbare Enterprise-Lösung werden.

quote-signs

Der entscheidende Schritt ist also nicht die Einführung neuer AI-Tools. Entscheidend ist, ob Datenplattform, Governance und Organisation bereit sind, diese Technologien produktiv zu tragen.

Patrick Keller
Principal Consultant
QUNIS

Kleine Schritte können große Wirkung entfalten

AI verändert bereits heute die Arbeit mit Daten in Unternehmen spürbar. Sie kann Analysen beschleunigen, Daten zugänglicher machen und neue Möglichkeiten der Automatisierung schaffen. Der Einstieg in AI-gestützte Analytics muss dabei nicht zwangsläufig mit großen Plattformprojekten beginnen.

In vielen Fällen zeigen bereits kleinere Anwendungen einen messbaren Nutzen, beispielsweise: automatisierte Code-Reviews in Data-Engineering-Projekten, Assistenten für Abfragen in BI-Tools oder Werkzeuge zur automatischen Dokumentation von Datenpipelines. Solche Anwendungen helfen Organisationen, erste Erfahrungen zu sammeln und gleichzeitig ihre Datenstrukturen schrittweise zu verbessern.

Gerade ein pragmatischer Einstieg kann entscheidend sein, um AI nicht nur als technologische Vision zu betrachten, sondern als konkreten Bestandteil der Datenstrategie. Der eigentliche Effekt von AI liegt also weniger in der Technologie selbst als in den strukturellen Voraussetzungen, die sie sichtbar macht. Unternehmen, die ihre Datenqualität, Governance und Organisationsstrukturen bewusst weiterentwickeln, schaffen die Grundlage für skalierbare AI-Anwendungen.

Die erste Frage, die Sie für AI in Analytics beantworten sollten, lautet also nicht: Welches Tool nutze ich? Sondern: Wie gut werden die Daten in meiner Organisation heute strukturiert, verantwortet und genutzt?

QUNIS Checkliste

Fangen Sie mit Ihrer Data Governance an und holen Sie sich unsere 12 praxisbewährten Tipps, die Ihnen helfen, Data Governance in Ihrem Unternehmen Schritt für Schritt und nachhaltig umzusetzen