AI eröffnet neue Zugänge zu Daten 

Mit dem Aufkommen großer AI-Sprachmodelle, der sogenannten Large Language Models (LLM), entsteht eine neue Form der Interaktion zwischen Mensch und Daten. Systeme können menschliche Sprache verstehen, interpretieren und darauf reagieren. Nutzer können Informationen direkt über frei formulierte Fragen abrufen.

Auch in der Data & Analytics-Welt eröffnen sich mit AI und LLM neue Möglichkeiten der Interaktion. Informationen müssen nicht mehr über SQL abgefragt oder in Reports und Dashboards gesucht werden. Fragen lassen sich stattdessen direkt über Chat-Interfaces, Copilots oder sprachbasierte Assistenzsysteme stellen und entsprechende Antworten generieren.

Was zunächst wie eine komfortable neue Benutzeroberfläche wirkt, hat jedoch weitreichende Auswirkungen auf die Architektur der Datenplattformen dahinter. Denn damit natürliche Sprache auch in der Data & Analytics (BI) zur Abfrageschnittstelle für Daten werden kann, müssen diese – anders als für Reporting- und Dashboarding-Systeme bisher üblich – organisiert, beschrieben und miteinander verknüpft sein.

quote-signs

Zur sprachbasierten Abfrage reicht die Modellierung für ein Dashboard nicht mehr aus. Systeme müssen vielmehr verstehen können, was Daten bedeuten und in welchem Kontext sie verwendet werden.

Viktor Adler
Senior Consultant
QUNIS

Vom Reporting-System zum Wissenssystem

Viele bestehende Analytics-Plattformen wurden dafür entwickelt, Daten und Informationen in Dashboards und Reports bereitzustellen. Die fachlichen Logiken sind dabei häufig nur Experten vollständig bekannt und daher auch oft nur implizit abgebildet. Für sprachbasierte Abfragen reicht das jedoch nicht aus. Denn wenn Nutzer Fragen in natürlicher Sprache stellen, muss ein System verstehen können,

  • welche Kennzahl gemeint ist
  • welche Datenquellen relevant sind
  • in welchem fachlichen Kontext eine Frage gestellt wird.

In aktuellen Systemen ist genau dieses Wissen häufig weder systematisch dokumentiert noch durchgängig modelliert. Kennzahlenlogiken existieren in verschiedenen Dokumentationen, sind zu Teilen hinterlegt in BI-Tools oder befinden sich ausschließlich im Erfahrungswissen einzelner Personen. Metadaten sind sehr oft nur unvollständig oder uneinheitlich gepflegt. Während klassische Dashboards solche Schwächen teilweise kaschieren können, werden sie bei dialogbasierten Abfragen unmittelbar sichtbar.

Damit moderne Wissenssysteme funktionieren, müssen strukturierte Daten, Metadaten, semantische Modelle und dokumentiertes Fachwissen zu einer gemeinsamen Informationsbasis zusammengeführt werden. In der Praxis bedeutet das, dass zentrale Elemente wie Data Catalog, Datenherkunft (Lineage), Ownership und dokumentierte Kennzahlenlogiken systematisch gepflegt werden müssen. Erst wenn Daten, Metadaten und Verantwortlichkeiten transparent sind, können AI-Systeme fachliche Zusammenhänge zuverlässig interpretieren.

Semantik wird zur zentralen Schicht in der Datenarchitektur

Damit AI-Systeme Fragen korrekt interpretieren können, benötigen sie eine konsistente semantische Grundlage. Begriffe, Beziehungen und Kennzahlen müssen eindeutig definiert und miteinander verknüpft sein. Auch unterschiedliche Bezeichnungen oder Synonyme müssen berücksichtigt werden, damit ein System verschiedene Formulierungen derselben Frage korrekt interpretieren und einordnen kann. Die Rolle von Metadaten verändert sich hier grundlegend. Was früher häufig als Dokumentationsaufgabe betrachtet wurde, wird nun zu einer zentralen architektonischen Komponente.

AI-fähige Datenplattformen benötigen insbesondere:

  • konsistente Begriffsdefinitionen
  • dokumentierte Kennzahlenlogiken
  • klar modellierte Beziehungen zwischen Daten
  • gepflegte Metadaten und Synonyme

Semantik wird zur verbindenden Ebene zwischen Datenplattform, Fachlogik und AI-Modellen.

quote-signs

Klassische BI-Systeme waren primär auf Reporting und Dashboard-Logiken ausgerichtet. Moderne Datenplattformen werden zu kontextualisierten Wissenssystemen. Daten, Metadaten und Verantwortlichkeiten müssen dafür systematisch dokumentiert und gepflegt sein.

Viktor Adler
Senior Consultant
QUNIS

Kontext ist der Schlüssel zur Wissensintegration 

Neben der semantischen Modellierung gewinnt auch die Integration von Unternehmenswissen stark an Bedeutung. Large Language Models sind sehr leistungsfähig im Umgang mit Sprache. Ohne geeigneten Kontext können sie jedoch keine zuverlässigen Antworten auf unternehmensspezifische Fragen geben. Semantik hilft dabei, Begriffe und Kennzahlen eindeutig zu definieren. Kontext sorgt dafür, dass ein System diese Informationen in den richtigen fachlichen Zusammenhang einordnen kann.

Hier kommen Architekturen wie Retrieval Augmented Generation (RAG) ins Spiel. Sie verbinden Sprachmodelle gezielt mit relevanten Wissensquellen innerhalb eines Unternehmens. Anstatt ausschließlich auf das trainierte Modellwissen zuzugreifen, können AI-Systeme damit auch aktuelle und kuratierte Informationen aus der eigenen Datenlandschaft nutzen.

Typische Bausteine solcher Architekturen sind beispielsweise:

  • Datenkataloge
  • kuratierte Wissensquellen
  • Vector Stores
  • Wissensgraphen
  • Model Context Protocol

In produktiven Umgebungen werden diese Bausteine meist als standardisierte RAG-Architektur umgesetzt. Dabei werden Inhalte zunächst in kleinere Einheiten zerlegt (Chunking), in Vektoren überführt (Embeddings) und über Retrieval-Mechanismen gezielt für eine Anfrage bereitgestellt. Dieses Muster stellt sicher, dass Sprachmodelle auf relevante Informationen zugreifen können, ohne ausschließlich auf ihr Trainingswissen angewiesen zu sein.

Alle oben aufgeführten Komponenten erfüllen unterschiedliche Aufgaben. Während Datenkataloge und Wissensquellen strukturierte Informationen bereitstellen, ermöglichen Vector Stores und Wissensgraphen die kontextbezogene Suche nach relevanten Inhalten. Mechanismen wie das Model Context Protocol sorgen dafür, dass diese Informationen kontrolliert an AI-Modelle übergeben werden können. So arbeiten Sprachmodelle nicht mehr isoliert, sondern werden gezielt mit dem dokumentierten Wissen eines Unternehmens verbunden.

Drei Bereitstellungsmodelle für AI-gestützte Datenplattformen mit Stärken und Grenzen

Wenn AI-Systeme mit Unternehmenswissen verbunden werden sollen, stellt sich in der Praxis schnell die Frage nach der passenden Architektur. Unterschiedliche Organisations- und Betriebsmodelle haben sich dafür etabliert.
In der Praxis lassen sich drei grundlegende Bereitstellungsmodelle beobachten, die jeweils eigene Stärken und Grenzen besitzen. Welche Variante gewählt wird, hängt stark von den Anforderungen an Datensouveränität, Governance, Integrationsfähigkeit und Betriebskompetenz im Unternehmen ab.

1. Managed GenAI mit eigenen Daten

Bei diesem Ansatz werden Sprachmodelle als Managed Services von Cloud-Anbietern genutzt und mit eigenen Datenquellen verbunden. Unternehmen greifen dabei auf vorbetriebene Modelle zu und integrieren ihre Daten über Schnittstellen oder APIs.

Typische Vorteile dieses Ansatzes sind:

  • schneller Einstieg
  • geringe Betriebsverantwortung
  • gut geeignet für erste Prototypen und Proof-of-Concepts

Die Kontrolle über Modelle und Infrastruktur bleibt begrenzt.

2. Retrieval Augmented Generation (RAG)

Bei diesem Ansatz werden Sprachmodelle gezielt mit unternehmensinternen Wissensquellen verbunden. Die Modelle generieren Antworten auf Basis kuratierter Informationen aus Datenplattformen, Dokumentationen oder Wissenssystemen.

Typische Vorteile dieses Ansatzes sind:

  • bessere Nachvollziehbarkeit von Antworten
  • kontrollierte Wissensintegration
  • skalierbare Wissensarchitekturen

RAG entwickelt sich derzeit zu einem zentralen Architekturmodell für AI-gestützte Analytics-Plattformen.

3. Self-Hosted GenAI


Bei diesem Ansatz werden Sprachmodelle vollständig innerhalb der eigenen Infrastruktur betrieben. Unternehmen betreiben Modelle selbst und integrieren sie direkt in ihre Datenplattform.

Typische Vorteile dieses Ansatzes sind:

  • Datensouveränität
  • Kontrolle über Modelle
  • Anpassbarkeit der Systeme

Gleichzeitig steigen jedoch auch die Anforderungen an Betrieb, Orchestrierung und Security erheblich.

Die Plattformarchitektur entscheidet über den Erfolg

Ob AI-Anwendungen langfristig erfolgreich betrieben werden können, hängt weniger von einzelnen Modellen oder Tools ab als von der zugrunde liegenden Plattformarchitektur. Viele Organisationen starten mit ersten Proof-of-Concept-Projekten. In solchen isolierten Umgebungen lassen sich neue AI-Funktionen häufig schnell umsetzen und erste Ergebnisse demonstrieren. Der Schritt vom Prototyp zu einer stabil betriebenen Plattform ist jedoch deutlich anspruchsvoller.

Gerade im Umfeld von Data & Analytics zeigt sich diese Herausforderung besonders deutlich. Während ein Prototyp einzelne Abfragen oder Analysen bereits unterstützen kann, müssen produktive Lösungen dauerhaft in bestehende Datenplattformen integriert werden. Daten, Modelle und Kontextinformationen müssen dabei zuverlässig zusammenarbeiten. Damit solche Systeme stabil betrieben werden können, müssen mehrere technische Komponenten ineinandergreifen. Sie stellen sicher, dass Daten verarbeitet, Modelle ausgeführt und Ergebnisse nachvollziehbar bereitgestellt werden können.

Technisch lassen sich diese Komponenten grob in drei Ebenen einordnen: Speicher- und Datenebene, Modell- und Verarbeitungsebene sowie Serving- und Integrationsschicht. Erst das Zusammenspiel dieser Ebenen ermöglicht es, AI-Funktionen zuverlässig in Daten- und Analyseprozesse einzubetten.

Zu den zentralen Bausteinen einer AI-fähigen Datenplattform gehören insbesondere:

  • Data Stores und Datenplattformen
  • Vector Stores für Embeddings und Kontextsuche
  • Model Stores für Modellverwaltung
  • Pre-Processing und Embedding-Pipelines
  • Inference- und Serving-Layer
  • Orchestrierung und MLOps
  • Monitoring und Qualitätskontrolle
  • Security- und Compliance-Mechanismen

Erst wenn diese Komponenten als integrierte Plattform betrieben werden, lassen sich AI-Funktionen zuverlässig in Daten- und Analyseprozesse integrieren und dauerhaft skalieren.

quote-signs

Will man AI für Analytics effektiv nutzen, ist es von zentraler Bedeutung, das richtige Wissen zum richtigen Zeitpunkt verfügbar zu machen und die passende Plattformarchitektur zu schaffen. 

Viktor Adler
Senior Consultant
QUNIS

Neue Datenarchitekturen fordern neue Rollen

Im Zuge der neuen Anforderungen an  Plattformen und Architekturen, verschieben sich auch Aufgaben, die früher stark technisch geprägt waren, zunehmend in Richtung fachlicher Modellierung und Kontextarbeit. Während auch hier AI-Systeme bestimmte Routineaufgaben automatisieren können, gewinnen andere Kompetenzen deutlich an Bedeutung. Insbesondere Rollen, die fachliches Verständnis mit Datenkompetenz verbinden, werden wichtiger. Dazu gehören beispielsweise:

  • Analytics Engineers
  • Power User in Fachbereichen
  • Domänenverantwortliche für Datenprodukte
Diese Rollen tragen dazu bei, dass fachliche Begriffe, Kennzahlenlogiken und Datenmodelle konsistent weiterentwickelt werden. Gerade bei sprachbasierten Abfragen ist dieses Wissen entscheidend, damit Systeme Fragen korrekt interpretieren und Ergebnisse nachvollziehbar bleiben. Parallel dazu gewinnen auch organisatorische Steuerungsmechanismen an Bedeutung. Viele Unternehmen etablieren deshalb Gremien wie ein Data & AI Council oder vergleichbare Governance-Strukturen, um Verantwortlichkeiten, Standards und Prioritäten für Daten- und AI-Initiativen festzulegen.

Damit moderne Data & AI-Plattformen dauerhaft funktionieren, braucht es zudem ein klares Operating Model. Verantwortlichkeiten für Daten, Modelle, Plattformbetrieb und Governance müssen über Teams hinweg definiert sein. Rollen wie Product Owner für Datenplattformen, Data Engineers, ML Engineers und Domain Experts arbeiten dabei enger zusammen als in klassischen BI-Organisationen.

Die Transformation hin zur neuen Generation der Analyseplattform erfordert proaktives Handeln

Die Einführung von AI verändert Data & Analytics also grundlegend und führt zu einem  Wandel in der Art, wie Datenplattformen aufgebaut und betrieben werden. Sprachbasierte Interaktionen mit Daten stellen nicht nur neue Anforderungen an Semantik, Kontextintegration und Plattformarchitektur. Ebenso müssen Daten, Metadaten und Fachwissen stärker miteinander verbunden werden, damit AI-Systeme Informationen korrekt interpretieren können.

Unternehmen, die ihre Datenplattform entsprechend weiterentwickeln, schaffen die Grundlage für eine neue Generation von Analyseplattformen. Aus klassischen Reporting-Systemen entstehen zunehmend Data & AI-Plattformen, in denen Daten, Modelle und Wissenskontext eng miteinander verknüpft sind.

Damit wird nochmal deutlich: AI in Analytics ist weniger eine einzelne Funktion oder ein neues Tool. Entscheidend ist, ob Datenplattform, Semantik und Organisationsstrukturen so aufgebaut sind, dass Sprache tatsächlich zur Schnittstelle für Daten werden kann. Unternehmen, die diesen Wandel aktiv gestalten, schaffen nicht nur die Grundlage für neue AI-Funktionen, sie heben ihre Analytics-Landschaft in die nächste Generation.

quote-signs

Wenn Daten, Modelle und Fachwissen dauerhaft zusammenwirken, ist der Start in die neue Plattformgeneration gelungen. Wo stehen Sie?

Viktor Adler
Senior Consultant
QUNIS

QUNIS Selbst-Check

Holen Sie sich hier unseren kostenfreien Selbst-Check und bestimmen Sie systematisch, anhand von 43 konkreten Punkten, den aktuellen Reifegrad Ihres Unternehmens rund um Aufbau und Betrieb einer AI-Plattform.
 
Bestimmen Sie
 
  • Ihre aktuelle Position,
  • relevante Handlungsfelder und
  • erhalten Sie einen generellen Überblick über die Voraussetzungen