Kostenfreies Whitepaper
SAP Business Data Cloud
Die SAP Business Data Cloud - Aufbruch in eine neue Ära der Datenintelligenz
Einordnung. Überblick. Perspektive.
Mit der Ankündigung der SAP Business Data Cloud (BDC) unternimmt SAP einen deutlichen Schritt in Richtung moderner, integrierter Datenplattformen. Besonders spannend: die enge Verzahnung mit Databricks, einem der führenden Anbieter im Bereich Data Engineering und Künstlicher Intelligenz.
Doch was steckt konkret dahinter? Und was bedeutet das für Unternehmen, die SAP bereits einsetzen oder gerade dabei sind, ihre Data & Analytics-Strategie neu aufzustellen?
In unserem QUNIS Whitepaper beleuchten wir diese Fragen praxisnah, kritisch und mit einem klaren Fokus auf die Perspektiven für Ihre Datenarchitektur.
Themen, die wir für Sie vertiefen:
- Die Rolle von Databricks in der SAP Business Data Cloud
- Wie Delta Sharing und Unity Catalog neue Wege in der Datenvernetzung schaffen
- Warum Datenprodukte im Zentrum der neuen Plattform stehen
- Welche Chancen sich durch SAP Joule (Generative AI) ergeben
- Welche Auswirkungen die BDC auf SAP BW, Datasphere und SAC-Kunden hat
Wir liefern Impulse, stellen kritische Fragen und zeigen auf, was die BDC für Unternehmen wirklich bedeutet – insbesondere für diejenigen, die heute bereits SAP Data & Analytics-Technologien einsetzen oder dies planen.
Toni Lippmann
Consultant
Data Management, Analytics
Die SAP Business Data Cloud - Ein Meilenstein in der SAP Datenstrategie
Mit der SAP Business Data Cloud (BDC) definiert SAP einen neuen architektonischen Rahmen für unternehmensweite Datenverarbeitung. Ziel ist es, Daten aus unterschiedlichsten Quellen nicht nur zusammenzuführen, sondern sie konsistent, skalierbar und flexibel für vielfältige analytische und operative Szenarien bereitzustellen. SAP positioniert die BDC damit bewusst als zentrale Plattform – nicht nur für Reporting oder Analyse, sondern auch für fortschrittliche Anwendungen wie Machine Learning, Echtzeit-Prozesse und unternehmensweite Datenprodukte.
Besondere Aufmerksamkeit verdient dabei die Integration von Databricks Compute als OEM-Komponente. Dieser Schritt markiert eine Zäsur: SAP setzt nicht auf eine eigene Lösung, sondern holt mit Databricks einen etablierten Spezialisten für Data Engineering und KI direkt in die Plattform. Unternehmen profitieren dadurch von neuen technologischen Möglichkeiten – und von einer Öffnung des SAP Ökosystems in Richtung moderner Cloud-Architekturen.
Aus Sicht von QUNIS stellt die BDC einen bedeutenden Meilenstein dar. Sie schafft die Voraussetzungen, um fragmentierte Datenlandschaften zu konsolidieren, Silostrukturen zu überwinden und datengetriebene Innovationen deutlich schneller umzusetzen. Gleichzeitig zeigt SAP mit der BDC, dass zukünftige Datenarchitekturen nicht mehr monolithisch, sondern offen, modular und kooperationsorientiert gedacht werden müssen – technologisch wie organisatorisch.
Databricks - Integrierte OEM-Komponente und Paradigmenwechsel
Die Partnerschaft zwischen SAP und Databricks ist weit mehr als eine technologische Integration – sie steht sinnbildlich für einen strategischen Kurswechsel. Während SAP in der Vergangenheit häufig auf eigene Plattformentwicklungen setzte, öffnet sich das Unternehmen nun gezielt einem der führenden Anbieter im Bereich Data Engineering und Künstliche Intelligenz. Mit Databricks hält eine neue Denkweise Einzug in die SAP-Welt – geprägt von Offenheit, Kollaboration und technologischer Anschlussfähigkeit.
Für viele Unternehmen ist das ein entscheidendes Signal. Denn die Anforderungen an moderne Datenverarbeitung – gerade im Bereich Machine Learning und Advanced Analytics – lassen sich mit klassischen SAP-Mitteln oft nur eingeschränkt abbilden. Die Einbindung von Databricks als OEM-Komponente innerhalb der BDC schafft hier neue Spielräume. Data Scientists und Data Engineers können künftig auf vertraute Werkzeuge zurückgreifen, während die Integration in SAP-Systeme im Hintergrund nahtlos erfolgt. Skalierbarkeit, Performance und Kostenkontrolle bleiben dabei gewährleistet.
Trotz aller Vorteile sollte man sich bewusst sein, dass es sich um eine Teilintegration handelt. Nicht die vollständige Databricks-Plattform ist Bestandteil der BDC, sondern ein definierter Funktionsumfang. Welche Features konkret verfügbar sein werden und wie flexibel sich die Komponente im Zusammenspiel mit Drittanwendungen – etwa Power BI oder Tableau – verhält, bleibt zunächst offen. Auch die Frage, wie sich externe Speicherlösungen anbinden lassen, ist zum jetzigen Zeitpunkt noch nicht abschließend geklärt.
Positiv ist in jedem Fall die Perspektive für Unternehmen, die bereits mit Databricks arbeiten: Über Delta Sharing wird eine nahtlose Anbindung an die SAP Business Data Cloud möglich sein. Damit wird deutlich: SAP geht nicht nur einen technologischen Schritt, sondern bezieht vorhandene Ökosysteme aktiv mit ein – ein Paradigmenwechsel, der viele Architekturen neu denken lässt.
Der Unity Catalog, zentrale Kontrolle für hybride Datenwelten
Der Unity Catalog als zentrale Metadaten- und Governance-Komponente innerhalb der SAP Databricks-Integration bietet entscheidende Funktionen, um den Überblick über verteilte Datenbestände zu behalten und unternehmensweite Richtlinien durchzusetzen:
- Zentrale Datenkontrolle: Einheitliche Sicht auf alle Metadaten – unabhängig vom Speicherort der Daten.
- Feingranulare Rechtevergabe: Zugriffskontrollen bis auf Spaltenebene – essenziell für Datenschutz und Compliance (z. B. DSGVO).
- Automatisierte Richtliniendurchsetzung: Governance-Regeln lassen sich hinterlegen und systematisch anwenden – für durchgängig valide Datenqualität.
- Integration in Security-Systeme: Anbindung an bestehende Authentifizierungs- und Autorisierungslösungen.
- Revisionssicherheit: Vollständiges Audit-Logging für maximale Transparenz und Nachvollziehbarkeit.
Die Integration des Unity Catalogs in die SAP Business Data Cloud erweitert die Governance-Möglichkeiten deutlich – wie tiefgreifend die Verbindung im Alltag tatsächlich funktioniert, wird die Praxis zeigen. Datasphere und SAC bspw. nutzen die Governance und Metadaten-Catalog- Funktionen von Unity Catalog nicht.
Neuer Storage Layer & Delta Sharing - Architektur mit Zukunft
Mit dem neuen Speicher-Layer nutzt SAP in der Business Data Cloud moderne Konzepte, die sich in der Cloud- und Big-Data-Welt längst etabliert haben. Statt auf klassische Datenbanksysteme zu setzen, kommt ein Object Store auf Basis des SAP HANA Data Lake zum Einsatz. In Verbindung mit dem Delta-Format entstehen so flexible, leistungsfähige Speicherstrukturen, die sich dynamisch an neue Anforderungen anpassen lassen.
Das Delta-Format ermöglicht insbesondere eine Schema-Evolution, bei der sich Datenstrukturen im laufenden Betrieb anpassen lassen – ganz ohne Systemunterbrechung. Das ist ein wesentlicher Fortschritt gegenüber klassischen Warehouse-Ansätzen, bei denen jede Strukturänderung mit erheblichem Aufwand verbunden ist.
Ein weiteres zentrales Element ist Delta Sharing. Die dahinterliegende Idee: Daten müssen nicht mehr physisch kopiert werden, um sie in anderen Systemen oder Organisationseinheiten bereitzustellen. Stattdessen erfolgt der Zugriff direkt, sicher und kontrolliert auf bestehende Daten – ganz im Sinne eines „Zero-Copy“-Ansatzes.
Das bringt gleich mehrere Vorteile:
- Reduzierter Speicherverbrauch und weniger redundante Datenhaltung
- Schnellere Datenbereitstellung über Systemgrenzen hinweg
- Vereinfachte Governance durch zentrale Zugriffssteuerung
Die technische Basis für diesen Ansatz bildet ein offenes, performantes Protokoll, das ursprünglich von delta.io stammt und heute als Industriestandard für moderne Lakehouse-Architekturen gilt. Mit der Integration in die BDC macht SAP deutlich, dass künftige Datenplattformen nicht mehr isoliert, sondern vernetzt, skalierbar und offen gedacht werden müssen.
Datenprodukte - Standardisierung trifft Flexibilität
Datenprodukte stehen im Zentrum der SAP Business Data Cloud – und sind mehr als nur eine technische Komponente. Sie verkörpern den Anspruch, Daten nicht nur zu speichern oder zu analysieren, sondern als konsumierbare, verantwortete und wiederverwendbare Bausteine in die Organisation zu tragen. Die Idee dahinter: Daten werden als Produkte behandelt – mit klarer Zielgruppe, definiertem Inhalt und eindeutiger Verantwortlichkeit.
Jedes Datenprodukt durchläuft standardisierte Entwicklungsphasen – von der Bedarfsanalyse über Design und Bereitstellung bis zur Pflege im Betrieb. Es wird nicht mehr ad hoc auf Datenquellen zugegriffen, sondern bewusst definiert, welche Daten in welcher Form für welche Zwecke angeboten werden sollen.
Typische Merkmale eines Datenprodukts:
- Es enthält strukturierte Daten – z. B. Stamm- und Bewegungsdaten – in einem lesenden Zugriff.
- Es wird von einem Produzenten erstellt und gepflegt, um spezifische Anforderungen von Konsument:innen zu erfüllen.
- Die Nutzung erfolgt im Read-only-Modus, optimiert für analytische Szenarien.
- Die Verantwortung liegt idealerweise bei den domänenverantwortlichen Fachbereichen.
- Technisch wird es über das Open Resource Discovery (ORD)-Protokoll beschrieben – eine von SAP entwickelte und mittlerweile open-source veröffentlichte Spezifikation.
ORD wurde von SAP 2023 open-source gestellt.
Über den zentralen Katalog der Business Data Cloud können diese Datenprodukte beispielsweise aus SAP S/4HANA oder anderen Systemen identifiziert, analysiert und bei Bedarf integriert werden. Die Semantik bleibt dank ORD vollständig erhalten, was die Wiederverwendbarkeit und Konsistenz deutlich erhöht.
Zwar gab es bereits frühere Versuche, standardisierte Datenmodelle bereitzustellen – etwa im BW Business Content oder im Datasphere-Marktplatz – doch oft scheiterten diese an mangelnder Passgenauigkeit für reale Anforderungen. Die Datenprodukte der BDC haben das Potenzial, dieses Versprechen endlich einzulösen – übergreifend, domänenspezifisch und technisch belastbar.
SAP Joule - AI-Innovation in der SAP Business Suite
Mit Joule hat SAP erstmals einen generativen KI-Assistenten in die Breite der eigenen Produktwelt gebracht. Ziel war es, nicht nur punktuelle Automatisierung zu ermöglichen, sondern die Interaktion mit SAP-Systemen grundsätzlich zu verändern – intelligenter, kontextbezogener und vor allem proaktiver.
Joule ist tief in die SAP Business Suite integriert und nutzt die Datenprodukte der SAP Business Data Cloud als vertrauenswürdige Grundlage. Das macht die KI nicht nur technisch leistungsfähig, sondern auch inhaltlich verlässlich. Anwender:innen erhalten damit nicht einfach Antworten auf konkrete Fragen, sondern Empfehlungen, Hinweise oder sogar vorbereitete Inhalte – je nach Situation und Rolle im System.
Ein zentrales Element von Joule ist das sogenannte Joule Studio, eine No-Code-Umgebung innerhalb von SAP Build. Hier lassen sich individuelle KI-Agents entwickeln – ohne Programmierkenntnisse, aber mit klarem Bezug zu konkreten Geschäftsprozessen. Die Idee: Jeder Fachbereich kann seine eigene Form der „intelligenten Assistenz“ definieren und nahtlos in bestehende Abläufe integrieren.
Besonders hervorzuheben ist die proaktive Funktionalität von Joule: Die KI erkennt Muster, interpretiert Situationen und kann aktiv werden – etwa durch Produktempfehlungen, Trendberichte oder Optimierungsvorschläge in Echtzeit. Das hebt SAPs KI-Strategie auf ein neues Niveau: weg von reiner Reaktion, hin zur echten Unterstützung bei operativen und strategischen Entscheidungen.
Ob und wie stark Unternehmen diese Potenziale ausschöpfen können, hängt allerdings maßgeblich von der Qualität und Organisation ihrer Daten ab. Und genau hier zeigt sich erneut die zentrale Rolle der Business Data Cloud: Sie liefert die semantisch saubere, governance-konforme Datenbasis, auf der Joule überhaupt erst sinnvoll arbeiten kann.
Empfehlungen für SAC-, Datasphere- und BW-Kunden
Für Unternehmen, die heute bereits SAP-Lösungen wie die SAP Analytics Cloud (SAC), SAP Datasphere oder SAP BW nutzen, stellt sich mit der Einführung der Business Data Cloud eine zentrale Frage: Welche Auswirkungen hat diese neue Plattform auf bestehende Strategien, Investitionen und Technologien?
Zunächst gilt: Bestehende Tools wie SAC und Datasphere bleiben weiterhin nutzbar – sowohl technisch als auch lizenzrechtlich. Langfristig wird SAP diese beiden Services jedoch unter dem Dach der Business Data Cloud bündeln. Das betrifft nicht nur die Architektur, sondern auch die künftigen Lizenzmodelle. Wer heute eine neue D&A-Strategie plant oder bestehende Systeme modernisieren möchte, sollte die BDC daher frühzeitig in die Überlegungen einbeziehen.
Besonders relevant ist die Entwicklung für Kunden mit einem SAP BW 7.5 on HANA. Viele dieser Organisationen stehen spätestens 2027 vor einem Wartungsende – und damit vor der Entscheidung: Migration nach BW/4HANA, Umstieg auf Datasphere oder Wechsel zu alternativen Architekturen? Die Business Data Cloud bringt hier neue Optionen ins Spiel. SAP bietet die Möglichkeit, bestehende BW-Systeme in die Private Cloud zu überführen und deren Datenmodelle bis 2030 weiter produktiv zu nutzen.
Gleichzeitig entsteht ein neuer technischer Übergangspfad: Mit dem Data Product Generator sollen sich bestehende BW-Modelle in der BDC als Datenprodukte abbilden lassen – inklusive Integration in den Object Store der SAP Datasphere. Damit können diese Daten nicht nur klassisch für Reporting genutzt werden, sondern auch als Input für KI-Modelle, semantische Netze oder agentenbasierte Szenarien dienen.
Weitere Varianten zur Weiternutzung von BW-Modellen umfassen:
- den Einsatz der SAP BW Bridge in Verbindung mit SAP Datasphere,
- sowie die Nutzung des Model Transfer Wizards bei Migration auf SAP BW/4HANA in der Private Cloud Edition.
Unabhängig vom gewählten Pfad zeigt sich: Die SAP Business Data Cloud verändert die Spielregeln – und eröffnet gleichzeitig neue Handlungsspielräume. Wer seine SAP-Datenarchitektur heute strategisch weiterentwickeln will, kommt an der BDC perspektivisch nicht vorbei.
Unser Fazit - Architekturwandel mit strategischer Tragweite
Mit der Business Data Cloud vollzieht SAP einen grundlegenden Wandel im eigenen Plattformverständnis. Statt wie bisher auf fragmentierte Komponenten zu setzen, entsteht nun ein integriertes Datenökosystem, das zentrale Elemente moderner Datenarchitekturen miteinander verbindet: ein skalierbarer Object Store, ein semantisch angereicherter Metastore, native Unterstützung für offene Formate wie Delta Lake, die Integration führender Third-Party-Technologien wie Databricks – und nicht zuletzt die durchgängige Nutzung von Datenprodukten als standardisierte Zugriffseinheit.
Dieser neue Ansatz reagiert auf reale Herausforderungen vieler Unternehmen. Denn fragmentierte Datenlandschaften, gewachsene Architekturen und unklare Governance-Strukturen erschweren zunehmend den Aufbau vertrauenswürdiger, nutzbarer Datenbestände. Gleichzeitig steigen die Anforderungen – durch Business-Anwender:innen, durch Regulatorik, durch KI-Projekte. Die BDC verspricht hier mehr Konsistenz, mehr Wiederverwendbarkeit und eine höhere Wandlungsfähigkeit.
Besonders bemerkenswert: SAP verfolgt mit der BDC das Prinzip „Die Werkzeuge kommen zu den Daten – nicht umgekehrt.“ Statt Daten in externe Plattformen zu verschieben, integriert SAP-Technologien wie Databricks direkt in die eigene Plattformlogik. Für Unternehmen bedeutet das: geringere Latenz, weniger Kopplungsverluste – und mehr Kontrolle über Qualität und Zugriff.
Ob die Business Data Cloud alle Erwartungen erfüllen wird, lässt sich zum jetzigen Zeitpunkt noch nicht abschließend beurteilen. Der erste Eindruck ist vielversprechend, und mit der angekündigten globalen Verfügbarkeit ab April 2025 zeichnet sich eine konkrete Perspektive ab. Klar ist schon jetzt: Unternehmen, die sich aktuell mit SAP Analytics, SAP BW oder hybriden Plattformstrategien beschäftigen, sollten die BDC aktiv mitdenken – als mögliche Zielarchitektur oder sinnvolle Ergänzung.
SAP hat einen mutigen Schritt getan. Jetzt kommt es darauf an, wie konsequent dieser neue Ansatz in die Breite getragen – und wie schnell er in realen Szenarien zum echten Mehrwert wird.
Fragen, die Sie sich jetzt stellen sollten
- Welche Rolle wird die Business Data Cloud künftig in unserer SAP-Datenarchitektur spielen?
- Wie integrieren wir bestehende Databricks-Umgebungen oder BW-Modelle sinnvoll in die BDC?
- Welche Use Cases eignen sich als erste Schritte in Richtung Datenprodukte und KI-Szenarien?
- Was bedeutet die BDC für unsere bestehende SAC- oder Datasphere-Strategie?
Die Antworten auf diese Fragen hängen stark von Ihrer aktuellen Systemlandschaft, Ihren strategischen Zielen und dem gewünschten Innovationsgrad ab. Wir helfen Ihnen gern dabei, die Business Data Cloud richtig einzuordnen – und gemeinsam einen Weg zu entwickeln, der zu Ihrer Organisation passt.
Unser Angebot: Sprechen Sie uns an – wir freuen uns darauf, Ihre Anforderungen mit Ihnen zu diskutieren und passende Lösungen für Sie zu finden.
Bereit wenn Sie es sind
Kontaktieren Sie uns für eine individuelle Beratung und weiterführende Informationen.
Schreiben Sie uns an: team@qunis.de