- AI, SAP Business Data Cloud (BDC)
- SAP Business AI
- 4 Min Lesezeit

Maximilian Hahn
Dieses Wiki befasst sich mit der Verknüpfung von Artificial Intelligence (AI) und Business Intelligence (BI) für modernes Reporting im Databricks Lakehouse. Es wird erläutert, wie diese Kombination Unternehmen dabei unterstützen kann, ihre Daten effizienter zu nutzen und fundiertere Entscheidungen zu treffen.
Inhaltsverzeichnis
- 1. AI & BI mit Databricks: Der umfassende Guide
- 2. Die Grundlage: Was ist die Databricks Lakehouse Plattform?
- 3. Business Intelligence (BI) mit Databricks: Mehr als nur Dashboards
- 4. Künstliche Intelligenz (AI) mit Databricks: Vom Modell zur Wertschöpfung
- 5. Der Schlüssel: Kontext für die AI-Engine
- 6. Das Beste aus beiden Welten:Die Synergie von SAP und Databricks
- 7. Fazit: Warum Databricks die Zukunft für AI und BI ist
1. AI & BI mit Databricks: Der umfassende Guide
In der traditionellen IT-Welt existieren oft zwei getrennte Universen: Die Business Intelligence (BI), die sich mit der Analyse historischer Daten befasst, und die Künstliche Intelligenz (AI), die zukünftige Szenarien vorhersagt. Diese Trennung führt häufig zu inkonsistenten Datenquellen und hohen Betriebskosten. AI & BI mit Databricks bricht diese Mauern auf und führt beide Disziplinen auf einer einzigen, hochperformanten Plattform zusammen.
2. Die Grundlage: Was ist die Databricks Lakehouse Plattform?
Das Herzstück dieser Revolution ist das Lakehouse-Konzept. Es kombiniert die strengen Strukturen und die Performance eines klassischen Data Warehouse mit der Flexibilität und Skalierbarkeit eines Data Lakes.
Dank der Schicht Delta Lake profitieren Unternehmen von ACID-Transaktionen und einer hohen Datenzuverlässigkeit. Der Unity Catalog fungiert dabei als zentrale Schaltstelle für die Governance. Er stellt sicher, dass sowohl Analysten als auch Data Scientists auf dieselbe „Single Source of Truth“ zugreifen, was die Zusammenarbeit vereinfacht und Sicherheitsrisiken minimiert.
3. Business Intelligence (BI) mit Databricks: Mehr als nur Dashboards
BI auf Databricks geht über einfache Visualisierungen hinaus. Durch die Einführung von Databricks SQL können Analysten grosse Datenmengen mit der gewohnten SQL-Sprache abfragen.
- Performance durch Photon & Spark: Während Apache Spark das bewährte Framework für die verteilte Datenverarbeitung ist, ist Photon die nächste Evolutionsstufe. Photon ist eine in C++ geschriebene, native Vectorized Execution Engine, die speziell für moderne Hardware optimiert wurde. Sie arbeitet Hand in Hand mit Spark: Spark übernimmt die Koordination und Verteilung der Aufgaben, während Photon die tatsächliche Rechenarbeit (Queries) mit extrem hoher Geschwindigkeit erledigt.
- Offene Plattform & Konnektivität: Databricks setzt auf volle Interoperabilität durch offene Standards (Delta Sharing, ODBC/JDBC). Die Plattform integriert sich nahtlos in bestehende IT-Landschaften, sodass Tools wie Power BI, Tableau oder die SAP Analytics Cloud (SAC) direkt angebunden werden können.
- Echtzeit-Einblicke: Durch die Integration von Streaming-Daten verarbeiten Sie Informationen nicht mehr zeitverzögert in Batches, sondern genau dann, wenn sie entstehen.
4. Künstliche Intelligenz (AI) mit Databricks: Vom Modell zur Wertschöpfung
Während BI erklärt, was passiert ist, hilft Künstliche Intelligenz auf Databricks dabei, zu verstehen, was passieren wird.
- Interaktive Entwicklung: Data Scientists arbeiten in kollaborativen Notebooks und nutzen Sprachen wie Python, R oder SQL direkt an der Datenquelle.
- Effizienz durch Automatisierung: Tools wie AutoML beschleunigen die Modellerstellung, während MLflow das Tracking und Deployment der Modelle übernimmt.
- Generative AI & LLMs: Databricks ermöglicht es zudem, moderne Large Language Models (LLMs) sicher auf eigenen Unternehmensdaten zu trainieren.
- Demokratisierung durch Natural Language: Dank integrierter KI-Assistenten benötigen Anwender keine Programmierkenntnisse mehr. Ein einfacher Befehl in natürlicher Sprache („Prompt“) genügt, damit die Plattform beispielsweise automatisch passenden Code oder KPI-Visualisierungen erstellt.
Databricks User-Interface zur Befehlseingabe in natürlicher Sprache
KI-Ausgabe basierend auf Befehlseingabe und vorhandenem Kontext
Visualisierung des KPIs “Gesamtverkaufsmenge nach Produkttyp”
5. Der Schlüssel: Kontext für die AI-Engine
Ein LLM allein ist zwar „intelligent“, besitzt aber kein Wissen über Ihre internen Abläufe. Damit die KI keine generischen, sondern präzise und geschäftsrelevante Antworten liefert, muss ein gezielter Kontext geschaffen werden. In Databricks wird dieser Kontext durch die Anreicherung des LLM mit folgenden Informationen definiert:
- Metadaten: Strukturinformationen Ihrer Tabellen (z. B. aus SAP), die der KI helfen, Datenfelder korrekt zu interpretieren.
- Branchenstandards: Fachspezifisches Wissen, wie etwa der ISA-95 Standard für die Produktion, um Kennzahlen regelkonform zu berechnen. Diese können in Databricks direkt als “Instructions” hinterlegt werden.
“Instructions” als Vorgaben für KI in Databricks
- Geschäftsziele: Integration von individuellen Vorgaben, wie beispielsweise Plandaten, um Abweichungsanalysen und Prognosen zu ermöglichen.
Durch diese Kombination versteht die KI nicht nur die Datenstruktur, sondern auch die dahinterliegende Geschäftslogik.
6. Das Beste aus beiden Welten:
Die Synergie von SAP und Databricks
Die wahre Stärke liegt in der nahtlosen Integration von SAP-Landschaften. Wir helfen Ihnen dabei, die oft isolierten SAP-Daten vollumfänglich zu nutzen.
Ein konkretes Praxisbeispiel: Ein Industrieunternehmen nutzt BI auf Databricks, um Verkaufszahlen aus SAP S/4HANA tagesaktuell zu überwachen. Gleichzeitig nutzt das AI-Team dieselben bereinigten Daten, um eine Nachfrageprognose (AI) zu erstellen. Diese Prognose wird wiederum zurück in das SAP-System oder ein Dashboard gespielt, um die Lagerplanung proaktiv zu steuern.
Erfahren Sie hier mehr über die Details zu SAP Databricks vs. Native Databricks oder die technologischen Grundlagen von Databricks und der SAP BDC.
7. Fazit: Warum Databricks die Zukunft für AI und BI ist
Die Entscheidung für Databricks ist eine strategische Investition. Sie reduziert die architektonische Komplexität und beschleunigt den Weg von der Rohinformation zur Entscheidung. Insbesondere für SAP-Anwender bietet dieser Weg die Chance, historische Prozessstabilität mit moderner Innovationskraft zu verbinden.
Sie möchten das Potenzial von AI und BI auch für Ihre SAP-Daten nutzen? Unsere Databricks-Experten beraten Sie gerne in einem unverbindlichen Gespräch. 👉 Jetzt Kontakt aufnehmen
Download-Tipp: E-Book: Databricks Guide für SAP-Kunden
Sie wollen mehr über AI Units & Co. wissen und erfahren, wie Sie Ihr KI-Projekt erfolgreich starten?
Dann buchen Sie hier einen Termin mit unserem SAP AI-Experten Robert Kehrli.
Published by:

Maximilian Hahn

Maximilian Hahn
Wie hat Ihnen der Artikel gefallen?
Wie hilfreich war dieser Beitrag?
Klicken Sie auf einen Stern, um zu bewerten!
Durchschnittliche Bewertung 5 / 5.
Anzahl Bewertungen: 5
Bislang keine Stimmen! Seien Sie die erste Person, die diesen Beitrag bewertet!








