Home Data Warehousing SAP Datasphere Intelligent Lookup

SAP Datasphere Intelligent Lookup

Titelbild DWC Intelligent Lookup

Definition SAP Datasphere Intelligent Lookup

Beim Aufbau komplexer Datenmodelle in der SAP Datasphere werden häufig Daten aus unterschiedlichen Quellen wie beispielsweise dem Data Marketplace herangezogen.

Der nächste Schritt zur Harmonisierung dieser Daten verläuft dank der Intelligent Lookup Funktion grösstenteils automatisiert: Anstelle formeller Anpassungen kann vonseiten der Nutzer festgelegt werden, inwieweit in den Prozess zur Datenintegration manuell eingegriffen werden soll. Hierdurch sind Anwender auch ohne technische Vorkenntnisse in der Lage, umfassende Schritte zur Erweiterung eines bestehenden Datenmodells selbständig durchzuführen und zu verifizieren.

Fallbeispiel Covid-19 und Rohstoffpreise 

In unserem anderen Wiki-Artikel zum Thema Data Marketplace wird anhand von Daten zu Rohstoffpreisen und weltweiten Covid-19 Fallzahlen bereits der Datenimport demonstriert. 

Wie wende ich den SAP Datasphere Intelligent Lookup an?

Dieses Beispiel wird nun um den Schritt der Datenaufbereitung und -Visualisierung ergänzt. Die Gegenüberstellung zweier importierter Tabellen erfordert die Angleichung der jeweiligen Zeitpunkte von Rohstoffpreisen und Covid-19 Fallzahlen. Bei gleicher Schreibweise der entsprechenden Datumsfelder könnte hierbei ein Inner Join Abhilfe leisten. Im vorliegenden Fall wäre dies jedoch ohne vorherige Anpassung nicht möglich, da sich die Datumsschreibweise der Tabellen erheblich unterscheidet: 

Unterschiedliche Datumsschreibweise für Rohstoffpreise und Covid-19 Fallzahl
Bild 1: Unterschiedliche Datumsschreibweise für Rohstoffpreise und Covid-19 Fallzahl

Die Intelligent Lookup Funktion der Datasphere ermöglicht für diesen Fall eine einfache Lösung. Mithilfe des „Fuzzy Match“ können Nutzer selbständig den Score definieren, welcher als Übereinstimmung gewertet werden soll. Anstelle der manuellen Anpassung eines der beiden Datumsfelder, können hiermit die übereinstimmenden Werte auf direktem Weg extrahiert werden. 

Ergebnis des Intelligent Lookup: Die Datenquellen haben 24 übereinstimmende Einträge
Bild 2: Ergebnis des Intelligent Lookup: Die Datenquellen haben 24 übereinstimmende Einträge

Im vorliegenden Beispiel werden 24 Einträge als Übereinstimmung gekennzeichnet (siehe Bild 2). Hierbei handelt es sich um die 24 Monate zwischen Januar 2020 und Dezember 2021, da nur in diesem Zeitraum signifikante Covid-19 Fallzahlen verzeichnet wurden. Dieses Resultat kann für die Visualisierung in der SAP Analytics Cloud verwendet werden, sobald es als Analytical Dataset in der SAP Datasphere gespeichert ist. 

Datenvisualisierung mithilfe der SAP Analytics Cloud  

Um die Vielzahl an verschiedenen Rohstoffpreisen mit der weltweiten Covid-19 Fallzahl monatlich abzubilden, eignet sich ein Balkendiagramm, welches die einzelnen Rohstoffe akkumuliert. Anwendergruppen können auf dieser Basis selbständig entscheiden, ob sie bestimmte Rohstoffe innerhalb des gegebenen Zeitraums detaillierter untersuchen wollen. Gerade vor dem Hintergrund des viel beachteten allgemein Preisanstiegs durch die Corona-Infektion, lässt sich anhand dieser Grafik aufzeigen, dass eine erhebliche Anzahl von Rohstoffen nicht davon betroffen ist. Zu beobachten ist ausserdem ein nachgelagerter Anstieg der Rohstoffpreise, insbesondere in den Monaten nach besonders hohen weltweit verzeichneten Fallzahlen. Weitere Interpretationen würden eine statistische Analyse erfordern, dennoch gibt diese Grafik erste Anhaltspunkte für einen möglichen Effekt. 

Grafik zum Vergleich der Covid-19 Fälle (rot) mit den Rohstoffpreisen (Balkendiagramme)

Fazit: Wie und wo hilft mit die SAP Datasphere Intelligent Lookup Funktion weiter?

Dank der Intelligent Lookup Funktion hält sich der technische Aufwand zur Datenintegration in Grenzen, wodurch diese Arbeitsschritte für eine breite Gruppe an Nutzern zur Verfügung stehen. Im bestehenden Beispiel wurde anhand zweier Datenquellen aus dem Data Marketplace diese Funktion erfolgreich angewendet. Nach einem ähnlichen Ansatz kann auch bei der Kombination eines internen Datenmodells mit einer externen Datenquelle vorgegangen werden. Mit der Funktion des Intelligent Lookup wird das Arbeitsumfeld der SAP Datasphere noch agiler, wodurch sich Anforderungen an ein Datenmodell noch individueller ausgestalten lassen. 

Mehr zum Thema Intelligent Lookup & SAP Datasphere erfahren?

Weitere Informationen zum Pricing der SAP Datasphere finden sich auf der Datasphere Pricing Seite der SAP oder bei einem persönlichen Gespräch mit uns.

Mein Team und ich freuen uns auf Ihre Kontaktaufnahme.

Ihre Ansprechpartnerin für Data Warehousing
Christiane Maria Kallfass ist Recruiting- und Marketing Specialist bei der s-peers AG
Christiane Grimm
Inside Sales

Published by:

Lukas Weixler

autor:IN

Wie hat Ihnen der Artikel gefallen?

Wie hilfreich war dieser Beitrag?

Klicken Sie auf einen Stern, um zu bewerten!

Durchschnittliche Bewertung 5 / 5.
Anzahl Bewertungen: 4

Bislang keine Stimmen! Seien Sie die erste Person, die diesen Beitrag bewertet!

INFORMATIONEN

Weitere Informationen

Was ist SAP S/4HANA?

SAP S/4HANA ist mehr als ein technisches Upgrade – es ist eine grundlegende Systemtransformation. In diesem Artikel erfahren Sie,...

AI meets BI: Modernes Reporting im Databricks Lakehouse

In der traditionellen IT-Welt existieren oft zwei getrennte Universen: Die Business Intelligence (BI), die sich mit der Analyse historischer...
Symbolbild für Datenformate in Databricks. Ein Icon stellt den schichtweisen Aufbau von Parquet-Dateien mit einer darüberliegenden Delta-Lake-Schicht dar.

Datenformate in Databricks: Ein Leitfaden zu Parquet, Delta Lake und Alternativen

Die Auswahl des richtigen Datenformats ist ein kritischer, aber oft unterschätzter Faktor für die Performance und Effizienz in Databricks....
wiki_überblick intergrationsmethoden_SAp nach Databricks-

SAP-Daten nach Databricks: Ein Vergleich der 5 Integrationsmethoden

Wie funktioniert das in der Datasharing mit SAP und Databricks? Die strategische Partnerschaft zwischen SAP und Databricks ermöglicht eine...
Wiki SAP Databricks

Zero Copy Delta Share bei Databricks: Daten teilen, ohne sie zu kopieren – das Zero-Copy-Prinzip einfach erklärt

Wie funktioniert das in der Datasharing mit SAP und Databricks? Die strategische Partnerschaft zwischen SAP und Databricks ermöglicht eine...
9.1 Unterschiede zwischen SAP Databricks und native Databricks

SAP Databricks vs. Native Databricks: Der detaillierte Vergleich für Ihr Unternehmen

SAP Databricks oder Native Databricks? Eine strategische Entscheidung, vor der viele Unternehmen stehen. Während SAP Databricks als spezialisierte Lösung...
20251127_Feature Update

SAC Live Connect zu Snowflake – Schritt für Schritt erklärt

Wie funktioniert SAC Live Connect zu Snowflake? In diesem Leitfaden zeigen wir Ihnen Schritt für Schritt, wie Sie eine...