Databricks-Integration
Databricks ist eine einheitliche Daten- und KI-Plattform, die auf der Lakehouse-Architektur aufbaut. Durch die Verbindung von WISEPIM mit Databricks können Sie Ihre angereicherten Produktdaten direkt in Unity Catalog und Delta Lake-Tabellen exportieren und so erweiterte Analysen, Machine-Learning-Workflows und Enterprise-Grade-Data-Governance über Ihren gesamten Produktkatalog ermöglichen.Die Databricks-Integration ist ausschließlich im Enterprise-Plan verfügbar. Kontaktieren Sie unser Vertriebsteam, um mehr über Enterprise-Funktionen und Preise zu erfahren.
Voraussetzungen
Bevor Sie beginnen, stellen Sie sicher, dass Sie Folgendes bereithalten:- Ein WISEPIM-Konto im Enterprise-Plan
- Einen Databricks-Workspace mit aktiviertem Unity Catalog
- Entsprechende Berechtigungen zum Erstellen von Schemas und Tabellen in Ihrem Databricks-Katalog
- Ihren Databricks Server Hostname, HTTP Path und eine Authentifizierungsmethode (Personal Access Token oder OAuth-Zugangsdaten)
Databricks-Verbindungsdetails abrufen
Sie benötigen mehrere Informationen aus Ihrem Databricks-Workspace, um die Verbindung herzustellen.Melden Sie sich in Ihrem Databricks-Workspace an
Gehen Sie zur URL Ihres Databricks-Workspace und melden Sie sich mit Ihren Zugangsdaten an.
Server Hostname und HTTP Path ermitteln
Navigieren Sie zu SQL Warehouses (oder Compute für Cluster):
- Wählen Sie das SQL Warehouse oder den Cluster aus, mit dem sich WISEPIM verbinden soll
- Klicken Sie auf Connection Details
- Kopieren Sie den Server Hostname (z. B.
adb-1234567890.1.azuredatabricks.net) - Kopieren Sie den HTTP Path (z. B.
/sql/1.0/warehouses/abc123def456)
Authentifizierung einrichten
Sie können sich mit einer von zwei Methoden authentifizieren:Option A: Personal Access Token
- Klicken Sie auf Ihren Benutzernamen in der oberen rechten Ecke des Databricks-Workspace
- Gehen Sie zu Settings, dann Developer, dann Access Tokens
- Klicken Sie auf Generate New Token, geben Sie eine Beschreibung ein (z. B. „WISEPIM Integration“) und legen Sie ein Ablaufdatum fest
- Kopieren Sie das generierte Token sofort — es wird nicht erneut angezeigt
- Erstellen Sie in Ihrer Databricks-Kontokonsole einen Service Principal
- Generieren Sie eine Client ID und ein Client Secret für den Service Principal
- Gewähren Sie dem Service Principal Zugriff auf den Workspace und den Zielkatalog
Ziel-Catalog und Schema identifizieren
Gehen Sie im Databricks-Workspace in der Seitenleiste zu Data, um den Unity Catalog zu durchsuchen:
- Wählen oder erstellen Sie den Catalog, in dem die WISEPIM-Produktdaten gespeichert werden sollen
- Wählen oder erstellen Sie das Schema (Datenbank) innerhalb dieses Catalogs
- Notieren Sie sich die Catalog- und Schema-Namen
Databricks mit WISEPIM verbinden
Sobald Sie Ihre Verbindungsdetails zusammengetragen haben, konfigurieren Sie die Integration in WISEPIM.Integrationsseite öffnen
Melden Sie sich bei Ihrem WISEPIM-Konto an und navigieren Sie über die Hauptseitenleiste zur Seite Integrationen.
Databricks auswählen
Suchen Sie die Kachel Databricks im App Marketplace und klicken Sie darauf, um das Konfigurationsfenster zu öffnen.
Verbindungsdetails eingeben
Füllen Sie die folgenden Felder aus:Verbindungseinstellungen
- Server Hostname: Der Hostname Ihres Databricks-Workspace
- HTTP Path: Der Pfad zu Ihrem SQL Warehouse oder Cluster
- Access Token: Ihr Databricks Personal Access Token
- Oder Client ID und Client Secret: Ihre OAuth-Service-Principal-Zugangsdaten
- Catalog: Der Name des Unity Catalog (z. B.
wisepim_data) - Schema: Der Schema-/Datenbankname innerhalb des Catalogs (z. B.
product_catalog)
Quelltabellen konfigurieren (optional)
Wenn Sie Daten aus Databricks in WISEPIM importieren, können Sie Quelltabellennamen angeben:
- Attributes Source Table: Die Tabelle mit den Attributdefinitionen
- Attribute Options Source Table: Die Tabelle mit den Attributoptionswerten
- Products Source Table: Die Tabelle mit den Produktdaten
- Batch Size: Die Anzahl der Zeilen, die pro Batch verarbeitet werden (Standard: 1000)
Verbindung testen
Klicken Sie auf Verbindung testen, um zu überprüfen, ob WISEPIM Ihren Databricks-Workspace erreichen und auf den angegebenen Catalog und das Schema zugreifen kann.
Datenpipeline einrichten
Die Databricks-Integration unterstützt bidirektionalen Datenfluss zwischen WISEPIM und Ihrem Data Lakehouse.Produktdaten nach Databricks exportieren
Sie können Ihre angereicherten Produktdaten von WISEPIM nach Databricks für Analysen und ML-Anwendungsfälle übertragen:- Gehen Sie zur Seite Produkte in WISEPIM
- Wählen Sie die Produkte aus, die Sie exportieren möchten (oder wählen Sie alle aus)
- Klicken Sie auf Exportieren und wählen Sie Databricks als Ziel
- WISEPIM schreibt die Daten in Delta Lake-Tabellen in Ihrem angegebenen Catalog und Schema
- Produktkennungen (IDs, SKUs, EAN/GTIN)
- Produktnamen und Beschreibungen (alle Sprachen)
- Preise und Lagerinformationen
- Kategoriehierarchien
- Produktattribute und benutzerdefinierte Felder
- Bild-URLs und Metadaten
- Übersetzungsstatus und Qualitätsbewertungen
Produktdaten aus Databricks importieren
Wenn Ihre Produktdaten in Databricks gespeichert sind (z. B. aus vorgelagerten Datenpipelines), können Sie diese in WISEPIM importieren:- Konfigurieren Sie die Quelltabellennamen in Ihren Integrationseinstellungen
- Klicken Sie auf der Produktseite auf Importieren und wählen Sie Databricks als Quelle
- WISEPIM liest aus Ihren angegebenen Tabellen und ordnet die Daten Ihren Projektattributen zu
Beim Import aus Databricks sollten Ihre Quelltabellen einem konsistenten Schema folgen. WISEPIM versucht, Spalten automatisch den Produktattributen zuzuordnen. Sie können die Zuordnung jedoch über den Attribut-Mapper anpassen.
Analyse-Anwendungsfälle
Sobald Ihre Produktdaten in Databricks sind, können Sie diese für verschiedene Analyse- und Data-Science-Workflows nutzen:Produktleistungs-Analysen
- Erstellen Sie Dashboards, um die Produktleistung über Kanäle und Märkte hinweg zu verfolgen
- Analysieren Sie, welche Produktattribute mit höheren Konversionsraten korrelieren
- Vergleichen Sie die Leistung über verschiedene Sprachen und Regionen hinweg
Machine-Learning-Pipelines
- Trainieren Sie Produktempfehlungsmodelle mit angereicherten Produktdaten
- Erstellen Sie Nachfrageprognosemodelle mit historischen Produkt- und Preisdaten
- Entwickeln Sie Preisoptimierungsalgorithmen basierend auf Marktdaten
- Nutzen Sie die Produkt-Embeddings von WISEPIM für Ähnlichkeitssuche und Clustering
Data Governance
- Verfolgen Sie die Datenherkunft von der Quelle über die Anreicherung bis zum Export mit Unity Catalog
- Richten Sie Zugriffskontrollen ein, um zu verwalten, wer Produktdaten lesen und ändern darf
- Überwachen Sie alle Datenänderungen mit dem Transaktionsprotokoll von Delta Lake
Batch-Verarbeitungskonfiguration
Für große Produktkataloge können Sie die Batch-Größe konfigurieren, um die Leistung zu optimieren:- Kleine Kataloge (unter 10.000 Produkte): Die Standard-Batch-Größe von 1.000 funktioniert gut
- Mittlere Kataloge (10.000 – 100.000 Produkte): Erwägen Sie eine Erhöhung auf 5.000 pro Batch
- Große Kataloge (100.000+ Produkte): Verwenden Sie 10.000 pro Batch und überwachen Sie die Ressourcennutzung
Fehlerbehebung
Wenn Probleme mit Ihrer Databricks-Integration auftreten, versuchen Sie Folgendes:Verbindungsfehler
- Überprüfen Sie, ob der Server Hostname korrekt ist und die vollständige Domain enthält (z. B.
adb-1234567890.1.azuredatabricks.net) - Prüfen Sie, ob der HTTP Path auf ein aktives SQL Warehouse oder einen aktiven Cluster verweist
- Stellen Sie sicher, dass Ihr SQL Warehouse oder Cluster läuft (nicht im gestoppten/beendeten Zustand)
- Falls Sie ein Personal Access Token verwenden, überprüfen Sie, ob es nicht abgelaufen ist
- Falls Sie OAuth verwenden, bestätigen Sie, dass der Service Principal Zugriff auf Workspace-Ebene hat
Authentifizierungsprobleme
- Generieren Sie Ihr Access Token neu, wenn Sie vermuten, dass es kompromittiert oder abgelaufen ist
- Überprüfen Sie bei OAuth, ob Client ID und Client Secret korrekt sind
- Stellen Sie sicher, dass der authentifizierte Benutzer oder Service Principal die Berechtigungen
USE CATALOGundUSE SCHEMAfür den Ziel-Catalog und das Ziel-Schema hat
Datenexportprobleme
- Bestätigen Sie, dass der authentifizierte Benutzer die Berechtigungen
CREATE TABLEundMODIFYfür das Ziel-Schema hat - Prüfen Sie, ob die Catalog- und Schema-Namen korrekt geschrieben sind und im Unity Catalog existieren
- Falls Exporte langsam sind, versuchen Sie die Batch-Größe zu reduzieren oder ein größeres SQL Warehouse zu verwenden
- Überprüfen Sie das WISEPIM-Fehlerprotokoll auf spezifische Fehlermeldungen der Databricks-API
Datenimportprobleme
- Überprüfen Sie, ob die Quelltabellennamen korrekt sind und die Tabellen existieren
- Bestätigen Sie, dass der authentifizierte Benutzer die Berechtigung
SELECTfür die Quelltabellen hat - Prüfen Sie, ob die Schemas der Quelltabellen mit dem erwarteten Format von WISEPIM kompatibel sind
- Falls Importe eine Zeitüberschreitung verursachen, versuchen Sie die Batch-Größe zu reduzieren
Nächste Schritte
Sobald Ihre Databricks-Integration eingerichtet ist, können Sie:- Produkte importieren aus Ihren Databricks-Tabellen
- Produkte anreichern mit KI-gestützter Inhaltsoptimierung
- Produkte exportieren in Delta Lake-Tabellen für Analysen
- Dashboards und ML-Modelle mit Ihren angereicherten Produktdaten in Databricks erstellen
- Geplante Exporte für kontinuierliche Datensynchronisierung einrichten

