Databricks-integratie
Databricks is een geünificeerd data- en AI-platform gebouwd op de lakehouse-architectuur. Door WISEPIM te koppelen aan Databricks kun je je verrijkte productdata rechtstreeks exporteren naar Unity Catalog en Delta Lake-tabellen, waardoor geavanceerde analytics, machine learning-workflows en enterprise-grade datagovernance over je gehele productcatalogus mogelijk worden.De Databricks-integratie is exclusief beschikbaar op het Enterprise-plan. Neem contact op met ons salesteam voor meer informatie over Enterprise-functies en prijzen.
Vereisten
Zorg ervoor dat je het volgende hebt voordat je begint:- Een WISEPIM-account op het Enterprise-plan
- Een Databricks-workspace met Unity Catalog ingeschakeld
- De juiste machtigingen om schema’s en tabellen aan te maken in je Databricks-catalogus
- Je Databricks Server Hostname, HTTP Path en een authenticatiemethode (Personal Access Token of OAuth-referenties)
Je Databricks-verbindingsgegevens ophalen
Je hebt verschillende gegevens nodig van je Databricks-workspace om de verbinding tot stand te brengen.Log in op je Databricks-workspace
Ga naar de URL van je Databricks-workspace en log in met je referenties.
Zoek je Server Hostname en HTTP Path
Navigeer naar SQL Warehouses (of Compute voor clusters):
- Selecteer het SQL-warehouse of cluster waarmee WISEPIM verbinding moet maken
- Klik op Connection Details
- Kopieer de Server Hostname (bijv.
adb-1234567890.1.azuredatabricks.net) - Kopieer het HTTP Path (bijv.
/sql/1.0/warehouses/abc123def456)
Authenticatie instellen
Je kunt authenticeren met een van twee methoden:Optie A: Personal Access Token
- Klik op je gebruikersnaam in de rechterbovenhoek van de Databricks-workspace
- Ga naar Settings, dan Developer, dan Access Tokens
- Klik op Generate New Token, geef een beschrijving op (bijv. “WISEPIM-integratie”) en stel een vervaldatum in
- Kopieer het gegenereerde token direct — het wordt niet opnieuw getoond
- Maak in je Databricks-accountconsole een Service Principal aan
- Genereer een Client ID en Client Secret voor de service principal
- Verleen de service principal toegang tot de workspace en de doelcatalogus
Identificeer je doelcatalogus en -schema
Ga in de Databricks-workspace naar Data in de zijbalk om Unity Catalog te bekijken:
- Selecteer of maak de Catalog aan waar WISEPIM-productdata wordt opgeslagen
- Selecteer of maak het Schema (database) aan binnen die catalogus
- Noteer de catalogus- en schemanamen
Databricks koppelen aan WISEPIM
Zodra je je verbindingsgegevens hebt verzameld, configureer je de integratie in WISEPIM.Open de pagina Integraties
Log in op je WISEPIM-account en navigeer naar de pagina Integraties via de hoofdzijbalk.
Selecteer Databricks
Zoek de tegel Databricks in de App Marketplace en klik erop om het configuratievenster te openen.
Voer je verbindingsgegevens in
Vul de volgende velden in:Verbindingsinstellingen
- Server Hostname: De hostname van je Databricks-workspace
- HTTP Path: Het pad naar je SQL-warehouse of cluster
- Access Token: Je Databricks Personal Access Token
- Of Client ID en Client Secret: Je OAuth service principal-referenties
- Catalog: De Unity Catalog-naam (bijv.
wisepim_data) - Schema: De schema-/databasenaam binnen de catalogus (bijv.
product_catalog)
Brontabellen configureren (optioneel)
Als je data importeert vanuit Databricks naar WISEPIM, kun je brontabelnamen opgeven:
- Attributes Source Table: De tabel met attribuutdefinities
- Attribute Options Source Table: De tabel met attribuutoptiewaarden
- Products Source Table: De tabel met productdata
- Batch Size: Het aantal rijen dat per batch wordt verwerkt (standaard: 1000)
Test de verbinding
Klik op Verbinding testen om te verifiëren dat WISEPIM je Databricks-workspace kan bereiken en toegang heeft tot de opgegeven catalogus en het schema.
Data Pipeline-configuratie
De Databricks-integratie ondersteunt bidirectionele datastroom tussen WISEPIM en je data lakehouse.Productdata exporteren naar Databricks
Je kunt je verrijkte productdata vanuit WISEPIM naar Databricks pushen voor analytics en ML-toepassingen:- Ga naar de pagina Producten in WISEPIM
- Selecteer de producten die je wilt exporteren (of selecteer alles)
- Klik op Exporteren en kies Databricks als bestemming
- WISEPIM schrijft de data naar Delta Lake-tabellen in je opgegeven catalogus en schema
- Productidentificatienummers (ID’s, SKU’s, EAN/GTIN)
- Productnamen en beschrijvingen (alle talen)
- Prijzen en voorraadinformatie
- Categoriehiërarchieën
- Productattributen en aangepaste velden
- Afbeeldings-URL’s en metadata
- Vertaalstatus en kwaliteitsscores
Productdata importeren vanuit Databricks
Als je productdata zich in Databricks bevindt (bijvoorbeeld uit upstream datapipelines), kun je deze importeren in WISEPIM:- Configureer de brontabelnamen in je integratie-instellingen
- Klik op Importeren op de pagina Producten en selecteer Databricks als bron
- WISEPIM leest uit je opgegeven tabellen en koppelt de data aan je projectattributen
Zorg er bij het importeren vanuit Databricks voor dat je brontabellen een consistent schema volgen. WISEPIM probeert kolommen automatisch te koppelen aan productattributen, maar je kunt de koppeling aanpassen met de Attribuut Mapper.
Analytics-toepassingen
Zodra je productdata in Databricks staat, kun je deze gebruiken voor diverse analytics- en data science-workflows:Productprestatie-analytics
- Bouw dashboards om productprestaties te volgen over kanalen en markten
- Analyseer welke productattributen correleren met hogere conversiepercentages
- Vergelijk prestaties over verschillende talen en regio’s
Machine Learning Pipelines
- Train productaanbevelingsmodellen met verrijkte productdata
- Bouw vraagvoorspellingsmodellen met historische product- en prijsdata
- Ontwikkel prijsoptimalisatie-algoritmen op basis van marktdata
- Gebruik de productembeddings van WISEPIM voor gelijkeniszoekopdrachten en clustering
Datagovernance
- Volg dataherkomst van bron tot verrijking tot export met Unity Catalog
- Stel toegangscontroles in om te beheren wie productdata kan lezen en wijzigen
- Audit alle datawijzigingen met het transactielogboek van Delta Lake
Batchverwerking configureren
Voor grote productcatalogi kun je de batchgrootte configureren om de prestaties te optimaliseren:- Kleine catalogi (minder dan 10.000 producten): De standaard batchgrootte van 1.000 werkt goed
- Middelgrote catalogi (10.000 - 100.000 producten): Overweeg te verhogen naar 5.000 per batch
- Grote catalogi (100.000+ producten): Gebruik 10.000 per batch en monitor het resourcegebruik
Probleemoplossing
Als je problemen ondervindt met je Databricks-integratie, probeer dan het volgende:Verbindingsfouten
- Controleer of de Server Hostname correct is en het volledige domein bevat (bijv.
adb-1234567890.1.azuredatabricks.net) - Controleer of het HTTP Path verwijst naar een actief SQL-warehouse of cluster
- Zorg ervoor dat je SQL-warehouse of cluster draait (niet in een gestopte/beëindigde status)
- Controleer bij gebruik van een Personal Access Token of het niet is verlopen
- Controleer bij gebruik van OAuth of de Service Principal workspace-level toegang heeft
Authenticatieproblemen
- Genereer je access token opnieuw als je vermoedt dat het is gecompromitteerd of verlopen
- Controleer bij OAuth of de Client ID en Client Secret correct zijn
- Zorg ervoor dat de geauthenticeerde gebruiker of service principal
USE CATALOG- enUSE SCHEMA-privileges heeft op de doelcatalogus en het doelschema
Problemen met data-export
- Bevestig dat de geauthenticeerde gebruiker
CREATE TABLE- enMODIFY-privileges heeft op het doelschema - Controleer of de catalogus- en schemanamen correct zijn gespeld en bestaan in Unity Catalog
- Als exports traag zijn, probeer dan de batchgrootte te verkleinen of een groter SQL-warehouse te gebruiken
- Bekijk het foutenlogboek van WISEPIM voor specifieke foutmeldingen van de Databricks API
Problemen met data-import
- Verifieer dat de brontabelnamen correct zijn en de tabellen bestaan
- Bevestig dat de geauthenticeerde gebruiker
SELECT-privileges heeft op de brontabellen - Controleer of de schema’s van de brontabellen compatibel zijn met het verwachte formaat van WISEPIM
- Als imports een time-out geven, probeer dan de batchgrootte te verkleinen
Volgende stappen
Zodra je Databricks-integratie is ingesteld, kun je:- Producten importeren vanuit je Databricks-tabellen
- Je producten verrijken met AI-gestuurde contentoptimalisatie
- Producten exporteren naar Delta Lake-tabellen voor analytics
- Dashboards en ML-modellen bouwen met je verrijkte productdata in Databricks
- Geplande exports instellen voor continue datasynchronisatie

