Integración con Databricks
Databricks es una plataforma unificada de datos e IA construida sobre la arquitectura lakehouse. Al conectar WISEPIM a Databricks, puedes exportar tus datos enriquecidos de productos directamente a tablas de Unity Catalog y Delta Lake, habilitando analíticas avanzadas, flujos de trabajo de machine learning y gobernanza de datos de nivel empresarial en todo tu catálogo de productos.La integración con Databricks está disponible exclusivamente en el plan Enterprise. Contacta a nuestro equipo de ventas para conocer más sobre las funcionalidades y precios del plan Enterprise.
Requisitos previos
Antes de comenzar, asegúrate de tener lo siguiente:- Una cuenta de WISEPIM en el plan Enterprise
- Un workspace de Databricks con Unity Catalog habilitado
- Permisos apropiados para crear esquemas y tablas en tu catálogo de Databricks
- Tu Server Hostname, HTTP Path de Databricks y un método de autenticación (Personal Access Token o credenciales OAuth)
Obtener los datos de conexión de Databricks
Necesitarás varios datos de tu workspace de Databricks para establecer la conexión.Inicia sesión en tu workspace de Databricks
Ve a la URL de tu workspace de Databricks e inicia sesión con tus credenciales.
Localiza tu Server Hostname y HTTP Path
Navega a SQL Warehouses (o Compute para clústeres):
- Selecciona el SQL warehouse o clúster al que deseas que WISEPIM se conecte
- Haz clic en Connection Details
- Copia el Server Hostname (por ejemplo,
adb-1234567890.1.azuredatabricks.net) - Copia el HTTP Path (por ejemplo,
/sql/1.0/warehouses/abc123def456)
Configura la autenticación
Puedes autenticarte usando uno de dos métodos:Opción A: Personal Access Token
- Haz clic en tu nombre de usuario en la esquina superior derecha del workspace de Databricks
- Ve a Settings, luego Developer, luego Access Tokens
- Haz clic en Generate New Token, dale una descripción (por ejemplo, “Integración WISEPIM”) y establece una fecha de expiración
- Copia el token generado inmediatamente; no se mostrará de nuevo
- En la consola de tu cuenta de Databricks, crea un Service Principal
- Genera un Client ID y Client Secret para el service principal
- Otorga al service principal acceso al workspace y al catálogo objetivo
Identifica tu Catálogo y Esquema objetivo
En el workspace de Databricks, ve a Data en la barra lateral para explorar Unity Catalog:
- Selecciona o crea el Catálogo donde se almacenarán los datos de productos de WISEPIM
- Selecciona o crea el Esquema (base de datos) dentro de ese catálogo
- Anota los nombres del catálogo y el esquema
Conectar Databricks a WISEPIM
Una vez que hayas recopilado tus datos de conexión, configura la integración en WISEPIM.Abre la página de Integraciones
Inicia sesión en tu cuenta de WISEPIM y navega a la página de Integraciones desde la barra lateral principal.
Selecciona Databricks
Busca el tile de Databricks en el App Marketplace y haz clic en él para abrir el modal de configuración.
Ingresa tus datos de conexión
Completa los siguientes campos:Configuración de conexión
- Server Hostname: El hostname de tu workspace de Databricks
- HTTP Path: La ruta a tu SQL warehouse o clúster
- Access Token: Tu Personal Access Token de Databricks
- O Client ID y Client Secret: Las credenciales de tu service principal OAuth
- Catalog: El nombre del Unity Catalog (por ejemplo,
wisepim_data) - Schema: El nombre del esquema/base de datos dentro del catálogo (por ejemplo,
product_catalog)
Configura las tablas de origen (opcional)
Si estás importando datos desde Databricks a WISEPIM, puedes especificar los nombres de las tablas de origen:
- Attributes Source Table: La tabla que contiene las definiciones de atributos
- Attribute Options Source Table: La tabla que contiene los valores de opciones de atributos
- Products Source Table: La tabla que contiene los datos de productos
- Batch Size: El número de filas a procesar por lote (predeterminado: 1000)
Prueba la conexión
Haz clic en Probar conexión para verificar que WISEPIM pueda alcanzar tu workspace de Databricks y acceder al catálogo y esquema especificados.
Configuración del pipeline de datos
La integración con Databricks soporta flujo bidireccional de datos entre WISEPIM y tu data lakehouse.Exportar datos de productos a Databricks
Puedes enviar tus datos enriquecidos de productos desde WISEPIM a Databricks para casos de uso de analíticas y ML:- Ve a la página de Productos en WISEPIM
- Selecciona los productos que deseas exportar (o selecciona todos)
- Haz clic en Exportar y elige Databricks como destino
- WISEPIM escribirá los datos en tablas Delta Lake en tu catálogo y esquema especificados
- Identificadores de productos (IDs, SKUs, EAN/GTIN)
- Nombres y descripciones de productos (todos los idiomas)
- Precios e información de inventario
- Jerarquías de categorías
- Atributos de productos y campos personalizados
- URLs de imágenes y metadatos
- Estado de traducción y puntuaciones de calidad
Importar datos de productos desde Databricks
Si tus datos de productos residen en Databricks (por ejemplo, provenientes de pipelines de datos upstream), puedes importarlos a WISEPIM:- Configura los nombres de tablas de origen en tu configuración de integración
- Haz clic en Importar en la página de Productos y selecciona Databricks como fuente
- WISEPIM leerá de tus tablas especificadas y mapeará los datos a los atributos de tu proyecto
Al importar desde Databricks, asegúrate de que tus tablas de origen sigan un esquema consistente. WISEPIM intentará mapear columnas a atributos de productos automáticamente, pero puedes personalizar el mapeo usando el Mapeador de Atributos.
Casos de uso de analíticas
Una vez que tus datos de productos estén en Databricks, puedes aprovecharlos para una variedad de flujos de trabajo de analíticas y ciencia de datos:Analíticas de rendimiento de productos
- Crea dashboards para rastrear el rendimiento de productos a través de canales y mercados
- Analiza qué atributos de productos se correlacionan con tasas de conversión más altas
- Compara el rendimiento entre diferentes idiomas y regiones
Pipelines de machine learning
- Entrena modelos de recomendación de productos usando datos enriquecidos de productos
- Construye modelos de pronóstico de demanda con datos históricos de productos y precios
- Desarrolla algoritmos de optimización de precios basados en datos de mercado
- Usa los embeddings de productos de WISEPIM para búsqueda por similitud y clustering
Gobernanza de datos
- Rastrea el linaje de datos desde el origen hasta el enriquecimiento y la exportación con Unity Catalog
- Configura controles de acceso para gestionar quién puede leer y modificar datos de productos
- Audita todos los cambios de datos con el registro de transacciones de Delta Lake
Configuración de procesamiento por lotes
Para catálogos de productos grandes, puedes configurar el tamaño de lote para optimizar el rendimiento:- Catálogos pequeños (menos de 10,000 productos): El tamaño de lote predeterminado de 1,000 funciona bien
- Catálogos medianos (10,000 - 100,000 productos): Considera aumentar a 5,000 por lote
- Catálogos grandes (más de 100,000 productos): Usa 10,000 por lote y monitorea el uso de recursos
Solución de problemas
Si encuentras problemas con tu integración de Databricks, intenta lo siguiente:Errores de conexión
- Verifica que el Server Hostname sea correcto e incluya el dominio completo (por ejemplo,
adb-1234567890.1.azuredatabricks.net) - Comprueba que el HTTP Path apunte a un SQL warehouse o clúster activo
- Asegúrate de que tu SQL warehouse o clúster esté en ejecución (no en estado detenido/terminado)
- Si usas un Personal Access Token, verifica que no haya expirado
- Si usas OAuth, confirma que el Service Principal tenga acceso a nivel de workspace
Problemas de autenticación
- Regenera tu access token si sospechas que ha sido comprometido o ha expirado
- Para OAuth, verifica que el Client ID y Client Secret sean correctos
- Asegúrate de que el usuario autenticado o service principal tenga privilegios de
USE CATALOGyUSE SCHEMAen el catálogo y esquema objetivo
Problemas de exportación de datos
- Confirma que el usuario autenticado tenga privilegios de
CREATE TABLEyMODIFYen el esquema objetivo - Verifica que los nombres del catálogo y esquema estén escritos correctamente y existan en Unity Catalog
- Si las exportaciones son lentas, intenta reducir el tamaño de lote o usar un SQL warehouse más grande
- Revisa el registro de errores de WISEPIM para ver mensajes de error específicos de la API de Databricks
Problemas de importación de datos
- Verifica que los nombres de las tablas de origen sean correctos y que las tablas existan
- Confirma que el usuario autenticado tenga privilegios de
SELECTen las tablas de origen - Comprueba que los esquemas de las tablas de origen sean compatibles con el formato esperado por WISEPIM
- Si las importaciones agotan el tiempo de espera, intenta reducir el tamaño de lote
Próximos pasos
Una vez que tu integración con Databricks esté configurada, puedes:- Importar productos desde tus tablas de Databricks
- Enriquecer tus productos con optimización de contenido impulsada por IA
- Exportar productos a tablas Delta Lake para analíticas
- Construir dashboards y modelos de ML usando tus datos enriquecidos de productos en Databricks
- Configurar exportaciones programadas para sincronización continua de datos

