Saltar al contenido principal

Integración con Databricks

Databricks es una plataforma unificada de datos e IA construida sobre la arquitectura lakehouse. Al conectar WISEPIM a Databricks, puedes exportar tus datos enriquecidos de productos directamente a tablas de Unity Catalog y Delta Lake, habilitando analíticas avanzadas, flujos de trabajo de machine learning y gobernanza de datos de nivel empresarial en todo tu catálogo de productos.
La integración con Databricks está disponible exclusivamente en el plan Enterprise. Contacta a nuestro equipo de ventas para conocer más sobre las funcionalidades y precios del plan Enterprise.

Requisitos previos

Antes de comenzar, asegúrate de tener lo siguiente:
  • Una cuenta de WISEPIM en el plan Enterprise
  • Un workspace de Databricks con Unity Catalog habilitado
  • Permisos apropiados para crear esquemas y tablas en tu catálogo de Databricks
  • Tu Server Hostname, HTTP Path de Databricks y un método de autenticación (Personal Access Token o credenciales OAuth)

Obtener los datos de conexión de Databricks

Necesitarás varios datos de tu workspace de Databricks para establecer la conexión.
1

Inicia sesión en tu workspace de Databricks

Ve a la URL de tu workspace de Databricks e inicia sesión con tus credenciales.
2

Localiza tu Server Hostname y HTTP Path

Navega a SQL Warehouses (o Compute para clústeres):
  1. Selecciona el SQL warehouse o clúster al que deseas que WISEPIM se conecte
  2. Haz clic en Connection Details
  3. Copia el Server Hostname (por ejemplo, adb-1234567890.1.azuredatabricks.net)
  4. Copia el HTTP Path (por ejemplo, /sql/1.0/warehouses/abc123def456)
3

Configura la autenticación

Puedes autenticarte usando uno de dos métodos:Opción A: Personal Access Token
  1. Haz clic en tu nombre de usuario en la esquina superior derecha del workspace de Databricks
  2. Ve a Settings, luego Developer, luego Access Tokens
  3. Haz clic en Generate New Token, dale una descripción (por ejemplo, “Integración WISEPIM”) y establece una fecha de expiración
  4. Copia el token generado inmediatamente; no se mostrará de nuevo
Opción B: OAuth (Service Principal)
  1. En la consola de tu cuenta de Databricks, crea un Service Principal
  2. Genera un Client ID y Client Secret para el service principal
  3. Otorga al service principal acceso al workspace y al catálogo objetivo
4

Identifica tu Catálogo y Esquema objetivo

En el workspace de Databricks, ve a Data en la barra lateral para explorar Unity Catalog:
  1. Selecciona o crea el Catálogo donde se almacenarán los datos de productos de WISEPIM
  2. Selecciona o crea el Esquema (base de datos) dentro de ese catálogo
  3. Anota los nombres del catálogo y el esquema
Los Personal Access Tokens proporcionan acceso completo a tu workspace de Databricks según tus permisos de usuario. Para entornos de producción, recomendamos usar OAuth con un Service Principal que tenga solo los permisos mínimos necesarios. Rota las credenciales regularmente y nunca las compartas públicamente.

Conectar Databricks a WISEPIM

Una vez que hayas recopilado tus datos de conexión, configura la integración en WISEPIM.
1

Abre la página de Integraciones

Inicia sesión en tu cuenta de WISEPIM y navega a la página de Integraciones desde la barra lateral principal.
2

Selecciona Databricks

Busca el tile de Databricks en el App Marketplace y haz clic en él para abrir el modal de configuración.
3

Ingresa tus datos de conexión

Completa los siguientes campos:Configuración de conexión
  • Server Hostname: El hostname de tu workspace de Databricks
  • HTTP Path: La ruta a tu SQL warehouse o clúster
Autenticación (elige un método)
  • Access Token: Tu Personal Access Token de Databricks
  • O Client ID y Client Secret: Las credenciales de tu service principal OAuth
Ubicación de datos
  • Catalog: El nombre del Unity Catalog (por ejemplo, wisepim_data)
  • Schema: El nombre del esquema/base de datos dentro del catálogo (por ejemplo, product_catalog)
4

Configura las tablas de origen (opcional)

Si estás importando datos desde Databricks a WISEPIM, puedes especificar los nombres de las tablas de origen:
  • Attributes Source Table: La tabla que contiene las definiciones de atributos
  • Attribute Options Source Table: La tabla que contiene los valores de opciones de atributos
  • Products Source Table: La tabla que contiene los datos de productos
  • Batch Size: El número de filas a procesar por lote (predeterminado: 1000)
5

Prueba la conexión

Haz clic en Probar conexión para verificar que WISEPIM pueda alcanzar tu workspace de Databricks y acceder al catálogo y esquema especificados.
6

Guarda tu configuración

Si la prueba de conexión es exitosa, haz clic en Guardar para almacenar tu configuración de integración.

Configuración del pipeline de datos

La integración con Databricks soporta flujo bidireccional de datos entre WISEPIM y tu data lakehouse.

Exportar datos de productos a Databricks

Puedes enviar tus datos enriquecidos de productos desde WISEPIM a Databricks para casos de uso de analíticas y ML:
  1. Ve a la página de Productos en WISEPIM
  2. Selecciona los productos que deseas exportar (o selecciona todos)
  3. Haz clic en Exportar y elige Databricks como destino
  4. WISEPIM escribirá los datos en tablas Delta Lake en tu catálogo y esquema especificados
Se exportan los siguientes datos:
  • Identificadores de productos (IDs, SKUs, EAN/GTIN)
  • Nombres y descripciones de productos (todos los idiomas)
  • Precios e información de inventario
  • Jerarquías de categorías
  • Atributos de productos y campos personalizados
  • URLs de imágenes y metadatos
  • Estado de traducción y puntuaciones de calidad
WISEPIM exporta datos en formato Delta Lake, que proporciona transacciones ACID, cumplimiento de esquemas y capacidades de viaje en el tiempo. Puedes consultar versiones históricas de tus datos de productos en cualquier momento.

Importar datos de productos desde Databricks

Si tus datos de productos residen en Databricks (por ejemplo, provenientes de pipelines de datos upstream), puedes importarlos a WISEPIM:
  1. Configura los nombres de tablas de origen en tu configuración de integración
  2. Haz clic en Importar en la página de Productos y selecciona Databricks como fuente
  3. WISEPIM leerá de tus tablas especificadas y mapeará los datos a los atributos de tu proyecto
Al importar desde Databricks, asegúrate de que tus tablas de origen sigan un esquema consistente. WISEPIM intentará mapear columnas a atributos de productos automáticamente, pero puedes personalizar el mapeo usando el Mapeador de Atributos.

Casos de uso de analíticas

Una vez que tus datos de productos estén en Databricks, puedes aprovecharlos para una variedad de flujos de trabajo de analíticas y ciencia de datos:

Analíticas de rendimiento de productos

  • Crea dashboards para rastrear el rendimiento de productos a través de canales y mercados
  • Analiza qué atributos de productos se correlacionan con tasas de conversión más altas
  • Compara el rendimiento entre diferentes idiomas y regiones

Pipelines de machine learning

  • Entrena modelos de recomendación de productos usando datos enriquecidos de productos
  • Construye modelos de pronóstico de demanda con datos históricos de productos y precios
  • Desarrolla algoritmos de optimización de precios basados en datos de mercado
  • Usa los embeddings de productos de WISEPIM para búsqueda por similitud y clustering

Gobernanza de datos

  • Rastrea el linaje de datos desde el origen hasta el enriquecimiento y la exportación con Unity Catalog
  • Configura controles de acceso para gestionar quién puede leer y modificar datos de productos
  • Audita todos los cambios de datos con el registro de transacciones de Delta Lake
Usa los IDs de producto de WISEPIM como clave primaria al unir datos de productos con datos de ventas, inventario o clientes en Databricks. Esto asegura un mapeo de identidad consistente en todos tus conjuntos de datos.

Configuración de procesamiento por lotes

Para catálogos de productos grandes, puedes configurar el tamaño de lote para optimizar el rendimiento:
  • Catálogos pequeños (menos de 10,000 productos): El tamaño de lote predeterminado de 1,000 funciona bien
  • Catálogos medianos (10,000 - 100,000 productos): Considera aumentar a 5,000 por lote
  • Catálogos grandes (más de 100,000 productos): Usa 10,000 por lote y monitorea el uso de recursos
Puedes ajustar el tamaño de lote en el modal de configuración de la integración en el campo Batch Size.

Solución de problemas

Si encuentras problemas con tu integración de Databricks, intenta lo siguiente:

Errores de conexión

  • Verifica que el Server Hostname sea correcto e incluya el dominio completo (por ejemplo, adb-1234567890.1.azuredatabricks.net)
  • Comprueba que el HTTP Path apunte a un SQL warehouse o clúster activo
  • Asegúrate de que tu SQL warehouse o clúster esté en ejecución (no en estado detenido/terminado)
  • Si usas un Personal Access Token, verifica que no haya expirado
  • Si usas OAuth, confirma que el Service Principal tenga acceso a nivel de workspace

Problemas de autenticación

  • Regenera tu access token si sospechas que ha sido comprometido o ha expirado
  • Para OAuth, verifica que el Client ID y Client Secret sean correctos
  • Asegúrate de que el usuario autenticado o service principal tenga privilegios de USE CATALOG y USE SCHEMA en el catálogo y esquema objetivo

Problemas de exportación de datos

  • Confirma que el usuario autenticado tenga privilegios de CREATE TABLE y MODIFY en el esquema objetivo
  • Verifica que los nombres del catálogo y esquema estén escritos correctamente y existan en Unity Catalog
  • Si las exportaciones son lentas, intenta reducir el tamaño de lote o usar un SQL warehouse más grande
  • Revisa el registro de errores de WISEPIM para ver mensajes de error específicos de la API de Databricks

Problemas de importación de datos

  • Verifica que los nombres de las tablas de origen sean correctos y que las tablas existan
  • Confirma que el usuario autenticado tenga privilegios de SELECT en las tablas de origen
  • Comprueba que los esquemas de las tablas de origen sean compatibles con el formato esperado por WISEPIM
  • Si las importaciones agotan el tiempo de espera, intenta reducir el tamaño de lote
Los recursos de Databricks (SQL warehouses, clústeres) generan costos mientras están en ejecución. Asegúrate de configurar los ajustes de auto-detención en tu workspace de Databricks para evitar cargos inesperados. WISEPIM intentará iniciar tu SQL warehouse si está detenido, pero esto puede agregar latencia a la primera operación.

Próximos pasos

Una vez que tu integración con Databricks esté configurada, puedes:
  • Importar productos desde tus tablas de Databricks
  • Enriquecer tus productos con optimización de contenido impulsada por IA
  • Exportar productos a tablas Delta Lake para analíticas
  • Construir dashboards y modelos de ML usando tus datos enriquecidos de productos en Databricks
  • Configurar exportaciones programadas para sincronización continua de datos