Plugins de Kettle
Extender la funcionalidad con complementos EE ..
x
Administrador de Complementos PDI
Pentaho Data Integration (PDI) se puede ampliar con complementos que agregan nuevos pasos, entradas de trabajos y otras funcionalidades. La mejor forma de gestionar estos complementos es a través del Administrador de Complementos, que encontrarás tanto en el cliente PDI como en la Consola de Usuario de Pentaho (PUC).
El Administrador de Complementos se encarga de todas tus necesidades de complementos: instalar nuevos, actualizar los existentes a sus versiones más recientes y eliminar complementos que ya no utilizas.
Aunque puedes instalar complementos manualmente, este enfoque no se recomienda. Los complementos instalados manualmente no aparecerán en el Administrador de Complementos, lo que significa que tendrás que encargarte tú mismo de todas las actualizaciones y eliminaciones futuras.
En la barra de herramientas superior seleccione: Herramientas > Administrador de Complementos.

Instalación de un complemento: Encuentra el complemento que deseas instalar buscando o explorando las opciones disponibles.
Para la versión más reciente: Simplemente haz clic en Instalar.

Para una versión anterior: Haz clic en la fila de la tabla del complemento para abrir el cuadro de diálogo Nombre del complemento. Selecciona la versión deseada de la lista desplegable y haz clic en Instalar. Confirma la instalación si se te solicita.
Reinicia para activar: Después de la instalación, reinicia tanto el servidor de Pentaho como el cliente PDI. Este paso es esencial: los complementos recién instalados no funcionarán hasta que reinicies.
Verifica la instalación: Inicia sesión en el cliente PDI y navega a Herramientas > Administrador de Complementos. Busca o navega hasta tu complemento recién instalado. Comprueba la columna Versión instalada para confirmar que se muestra la versión correcta.
Databricks
La entrada Carga masiva en Databricks carga grandes volúmenes de datos desde archivos de almacenamiento en la nube directamente en tablas de Databricks. Cómo funciona: Lo logra utilizando el COPY INTO comando detrás de escena.
Operación masiva de Salesforce
El paso de operación masiva de Salesforce realiza operaciones de datos a gran escala (insertar, actualizar, upsert y eliminar) en objetos de Salesforce usando la API Bulk de Salesforce 2.0.
Cómo funciona: El paso lee datos de un flujo de entrada, crea un archivo CSV con los cambios y ejecuta el trabajo masivo contra Salesforce. Después de que el trabajo se completa, opcionalmente puedes redirigir tres tipos de resultados a flujos de salida separados: registros exitosos, registros no procesados y registros fallidos.
Requisitos: Debes tener un ID de cliente de Salesforce y un secreto de cliente para usar este paso.
Google Analytics v4
El paso Google Analytics v4 recupera datos de tu cuenta de Google Analytics para fines de informes o almacenamiento de datos.
Cómo funciona: El paso consulta las propiedades de Google Analytics a través de la API de Google Analytics v4 y envía los valores resultantes de dimensiones y métricas al flujo de salida.
Pentaho admite un tipo de datos jerárquico (HDT) a través del complemento Pentaho EE Marketplace. Este complemento agrega el tipo de datos HDT e incluye cinco pasos especializados para trabajar con él.
Qué hace: Estos pasos simplifican el trabajo con estructuras de datos complejas y anidadas. Pueden convertir entre campos HDT y cadenas formateadas, y te permiten acceder o modificar directamente índices de arreglos y claves anidadas.
Beneficios de rendimiento: Los pasos mejoran significativamente el rendimiento en comparación con el manejo de datos jerárquicos como cadenas simples.
Estructura de datos: HDT puede almacenar datos anidados o complejos construidos a partir de objetos y arreglos, así como elementos individuales. Es compatible con cualquier paso de PDI que procese datos jerárquicos.
Trabajo Kafka
x
Última actualización
¿Te fue útil?
