Plugins de Kettle
Ampliar la funcionalidad con plugins EE ..
Administrador de Complementos PDI
Pentaho Data Integration (PDI) se puede ampliar con complementos que agregan nuevos pasos, entradas de trabajo y otras funcionalidades. La mejor manera de gestionar estos complementos es a través del Administrador de Complementos, que encontrarás tanto en el cliente PDI como en la Consola de Usuario de Pentaho (PUC).
El Administrador de Complementos se encarga de todas tus necesidades de complementos: instalar nuevos, actualizar los existentes a sus versiones más recientes y eliminar complementos que ya no utilizas.
Aunque puedes instalar complementos manualmente, este enfoque no es recomendable. Los complementos instalados manualmente no aparecerán en el Administrador de Complementos, lo que significa que tendrás que encargarte tú mismo de todas las actualizaciones y eliminaciones futuras.
En la barra de herramientas superior selecciona: Herramientas > Administrador de Complementos.

Instalar un complemento: Encuentra el complemento que deseas instalar buscando o navegando entre las opciones disponibles.
Para la versión más reciente: Simplemente haz clic en Instalar.

Para una versión anterior: Haz clic en la fila de la tabla del complemento para abrir el cuadro de diálogo Nombre del complemento. Selecciona la versión deseada del menú desplegable y haz clic en Instalar. Confirma la instalación si se solicita.
Reinicia para activar: Después de la instalación, reinicia tanto el servidor Pentaho como el cliente PDI. Este paso es esencial: los complementos recién instalados no funcionarán hasta que reinicies.
Verifica la instalación: Inicia sesión en el cliente PDI y navega a Herramientas > Administrador de Complementos. Busca o navega hasta tu complemento recién instalado. Consulta la columna Versión instalada para confirmar que aparece la versión correcta.
Databricks
La entrada Carga masiva en Databricks carga grandes volúmenes de datos desde archivos de almacenamiento en la nube directamente en tablas de Databricks. Cómo funciona: Lo logra utilizando el COPY INTO comando de Databricks entre bastidores.
Operación masiva de Salesforce
El paso de operación masiva de Salesforce realiza operaciones de datos a gran escala (insertar, actualizar, upsert y eliminar) en objetos de Salesforce utilizando la API Bulk de Salesforce 2.0.
Cómo funciona: El paso lee datos de un flujo de entrada, crea un archivo CSV con los cambios y ejecuta el trabajo masivo contra Salesforce. Después de que el trabajo se complete, opcionalmente puedes dirigir tres tipos de resultados a flujos de salida separados: registros exitosos, registros no procesados y registros fallidos.
Requisitos: Debes tener un ID de cliente de Salesforce y un secreto de cliente para usar este paso.
Google Analytics v4
El paso Google Analytics v4 recupera datos de tu cuenta de Google Analytics para fines de informes o almacenamiento de datos.
Cómo funciona: El paso consulta las propiedades de Google Analytics a través de la API de Google Analytics v4 y envía los valores resultantes de dimensiones y métricas al flujo de salida.
Pentaho admite un tipo de datos jerárquico (HDT) a través del complemento Pentaho EE Marketplace. Este complemento añade el tipo de datos HDT e incluye cinco pasos especializados para trabajar con él.
Qué hace: Estos pasos simplifican el trabajo con estructuras de datos complejas y anidadas. Pueden convertir entre campos HDT y cadenas formateadas, y te permiten acceder o modificar directamente índices y claves de arreglos anidados.
Beneficios de rendimiento: Los pasos mejoran significativamente el rendimiento en comparación con el manejo de datos jerárquicos como cadenas simples.
Estructura de datos: HDT puede almacenar datos anidados o complejos construidos a partir de objetos y arreglos, así como elementos individuales. Es compatible con cualquier paso de PDI que procese datos jerárquicos.
Trabajo Kafka
Última actualización
¿Te fue útil?
