Plugins do Kettle
Estenda a funcionalidade com plugins EE ..
x
Gerenciador de Plugins PDI
O Pentaho Data Integration (PDI) pode ser estendido com plugins que adicionam novos steps, entradas de job e outras funcionalidades. A melhor forma de gerenciar esses plugins é através do Gerenciador de Plugins, que você encontrará tanto no cliente PDI quanto no Pentaho User Console (PUC).
O Gerenciador de Plugins cuida de todas as suas necessidades relacionadas a plugins: instalar novos, atualizar os existentes para suas versões mais recentes e remover plugins que você não usa mais.
Embora você possa instalar plugins manualmente, essa abordagem não é recomendada. Plugins instalados manualmente não aparecem no Gerenciador de Plugins, o que significa que você terá que cuidar de todas as atualizações e remoções futuras por conta própria.
Na barra de ferramentas superior, selecione: Ferramentas > Gerenciador de Plugins.

Instalando um Plugin: Encontre o plugin que deseja instalar pesquisando ou navegando pelas opções disponíveis.
Para a versão mais recente: Basta clicar em Instalar.

Para uma versão anterior: Clique na linha da tabela do plugin para abrir a caixa de diálogo Nome do Plugin. Selecione a versão desejada na lista suspensa e clique em Instalar. Confirme a instalação se solicitado.
Reinicie para ativar: Após a instalação, reinicie tanto o Servidor Pentaho quanto o cliente PDI. Esta etapa é essencial - plugins recém-instalados não funcionarão até que você reinicie.
Verifique a instalação: Faça login no cliente PDI e navegue até Ferramentas > Gerenciador de Plugins. Pesquise ou navegue até o plugin recém-instalado. Verifique a coluna Versão Instalado para confirmar que a versão correta está listada.
Databricks
A entrada Carregamento em Massa para Databricks carrega grandes volumes de dados de arquivos em armazenamento em nuvem diretamente para tabelas do Databricks. Como funciona: Ele realiza isso usando o COPY INTO comando nos bastidores.
Operação em Lote do Salesforce
O step de operação em lote do Salesforce realiza operações de dados em grande escala (insert, update, upsert e delete) em objetos do Salesforce usando a Salesforce Bulk API 2.0.
Como funciona: O step lê dados de um fluxo de entrada, cria um arquivo CSV das alterações e executa o job em lote contra o Salesforce. Depois que o job é concluído, você pode opcionalmente direcionar três tipos de resultados para fluxos de saída separados: registros bem-sucedidos, registros não processados e registros com falha.
Requisitos: Você deve ter um Client ID e Client Secret do Salesforce para usar este step.
Google Analytics v4
O step Google Analytics v4 recupera dados da sua conta do Google Analytics para fins de relatório ou armazenamento de dados.
Como funciona: O step consulta propriedades do Google Analytics através da API do Google Analytics v4 e envia os valores resultantes de dimensões e métricas para o fluxo de saída.
O Pentaho oferece suporte a um tipo de dados hierárquico (HDT) através do plugin Pentaho EE Marketplace. Este plugin adiciona o tipo de dado HDT e inclui cinco steps especializados para trabalhar com ele.
O que ele faz: Esses steps simplificam o trabalho com estruturas de dados complexas e aninhadas. Eles podem converter entre campos HDT e strings formatadas, e permitem acessar ou modificar diretamente índices e chaves de arrays aninhados.
Benefícios de desempenho: Os steps melhoram significativamente o desempenho em comparação com o tratamento de dados hierárquicos como strings simples.
Estrutura de dados: HDT pode armazenar dados aninhados ou complexos construídos a partir de objetos e arrays, assim como elementos únicos. É compatível com qualquer step do PDI que processe dados hierárquicos.
Job Kafka
x
Atualizado
Isto foi útil?
