Plugins do Kettle
Estenda a funcionalidade com plugins EE ..
Gerenciador de Plugins do PDI
O Pentaho Data Integration (PDI) pode ser estendido com plugins que adicionam novos passos, entradas de job e outras funcionalidades. A melhor forma de gerenciar esses plugins é através do Gerenciador de Plugins, que você encontrará tanto no cliente PDI quanto no Pentaho User Console (PUC).
O Gerenciador de Plugins cuida de todas as suas necessidades de plugins: instalar novos, atualizar os existentes para suas versões mais recentes e remover plugins que você não usa mais.
Embora seja possível instalar plugins manualmente, essa abordagem não é recomendada. Plugins instalados manualmente não aparecem no Gerenciador de Plugins, o que significa que você terá que lidar com todas as atualizações e remoções futuras por conta própria.
Na barra de ferramentas superior selecione: Ferramentas > Gerenciador de Plugins.

Instalando um Plugin: Encontre o plugin que você deseja instalar pesquisando ou navegando pelas opções disponíveis.
Para a versão mais recente: Simplesmente clique em Instalar.

Para uma versão anterior: Clique na linha da tabela do plugin para abrir a caixa de diálogo Nome do Plugin. Selecione a versão desejada na lista suspensa e clique em Instalar. Confirme a instalação se solicitado.
Reinicie para ativar: Após a instalação, reinicie tanto o servidor Pentaho quanto o cliente PDI. Esta etapa é essencial - os plugins recém-instalados não funcionarão até que você reinicie.
Verifique a instalação: Faça login no cliente PDI e navegue até Ferramentas > Gerenciador de Plugins. Pesquise ou navegue até o plugin recém-instalado. Verifique a coluna Versão Instalada para confirmar se a versão correta está listada.
Databricks
A entrada Carregamento em massa para Databricks carrega grandes volumes de dados de arquivos de armazenamento em nuvem diretamente para tabelas do Databricks. Como funciona: Ele realiza isso usando o COPY INTO comando nos bastidores.
Operação em Massa do Salesforce
O passo de operação em massa do Salesforce realiza operações de dados em grande escala (inserir, atualizar, upsert e excluir) em objetos do Salesforce usando a Salesforce Bulk API 2.0.
Como funciona: O passo lê dados de um fluxo de entrada, cria um arquivo CSV com as alterações e executa o job em massa contra o Salesforce. Após a conclusão do job, você pode opcionalmente direcionar três tipos de resultados para fluxos de saída separados: registros bem-sucedidos, registros não processados e registros com falha.
Requisitos: Você deve ter um Client ID e Client Secret do Salesforce para usar este passo.
Google Analytics v4
O passo Google Analytics v4 recupera dados da sua conta do Google Analytics para fins de relatórios ou data warehousing.
Como funciona: O passo consulta propriedades do Google Analytics através da API do Google Analytics v4 e envia os valores resultantes de dimensões e métricas para o fluxo de saída.
O Pentaho oferece suporte a um tipo de dado hierárquico (HDT) por meio do plugin Pentaho EE Marketplace. Este plugin adiciona o tipo de dado HDT e inclui cinco passos especializados para trabalhar com ele.
O que faz: Esses passos simplificam o trabalho com estruturas de dados complexas e aninhadas. Eles podem converter entre campos HDT e strings formatadas, e permitem acessar ou modificar diretamente índices e chaves de arrays aninhados.
Benefícios de desempenho: Os passos melhoram significativamente o desempenho em comparação com o tratamento de dados hierárquicos como strings simples.
Estrutura de dados: O HDT pode armazenar dados aninhados ou complexos construídos a partir de objetos e arrays, bem como elementos únicos. É compatível com qualquer passo do PDI que processe dados hierárquicos.
Job Kafka
Atualizado
Isto foi útil?
