Plugins Kettle
Étendre les fonctionnalités avec les plugins EE ..
x
Gestionnaire de plugins PDI
Pentaho Data Integration (PDI) peut être étendu avec des plugins qui ajoutent de nouvelles étapes, des entrées de tâches et d'autres fonctionnalités. La meilleure façon de gérer ces plugins est via le Gestionnaire de plugins, que vous trouverez à la fois dans le client PDI et dans la Console utilisateur Pentaho (PUC).
Le Gestionnaire de plugins prend en charge tous vos besoins en matière de plugins : installer de nouveaux plugins, mettre à jour ceux existants vers leurs dernières versions et supprimer les plugins que vous n'utilisez plus.
Bien que vous puissiez installer des plugins manuellement, cette approche n'est pas recommandée. Les plugins installés manuellement n'apparaîtront pas dans le Gestionnaire de plugins, ce qui signifie que vous devrez gérer vous-même toutes les futures mises à jour et suppressions.
Dans la barre d'outils supérieure, sélectionnez : Outils > Gestionnaire de plugins.

Installation d'un plugin : Trouvez le plugin que vous souhaitez installer en recherchant ou en parcourant les options disponibles.
Pour la version la plus récente : Cliquez simplement sur Installer.

Pour une version antérieure : Cliquez sur la ligne du tableau du plugin pour ouvrir la boîte de dialogue du nom du plugin. Sélectionnez la version souhaitée dans la liste déroulante et cliquez sur Installer. Confirmez l'installation si une demande de confirmation apparaît.
Redémarrer pour activer : Après l'installation, redémarrez à la fois le serveur Pentaho et le client PDI. Cette étape est essentielle : les plugins nouvellement installés ne fonctionneront pas tant que vous n'aurez pas redémarré.
Vérifier l'installation : Connectez-vous au client PDI et allez dans Outils > Gestionnaire de plugins. Recherchez ou parcourez pour trouver votre plugin nouvellement installé. Vérifiez la colonne Version installée pour confirmer que la bonne version est indiquée.
Databricks
L'entrée Chargement en masse dans Databricks charge de grands volumes de données à partir de fichiers de stockage cloud directement dans des tables Databricks. Comment cela fonctionne : Elle y parvient en utilisant la commande COPY INTO en coulisses.
Opération en masse Salesforce
L'étape d'opération en masse Salesforce effectue des opérations de données à grande échelle (insertion, mise à jour, upsert et suppression) sur des objets Salesforce en utilisant l'API Bulk 2.0 de Salesforce.
Comment cela fonctionne : L'étape lit les données à partir d'un flux d'entrée, crée un fichier CSV des modifications et exécute le travail en masse contre Salesforce. Après la fin du travail, vous pouvez éventuellement diriger trois types de résultats vers des flux de sortie distincts : les enregistrements réussis, les enregistrements non traités et les enregistrements échoués.
Exigences : Vous devez disposer d'un ID client Salesforce et d'un secret client pour utiliser cette étape.
Google Analytics v4
L'étape Google Analytics v4 récupère des données de votre compte Google Analytics à des fins de reporting ou d'entrepôt de données.
Comment cela fonctionne : L'étape interroge les propriétés Google Analytics via la API Google Analytics v4 et envoie les valeurs de dimensions et de métriques résultantes au flux de sortie.
Pentaho prend en charge un type de données hiérarchique (HDT) via le plugin Pentaho EE Marketplace. Ce plugin ajoute le type de données HDT et inclut cinq étapes spécialisées pour travailler avec celui-ci.
Ce que cela fait : Ces étapes simplifient le travail avec des structures de données complexes et imbriquées. Elles peuvent convertir entre des champs HDT et des chaînes formatées, et vous permettent d'accéder directement ou de modifier des indices et des clés de tableaux imbriqués.
Avantages de performance : Les étapes améliorent considérablement les performances par rapport au traitement des données hiérarchiques sous forme de chaînes simples.
Structure des données : HDT peut stocker des données imbriquées ou complexes construites à partir d'objets et de tableaux, ainsi que des éléments simples. Il est compatible avec toute étape PDI qui traite des données hiérarchiques.
Tâche Kafka
x
Mis à jour
Ce contenu vous a-t-il été utile ?
