Accueil / Intégrer avec Pentaho

Intégrer avec Pentaho

Durée : 3 jours
Tarif Inter : 2400 €
Tarif sur mesure : Nous consulter
Référence : 4EPE

  • Partagez sur
  • Téléchargez en
  • Inscrivez vous
Programme Public & Pré-requis Organisation

Présentation

Cette formation vous permettra d’acquérir des connaissances en matière de Business Intelligence et de concepts d’entreposage de données, tout en couvrant en profondeur l’intégration des données Pentaho (alias Kettle), les rapports Pentaho, les tableaux de bord et les Cubes Mondrian.

Pentaho est une suite complète de BI, open-source, qui offre une intégration avec la distribution Hadoop pour le traitement de grands ensembles de données et l’établissement de rapports. Cette formation vous permettra également d’acquérir les compétences nécessaires à l’intégration de la suite Pentaho BI avec Hadoop.

Objectifs

  • Connaître l’architecture de la suite Pentaho BI
  • Utiliser Pentaho Analytics pour la création de rapports à l’aide de Pentaho BI Server
  • Effectuer l’intégration, la transformation et l’analyse de données multiples
  • Utiliser le tableau de bord Pentaho et Pentaho Business Analytics
  • Utiliser les modèles de conception PDI / Kettle et ETL pour remplir le schéma en étoile d’entrepôt de données
  • Créer des rapports complexes et un tableau de bord pour l’analyse
  • Développer des schémas OLAP du Mondrian Cube avec Pentaho workbench
  • Intégrer Pentaho avec la stack Big Data comme HDFS et MapReduce
  • Optimiser les performances des jobs et des transformations du PDI
  • Utiliser Pentaho Kettle pour créer et déployer des rapports de manière automatisée

Programme

  1. Introduction à l’outil Pentaho

    • Console utilisateur Pentaho
    • Aperçu des outils de Business Intelligence et d’analyse de Pentaho
    • Modélisation dimensionnelle de la base de données
    • Utiliser le schéma en étoile pour interroger de grands ensembles de données
    • Comprendre les tables de faits (fact tables) et les tables de dimensions (dimensions tables)
    • Schéma en flocon de neige
    • Principes des SCDs (Slowly Changing Dimensions)
    • La connaissance de la manière dont la haute disponibilité est prise en charge pour le serveur DI et le serveur BA
    • La gestion des artefacts Pentaho
    • Connaissance des solutions d’architectures de grands ensembles de données
  2. Architecture des données

    • Concevoir des modèles de données pour le reporting
    • Utiliser Pentaho pour de l’analyse prédictive
    • Concevoir une solution de raffinage de données rationalisée (SDR) pour un client
  3. Clustering Pentaho

    • Comprendre les bases du clustering de Pentaho
    • Création d’une connexion à la base de données
    • Déplacer une entrée de fichier CSV vers une sortie de table et une sortie de Microsoft Excel
    • Passer d’Excel à la grille de données et au journal.
  4. Transformation des données

    • Les étapes de la transformation de l’intégration des données du Pentaho
    • Ajout d’une séquence
    • Comprendre le calculateur
    • Les plages de nombres
    • Remplacement de chaîne de caractères
    • Sélection de la valeur du champ
    • Tri et séparation des lignes
    • Fonctionnement des chaînes
    • Ligne unique et cartographie des valeurs
    • Utilisation de l’injection de métadonnées
  5. Flux Pentaho

    • Travailler avec la commande de socket sécurisé
    • Valeur null et traitement des erreurs dans Pentaho
    • Mail Pentaho
    • Filtre de lignes et flux de priorités
  6. Utilisation des SCDs

    • Comprendre les Slowly Changing Dimensions
    • Rendre l’ETL dynamique
    • Transformation dynamique
    • Création de dossiers
    • Scripting
    • Chargement en masse
    • La gestion des fichiers
    • Travailler avec le transfert de fichiers Pentaho
    • Les référentiels
    • XML
    • Les outils
    • Chiffrement des fichiers
  7. Type de référentiel Pentaho

    • Créer un ETL dynamique
    • Passer des variables et valeurs d’un job vers une transformation
    • Déploiement des paramètres avec transformation
    • Importance des référentiels Pentaho
    • Connexion à la base de données
    • Variables d’environnement et import de référentiels
  8. Référenciel Pentaho et conception de rapports

    • Le reporting avec Pentaho
    • Effet de la courbure des lignes
    • Conception d’un rapport
    • Travailler avec le serveur Pentaho
    • Création de graphiques en lignes, en barres et de diagrammes circulaires en Pentaho
    • Comment réaliser la localisation (langue, unités) dans les rapports
  9. Tableau de bord de Pentaho

    • Travailler avec Pentaho Dashboard
    • Passer des paramètres dans Report et Dashboard
    • Drill-down de Report
    • Déployer des cubes pour la création de rapports
    • Travailler avec une feuille Excel
    • Intégration de données Pentaho pour la création de rapports.
  10. Comprendre Cube

    • Qu’est-ce qu’un Cube ?
    • La création et les avantages du Cube
    • Travailler avec Cube
    • Création de rapports et de tableaux de bord avec Cube
  11. Expression multidimensionnelle

    • Comprendre les bases de l’expression multidimensionnelle (MDX)
    • Les bases du MDX
    • Notion de Tuple et de ses dimensions implicites
    • Les ensembles, niveaux et membres
    • Le référencement des dimensions
    • La Navigation hiérarchique
    • Les Métadonnées
  12. Analyseur Pentaho

    • L’analyse Pentaho pour la découverte et le mixage de données de différents types et tailles
    • Analyse avancée pour visualiser les données à travers plusieurs dimensions
    • Extension des fonctionnalités de l’analyseur
    • Intégration des rapports du serveur BA
    • Les APIs REST Pentaho
  13. Développement de l’intégration des données Pentaho (PDI)

    • Connaissance des étapes PDI utilisées pour créer un job ETL
    • Description des étapes PDI / Kettle pour créer une transformation ETL
    • Description de l’utilisation des fichiers de propriété
  14. Connectivité ETL Hadoop

    • Déploiement de capacités ETL pour travailler sur l’écosystème Hadoop
    • Intégration avec HDFS et déplacement de données d’un fichier local vers le système de fichiers distribué
    • Déploiement d’Apache Hive
    • Conception de jobs MapReduce
    • Intégration complète de Hadoop avec l’outil ETL
  15. Création de tableaux de bord en Pentaho

    • Créer des tableaux de bord interactifs pour visualiser une représentation hautement graphique des données afin d’améliorer les performances clés de l’entreprise.
  16. Optimisation des performances

    • Gestion de la journalisation du serveur BA
    • Personnalisation des rapports Pentaho
    • Suivi de la performance d’un job ou d’une transformation
    • Audit en Pentaho
  17. Sécurité

    • Intégration de la sécurité des utilisateurs avec d’autres systèmes d’entreprise
    • Extension de la sécurité du contenu du serveur BA
    • Sécurisation des données
    • Prise en charge de la multilocation par Pentaho
    • Utilisation de Kerberos avec Pentaho
Formations à distance
En inter et en intra entreprise

Contactez-nous :
training@softeam.fr
+33 (0)6 07 78 24 18
Prochaines dates

Demande de renseignement