Implémentation de solutions d’analyse à l’aide de Microsoft Fabric À distance

Dernière mise à jour : 26/10/2024

Formation officielle Microsoft Azure DP-600 Implementing Analytics Solutions Using Microsoft Fabric

Type :

Description

Cette formation couvre l'implémentation d'un lakehouse avec Microsoft Fabric, l'ingestion de données, les entrepôts de données, la conception de modèles tabulaires, la gestion du cycle de vie du développement analytique, le choix d'un framework de modèle Power BI, et la surveillance des données en temps réel avec Power BI. Elle offre une approche complète pour maîtriser les compétences nécessaires à la mise en œuvre réussie d'une architecture analytique moderne.

Objectifs de la formation

- Ingérer des données avec Microsoft Fabric
- Implémenter un lakehouse avec Microsoft Fabric
- Implémenter un entrepôt de données avec Microsoft Fabric
- Utiliser des modèles sémantiques dans Microsoft Fabric
- Concevoir et générer des modèles tabulaires
- Gérer le cycle de vie du développement d'analytique

Certification

Cette formation permet de préparer la certification "DP-600 - Microsoft Fabric Analytics Engineer".

Lors de votre inscription, le voucher de passage de la certification vous sera proposé en option.

Public visé

  • Ingénieurs
  • Analystes

Prérequis

Avoir suivi la formation « DP-900 Microsoft Azure Data Fundamentals » ou un niveau équivalent est recommandé.
Un niveau d'anglais B1 est recommandé, retrouvez les niveaux sur ce lien : Classification des niveaux de langue

Modalités pédagogiques

Formation avec apports théoriques, échanges sur les contextes des participants et retours d'expérience pratique des formateurs, complétés de travaux pratiques et de mises en situation.

Profil du / des Formateur(s)

Cette formation est dispensée par un·e ou plusieurs consultant·es d'OCTO Technology ou de son réseau de partenaires, expert·es reconnus des sujets traités.

Le processus de sélection de nos formateurs et formatrices est exigeant et repose sur une évaluation rigoureuse leurs capacités techniques, de leur expérience professionnelle et de leurs compétences pédagogiques.

Modalités d'évaluation et de suivi

L'évaluation des acquis se fait tout au long de la session au travers des ateliers et des mises en pratique. Afin de valider les compétences acquises lors de la formation, un formulaire d'auto-positionnement est envoyé en amont et en aval de celle-ci. Une évaluation à chaud est également effectuée en fin de session pour mesurer la satisfaction des stagiaires et un certificat de réalisation leur est adressé individuellement.

Programme

OUVERTURE DE SESSION

  • Accueil des participants et tour de table des attentes
  • Présentation du déroulé de la formation

 

INGéRER DES DONNéES AVEC DATAFLOWS GEN2 DANS MICROSOFT FABRIC

  • Décrire les fonctionnalités de du flux de données dans Microsoft Fabric
  • Créer des solutions de flux de données pour ingérer et transformer des données
  • Inclure un flux de données (Gen2) dans un pipeline


INGÉRER DES DONNÉES AVEC DES NOTEBOOKS SPARK ET MICROSOFT FABRIC

  • Ingérer des données externes dans des lakehouses Fabric avec Spark
  • Configurer l’authentification et l’optimisation de la source externe
  • Charger des données dans un lakehouse sous forme de fichiers ou de tables Delta


UTILISER LES PIPELINES DATA FACTORY DANS MICROSOFT FABRIC

  • Décrire les fonctionnalités de pipeline dans Microsoft Fabric
  • Utiliser l'activité « Copier les données dans un pipeline »
  • Créer des pipelines basés sur des modèles prédéfinis
  • Exécuter et surveiller les pipelines


DÉCRIRE L'ANALYTIQUE DE BOUT EN BOUT DANS MICROSOFT FABRIC


DÉMARRER AVEC LES LAKEHOUSES DANS MICROSOFT FABRIC

  • Décrire les principales fonctionnalités et capacités des lakehouses dans Microsoft Fabric
  • Créer un lakehouse
  • Ingérer des données dans des fichiers et des tables dans un lakehouse
  • Interroger des tables de lakehouse avec SQL


UTILISER APACHE SPARK DANS MICROSOFT FABRIC

  • Configurer Spark dans un espace de travail Microsoft Fabric
  • Identifier les scénarios appropriés pour les notebooks Spark et les travaux Spark
  • Utiliser des dataframes Spark pour analyser et transformer des données
  • Utiliser Spark SQL pour interroger des données dans des tables et des vues
  • Visualiser des données dans un notebook Spark.


UTILISER DES TABLES DELTA LAKE DANS MICROSOFT FABRIC

  • Comprendre les tables Delta Lake et delta dans Microsoft Fabric
  • Créer et gérer des tables delta avec Spark
  • Utiliser Spark pour interroger et transformer des données dans des tables delta
  • Utiliser des tables delta avec le streaming structuré Spark


ORGANISER UN LAKEHOUSE FABRIC À L'AIDE DE LA CONCEPTION D'ARCHITECTURE EN MÉDAILLON

  • Décrire les principes d’utilisation de l’architecture en médaillon dans la gestion des données
  • Appliquer l’infrastructure d’architecture en médaillon dans l’environnement Microsoft Fabric
  • Analyser les données stockées dans le lakehouse à l’aide de DirectLake dans Power BI
  • Décrire les meilleures pratiques pour garantir la sécurité et la gouvernance des données stockées dans l’architecture du médaillon


DÉMARRER AVEC LES ENTREPOTS DE DONNÉES DANS MICROSOFT FABRIC 

  • Décrire les entrepôts de données dans Fabric
  • Comprendre les différences entre un entrepôt de données et un lac de données
  • Utiliser des entrepôts de données dans Fabric
  • Créer et gérer des tables de faits et des dimensions dans un entrepôt de données


CHARGER DES DONNÉES DANS UN ENTREPOT DE DONNÉES MICROSOFT FABRIC 

  • Découvrir différentes stratégies pour charger des données dans un entrepôt de données dans Microsoft Fabric
  • Apprendre à créer un pipeline de données pour charger un entrepôt dans Microsoft Fabric
  • Apprendre à charger des données dans un entrepôt à l’aide de T-SQL
  • Apprendre à charger et à transformer des données avec Dataflow (Gen2)


INTERROGER UN ENTREPOT DE DONNÉES DANS MICROSOFT FABRIC 

  • Utiliser l’éditeur de requête SQL pour interroger un entrepôt de données
  • Explorer le fonctionnement de l’éditeur de requête visuel
  • Découvrir comment se connecter à un entrepôt de données et l’interroger en utilisant SQL Server Management Studio


SURVEILLER UN ENTREPOT DE DONNÉES MICROSOFT FABRIC

  • Surveiller l'utilisation des unités de capacité avec l'application des métriques de capacité Microsoft Fabric
  • Surveiller l'activité actuelle de l'entrepôt de données grâce à des vues de gestion dynamiques
  • Surveiller les tendances en matière d'interrogation grâce à des vues d'ensemble des requêtes

 

COMPRENDRE LA SCALABILITÉ DANS POWER BI

  • Décrire pourquoi il est important de créer des modèles de données scalables
  • Implémenter les bonnes pratiques de modélisation des données Power BI
  • Utiliser le format de stockage pour jeux de données volumineux Power BI


CRÉER DES RELATIONS DE MODÈLE POWER BI

  • Découvrir comment fonctionnent les relations de modèle
  • Configurer des relations
  • Utiliser des fonctions de relation DAX
  • Découvrir l’évaluation des relations


UTILISER DES OUTILS POUR OPTIMISER LE NIVEAU DE PERFORMANCE DE POWER BI

  • Optimiser les requêtes à l’aide de l’analyseur de performances
  • Résoudre les problèmes de performances DAX avec DAX Studio
  • Optimiser un modèle de données à l’aide de l’Éditeur tabulaire


APPLIQUER LA SÉCURITÉ DU MODÈLE POWER BI

  • Restreindre l’accès aux données de modèle Power BI avec la Sécurité au niveau des lignes
  • Restreindre l’accès aux objets de modèle Power BI avec OLS
  • Appliquer de bonnes pratiques de développement pour appliquer la sécurité de modèle Power BI


UTILISER LES FONCTIONS TIME INTELLIGENCE DAX DANS LES MODÈLES POWER BI DESKTOP

  • Définir Time Intelligence
  • Utiliser des fonctions Time Intelligence DAX courantes
  • Créer des calculs Time Intelligence utiles


CRÉER DES GROUPES DE CALCUL

  • Explorer le fonctionnement des groupes de calcul
  • Maintenir des groupes de calcul dans un modèle
  • Utiliser des groupes de calcul dans un rapport Power BI


CONCEVOIR UNE STRATÉGIE APPLICATION LIFECYCLE MANAGEMENT (ALM) POWER BI

  • Décrire le processus de cycle de vie des applications
  • Choisir une stratégie de contrôle de code source
  • Concevoir une stratégie de déploiement


CRÉER ET GÉRER UN PIPELINE DE DÉPLOIEMENT POWER BI

  • Présenter les avantages des pipelines de déploiement
  • Créer un pipeline de déploiement à l’aide d’espaces de travail Premium
  • Affecter et déployer du contenu aux étapes de pipeline
  • Décrire l’objectif des règles de déploiement
  • Déployer du contenu d’une étape de pipeline à une autre


CRÉER ET GÉRER DES RESSOURCES POWER BI

  • Créer des jeux de données spécialisés
  • Créer des connexions actives et DirectQuery
  • Utiliser la vue de traçabilité du service Power BI
  • Utiliser le point de terminaison XMLA pour connecter des jeux de données

 

CLÔTURE DE SESSION

  • Revue des principaux concepts abordés lors de la formation
  • Échange autour des questions et réponses additionnelles

Exposé (%)

40

Pratique (%)

40

Echanges (%)

20

Prochaines Sessions

  • Désolé, cette formation n'est pas programmée pour le moment.

    Si vous êtes responsable formation, vous pouvez faire une requête pour l'organiser en INTRA dans votre entreprise.

Retour Site