Microsoft Certified Azure Data Engineer Associate (DP-203) - eLearning
450,00 EUR
- 40 hours
Devenez un data engineer confirmé dans le cloud grâce à la formation Microsoft Certified Azure Data Engineer Associate (DP-203). Ce cours complet est conçu pour vous aider à concevoir, gérer et optimiser des solutions de données en utilisant les puissants services de données de Microsoft Azure.
Caractéristiques principales
Langue
Cours et matériel en anglais
Niveau
Niveau débutant - intermédiaire
Accès
Accès d’un an à la plateforme d’apprentissage
23 heures de vidéos à la demande
avec plus de 40 heures de temps d’étude recommandé
6 exercices pratiques
12 évaluations notées automatiquement
4 projets concrets
4 devoirs complets
Aucun bon d’examen
Attestation de fin de programme incluse

Résultats d’apprentissage
À la fin de ce cours, vous serez capable de :
Conception
Concevoir et mettre en œuvre des solutions de stockage de données évolutives sur Azure
Pipeline
Créer et gérer des pipelines de données pour le traitement par lots et en temps réel
Azure Data Lake
Travailler avec Azure Data Lake, Synapse Analytics et Data Factory
Intégration
Mettre en œuvre des workflows de transformation et d’intégration des données
Sécurisé
Sécuriser et surveiller les systèmes de stockage et de traitement des données
Optimiser
Optimiser les performances des données et résoudre les problèmes
Postuler
Appliquer les meilleures pratiques d’ingénierie des données dans les environnements cloud
Sécurité des données
Développer des solutions d’analytique de bout en bout à l’aide des services Azure

Chronologie du cours
Introduction au cloud Azure et au profil d’ingénieur data
Leçon 01
- Comment créer un abonnement Azure
- Vue d’ensemble du portail Azure
- Comment supprimer des ressources et définir un budget
- Comment le profil de data engineer a-t-il évolué ?
- Comprendre le rôle et les responsabilités de l’ingénieur data
- Explorer les technologies d’ingénierie des données
Stockage de données – Bases de données non relationnelles
Leçon 02
- Vue d’ensemble des services de stockage Azure
- Démonstration : approvisionnement d’un compte de stockage Azure
- Explorer les options de redondance des données
- Vue d’ensemble d’Azure Blob Storage
- En savoir plus sur les niveaux d’accès au stockage Azure
- Vue d’ensemble d’Azure Table Storage
- Vue d’ensemble d’Azure Queue Storage
- Comprendre le stockage Azure File Share
- Démonstration du stockage Azure File Share
- Stockage de disques Azure et démonstration
- Explorer Cosmos DB et ses différentes fonctionnalités
- Qu’est-ce qu’un Data Lake ?
- Comment Data Lake Gen 2 a évolué
- Azure Blob Storage vs Azure Data Lake
- Explorer les options de sécurité pour Azure Blob et Data Lake
- Haute disponibilité vs reprise après sinistre
- Azure Storage - Options de haute disponibilité et de reprise après sinistre
- Cosmos DB - Options de haute disponibilité et de reprise après sinistre
Stockage de données : bases de données relationnelles
Leçon 03
- Introduction du module
- Fonctionnalités d’Azure SQL
- Découvrez Azure SQL et ses différentes fonctionnalités
- Comprendre la différence entre l’architecture d’entrepôt traditionnelle et moderne
- Qu’est-ce que le service Synapse Analytics ?
- Démo : Créer un pool SQL dédié
- Démo : connecter un pool SQL dédié avec SSMS
- Démo : Créer un espace de travail Azure Synapse Analytics Studio
- Démo : Explorer Synapse Studio
- Démo : créer un pool SQL dédié et un pool Spark
- Démo : analyser des données avec un pool SQL dédié
- Démo : analyser des données avec un notebook Apache Spark
- Démo : analyser des données avec un pool SQL sans serveur
- Démo : Data Factory depuis Synapse Analytics Studio
- Démo : surveiller Synapse Studio
- Découvrez Azure Synapse et ses différentes fonctionnalités
- Comprendre la mise à l’échelle d’un entrepôt de données Azure
- Sauvegarde et restauration Azure SQL Data Warehouse
- Base de données Azure vs entrepôt de données Azure (pool de données Synapse)
- Comment mettre en œuvre le masquage des données
- Apprenez à chiffrer les données au repos et en transit
Traitement par lots
Leçon 04
- Explorer Azure Data Factory et ses fonctionnalités
- Qu’est-ce qu’Azure Databricks ?
- Aperçu de la démo
- Démo : approvisionner Databricks, des clusters et un classeur
- Démo : Monter Data Lake dans le DBFS de Databricks
- Démo : Explorer, analyser, nettoyer, transformer et charger des données dans Databricks
- Découvrir les bases de Spark
- Explorer les clusters Azure Databricks
- Autres composants importants d’Azure Databricks
Analytique en continu
Leçon 05
- Introduction au module
- Qu’est-ce que le traitement d’événements en direct ?
- Présentation d’Azure Stream Analytics (configuration des entrées et des sorties)
- Introduction aux fonctions de fenêtrage
- Qu’est-ce qu’une fenêtre de tumbling ?
- Qu’est-ce qu’une fenêtre glissante (hopping window) ?
- Qu’est-ce que la fenêtre glissante ?
- Qu’est-ce qu’une fenêtre de session ?
- Démo : traitement d’une entrée Blob Storage
- Démo : traitement de l’entrée IoT Hub
Surveiller le stockage des données
Leçon 06
- Introduction au service Azure Monitor
- Démo : service Azure Monitor
- Mise en œuvre de la surveillance du stockage Blob et Data Lake
- Mettre en œuvre la surveillance d’Azure Synapse Analytics
- Mettre en œuvre la surveillance de Cosmos DB
Surveiller le traitement des données
Leçon 07
- Surveiller les pipelines Data Factory
- Surveiller Data Factory - métriques, alertes, paramètres de diagnostic
- Surveiller Azure Databricks
- Surveiller l’analyse de flux
Optimiser les solutions de données Azure
Leçon 08
- Résoudre les goulets d’étranglement liés au partitionnement des données
- Optimiser le stockage du data lake
- Optimiser l’analyse de flux
- Optimiser Azure Synapse Analytics
- Gérer le cycle de vie des données
Concevoir une solution de données Azure
Leçon 09
- Différents types de types de données
- Types de stockage de données
- Sélectionner le magasin Azure pour l’application
- Architecture de la plateforme de données Azure
- Comprendre le RTO et le RPO
- Scénarios - Concevoir une solution avec CosmosDB, Data Lake ou Blob Storage
- Scénarios - Conception pour une base de données SQL vs un entrepôt de données
- Concevoir des solutions de traitement par lots avec Data Factory et DataBricks
- Apprendre les méthodes d’ingestion de données
- Explorer le traitement en temps réel
- Concevoir et fournir des ressources de calcul
- Explorer l’architecture Lambda
- Plan pour des points de terminaison sécurisés (publics/privés)

Qui devrait s’inscrire à ce programme ?
Aspirants ingénieurs data
Architectes de solutions cloud
Développeurs et administrateurs Azure
Les professionnels de la donnée en transition vers les plateformes cloud
Professionnels DevOps et informaticiens travaillant avec des systèmes de données
Professionnels de l’informatique décisionnelle et de l’analytique
Prérequis
- Compréhension de base des formats de données tels que CSV et JSON
- Connaissances fondamentales des bases de données et des concepts de traitement des données
- Il est utile d’avoir des connaissances sur les concepts de l’informatique en nuage
- Expérience avec SQL ou des langages de programmation (facultatif mais avantageux)
Déclarations
Licences et accréditation
Ce cours est proposé conformément à l’Accord du programme partenaire et respecte les exigences de l’Accord de licence.
Politique d’équité
Nous encourageons les candidats à contacter l’AVC pour obtenir des conseils et un accompagnement tout au long du processus d’aménagement.
Foire aux questions

Avez-vous besoin de solutions d’entreprise ou d’une intégration LMS?
Vous n'avez pas trouvé le cours ou le programme adapté à votre entreprise ? Besoin d'une intégration LMS ? Écrivez-nous ! Nous réglerons tout !
