Learning Course is designed to support learners. When you make a purchase through one of our links, we may receive an affiliate commission.

Pratique pour l’examen | Ingénierie des données Azure DP-203

Overview

Afin de définir des attentes réalistes, veuillez noter : Ces questions ne sont PAS des questions officielles que vous trouverez sur l’examen officiel. Ces questions couvrent tout le matériel décrit dans les sections de connaissances ci-dessous. Beaucoup de questions sont basées sur des scénarios fictifs qui contiennent des questions posées.

Les exigences de connaissances officielles pour l’examen sont revues régulièrement pour s’assurer que le contenu a les dernières exigences incorporées dans les questions pratiques. Les mises à jour du contenu sont souvent effectuées sans notification préalable et peuvent être modifiées à tout moment.

Beaucoup de questions ont à la fois le terme anglais et la traduction française car plusieurs termes et fonctions de Microsoft sont en anglais. De cette façon, vous serez en mesure de reconnaître les composants que vous rencontrerez dans Microsoft.

Chaque question a une explication détaillée et des liens vers des documents de référence pour soutenir les réponses qui garantissent l’exactitude des solutions aux problèmes.

L’ordre des questions sera changé chaque fois que vous répéterez les tests. Vous aurez donc besoin de savoir pourquoi une réponse est correcte, et pas seulement que la réponse correcte était l’item “B” la dernière fois que vous avez passé le test.

REMARQUE : Ce cours ne doit pas être votre seul matériel d’étude pour vous préparer à l’examen officiel. Ces tests pratiques sont destinés à compléter le matériel d’étude de sujet.

Si vous rencontrez du contenu qui nécessite votre attention, veuillez envoyer un message avec une capture d’écran du contenu qui nécessite votre attention et je serai examiné dans les plus brefs délais. Le fait de fournir le numéro du test et de la question n’identifie pas les questions, car les questions changent à chaque fois qu’elles sont exécutées. Les numéros de questions sont différents pour chacun.

En tant que candidat à cet examen, vous devez posséder une expertise en la matière dans l’intégration, la transformation et la consolidation de données provenant de divers systèmes de données structurées, non structurées et en streaming dans un schéma approprié pour créer des solutions d’analyse.

En tant qu’ingénieur de données Azure, vous aidez les parties prenantes à comprendre les données grâce à l’exploration, et à créer et maintenir des pipelines de traitement de données sécurisés et conformes en utilisant différents outils et techniques. Vous utilisez divers services et frameworks de données Azure pour stocker et produire des ensembles de données nettoyés et améliorés à des fins d’analyse. Ce magasin de données peut être conçu avec différents modèles d’architecture en fonction des exigences de l’entreprise, notamment :

  • Entrepôt de données de gestion (MDW)

  • Big Data

  • Architecture de Lakehouse

En tant qu’ingénieur de données Azure, vous contribuez également à garantir que l’opérationnalisation des pipelines de données et des magasins de données est performante, efficace, organisée et fiable, compte tenu d’un ensemble d’exigences et de contraintes commerciales. Vous aidez à identifier et à résoudre les problèmes opérationnels et de qualité des données. Vous concevez, mettez en œuvre, surveillez et optimisez également les plateformes de données pour répondre aux pipelines de données.

En tant que candidat à cet examen, vous devez avoir de solides connaissances des langages informatiques, notamment :

  • SQL

  • Python

  • Échelle

Vous devez comprendre les modèles de traitement parallèle et d’architecture de données. Vous devez maîtriser les éléments suivants pour créer des solutions de traitement de données :

  • Usine de données Azure

  • Azure Synapse Analytics

  • Azure Stream Analytics

  • Centres d’événements Azure

  • Stockage Azure Data Lake

  • Azure Databricks

Compétences en un coup d’œil

  • Concevoir et mettre en œuvre le stockage de données (15 à 20 %)

  • Développer le traitement des données (40-45%)

  • Sécurisez, surveillez et optimisez le stockage et le traitement des données (30 à 35 %)

Concevoir et mettre en œuvre le stockage de données (15 à 20 %)

Mettre en œuvre une stratégie de partition

  • Implémenter une stratégie de partitionnement pour les fichiers

  • Mettre en œuvre une stratégie de partitionnement pour les charges de travail analytiques

  • Mettre en œuvre une stratégie de partition pour les charges de travail en streaming

  • Implémenter une stratégie de partition pour Azure Synapse Analytics

  • Identifiez quand le partitionnement est nécessaire dans Azure Data Lake Storage Gen2

Concevoir et mettre en œuvre la couche d’exploration des données

  • Créez et exécutez des requêtes à l’aide d’une solution de calcul qui exploite SQL sans serveur et le cluster Spark.

  • Recommander et implémenter des modèles de base de données Azure Synapse Analytics

  • Transférer le lignage de données nouveau ou mis à jour vers Microsoft Purview

  • Parcourir et rechercher des métadonnées dans Microsoft Purview Data Catalog

Développer le traitement des données (40-45%)

Ingérer et transformer des données

  • Concevoir et mettre en œuvre des charges incrémentielles

  • Transformez les données à l’aide d’Apache Spark

  • Transformez les données à l’aide de Transact-SQL (T-SQL) dans Azure Synapse Analytics

  • Ingérer et transformer des données à l’aide d’Azure Synapse Pipelines ou d’Azure Data Factory

  • Transformez les données à l’aide d’Azure Stream Analytics

  • Nettoyer les données

  • Gérer les données en double

  • Éviter les données en double en utilisant Azure Stream Analytics Exactly Once Delivery

  • Gérer les données manquantes

  • Gérer les données arrivant tardivement

  • Fractionner les données

  • Détruire JSON

  • Encoder et décoder les données

  • Configurer la gestion des erreurs pour une transformation

  • Normaliser et dénormaliser les données

  • Effectuer une analyse exploratoire des données

Développer une solution de traitement par lots

  • Développer des solutions de traitement par lots à l’aide d’Azure Data Lake Storage, Azure Databricks, Azure Synapse Analytics et Azure Data Factory

  • Utilisez PolyBase pour charger des données dans un pool SQL

  • Implémentez Azure Synapse Link et interrogez les données répliquées

  • Créer des pipelines de données

  • Faire évoluer les ressources

  • Configurer la taille du lot

  • Créer des tests pour les pipelines de données

  • Intégrez des notebooks Jupyter ou Python dans un pipeline de données

  • Insérer des données

  • Remettre les données à un état antérieur

  • Configurer la gestion des exceptions

  • Configurer la conservation des lots

  • Lire et écrire dans un lac delta

Développer une solution de traitement de flux

  • Créez une solution de traitement de flux à l’aide de Stream Analytics et Azure Event Hubs

  • Traiter les données à l’aide du streaming structuré Spark

  • Créer des agrégats fenêtrés

  • Gérer la dérive du schéma

  • Traiter les données de séries chronologiques

  • Traiter les données sur plusieurs partitions

  • Traiter dans une partition

  • Configurer les points de contrôle et le filigrane pendant le traitement

  • Faire évoluer les ressources

  • Créer des tests pour les pipelines de données

  • Optimiser les pipelines à des fins analytiques ou transactionnelles

  • Gérer les interruptions

  • Configurer la gestion des exceptions

  • Insérer des données

  • Relire les données de flux archivées

Gérer les lots et les pipelines

  • Déclencher des lots

  • Gérer les chargements par lots ayant échoué

  • Valider les chargements par lots

  • Gérer les pipelines de données dans Azure Data Factory ou Azure Synapse Pipelines

  • Planifier des pipelines de données dans Data Factory ou Azure Synapse Pipelines

  • Implémenter le contrôle de version pour les artefacts de pipeline

  • Gérer les tâches Spark dans un pipeline

Sécurisez, surveillez et optimisez le stockage et le traitement des données (30 à 35 %)

Mettre en œuvre la sécurité des données

  • Implémenter le masquage des données

  • Chiffrer les données au repos et en mouvement

  • Implémenter la sécurité au niveau des lignes et des colonnes

  • Implémenter le contrôle d’accès en fonction du rôle Azure (RBAC)

  • Implémenter des listes de contrôle d’accès (ACL) de type POSIX pour Data Lake Storage Gen2

  • Mettre en œuvre une politique de conservation des données

  • Mettre en œuvre des points de terminaison sécurisés (privés et publics)

  • Implémenter des jetons de ressources dans Azure Databricks

  • Charger un DataFrame avec des informations sensibles

  • Écrivez des données cryptées dans des tables ou des fichiers Parquet

  • Gérer les informations sensibles

Surveiller le stockage et le traitement des données

  • Implémenter la journalisation utilisée par Azure Monitor

  • Configurer les services de surveillance

  • Surveiller le traitement du flux

  • Mesurer les performances du mouvement des données

  • Surveiller et mettre à jour les statistiques sur les données dans un système

  • Surveiller les performances du pipeline de données

  • Mesurer les performances des requêtes

  • Planifier et surveiller les tests de pipeline

  • Interpréter les métriques et les journaux Azure Monitor

  • Mettre en œuvre une stratégie d’alerte pipeline

Optimiser et dépanner le stockage et le traitement des données

  • Compacter les petits fichiers

  • Gérer les biais dans les données

  • Gérer le déversement de données

  • Optimiser la gestion des ressources

  • Ajustez les requêtes à l’aide d’indexeurs

  • Ajuster les requêtes à l’aide du cache

  • Dépanner une tâche Spark ayant échoué

  • Dépanner une exécution de pipeline ayant échoué, y compris les activités exécutées dans des services externes

Pratique pour l'examen | Ingénierie des données Azure DP-203

Reviews

John Doe
John Doe@username
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Ut elit tellus, luctus nec ullamcorper mattis, pulvinar dapibus leo.
John Doe
John Doe@username
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Ut elit tellus, luctus nec ullamcorper mattis, pulvinar dapibus leo.
John Doe
John Doe@username
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Ut elit tellus, luctus nec ullamcorper mattis, pulvinar dapibus leo.
Scroll to Top