☀️ C'est l'été chez ITTA ! Profitez de 10% de réduction jusqu'au 31 juillet sur une sélection de formations 🌴

Formation : Implémenter une solution engineering données avec Azure Databricks (DP-3027)

Ref. DP-3027
Durée :
1
 jour
Examen :
Non certifiant
Niveau :
Intermédiaire

Implémenter une solution engineering données avec Azure Databricks (DP-3027)

Maîtrisez le traitement de données avec Azure Databricks

Azure Databricks devient un pilier essentiel dans l’univers de la data engineering moderne. Grâce à sa puissance, sa flexibilité et ses outils intégrés, cette plateforme vous permet de traiter de grands volumes de données en toute efficacité. Cette formation DP-3027 vous offre une maîtrise complète des pipelines de données dans le cloud, à travers des cas concrets et des modules progressifs.

Une formation pratique pour les ingénieurs data d’aujourd’hui

Ce cours a été conçu pour répondre aux besoins réels des professionnels de la donnée. Vous y apprendrez à mettre en place des solutions d’ingénierie robustes, à automatiser les flux de travail et à garantir la qualité des données en production. Les modules couvrent l’ensemble du cycle de vie des pipelines, du traitement en temps réel avec Spark Structured Streaming jusqu’à l’implémentation de workflows CI/CD, en passant par l’automatisation via Azure Data Factory.

Profils des Participants

  • Ingénieur Data
  • Développeur Big Data
  • Architecte Cloud
  • Consultant Data
  • Administrateur Azure
  • Responsable BI

Objectifs

  • Créer des flux de données en temps réel
  • Construire des architectures avec Delta Live Tables
  • Améliorer la performance des traitements
  • Déployer des workflows CI/CD dans Databricks
  • Automatiser les tâches avec Azure Data Factory
  • Sécuriser et gouverner les données
  • Utiliser les entrepôts SQL dans Databricks
  • Exécuter des notebooks depuis Azure Data Factory

Connaissances Préalables

  • Savoir utiliser un ordinateur
  • Comprendre les bases du cloud

Contenu du Cours

Module 1 : Effectuer un traitement incrémentiel avec Spark Structured Streaming

  • Configurer des sources de données en temps réel pour le traitement incrémentiel
  • Optimiser Delta Lake pour le traitement incrémentiel dans Azure Databricks
  • Gérer les données tardives et les événements non ordonnés dans le traitement incrémentiel
  • Stratégies de monitoring et de réglage des performances pour le traitement incrémentiel dans Azure Databricks

Module 2 : Implémenter des modèles d’architecture de diffusion en continu avec Delta Live Tables

  • Architectures pilotées par les événements avec des tables Delta Live
  • Ingérer des données avec le streaming structuré
  • Maintenir la cohérence et la fiabilité des données avec la diffusion en continu structurée
  • Mettre à l’échelle des charges de travail de streaming avec des tables Delta Live

Module 3 : Optimiser les performances avec Spark et Delta Live Tables

  • Optimiser les performances avec Spark et Delta Live Tables
  • Effectuer l’optimisation basée sur les coûts et le réglage des requêtes
  • Utiliser la capture des changements de données (CDC)
  • Utiliser la mise à l’échelle automatique améliorée
  • Implémenter des métriques d’observabilité et de qualité des données

Module 4 : Implémenter des workflows d’intégration continue et livraison continue (CI/CD) dans Azure Databricks

  • Implémenter la gestion de version et l’intégration Git
  • Effectuer des tests d’intégration et des tests unitaires
  • Gérer et configurer votre environnement
  • Implémenter des stratégies de restauration et de restauration par progression

Module 5 : Automatiser des charges de travail avec des travaux Azure Databricks

  • Implémenter la planification et l’automatisation de travaux
  • Optimiser les workflows avec des paramètres
  • Traiter la gestion des dépendances
  • Implémenter la gestion des erreurs et les mécanismes de nouvelle tentative
  • Découvrir les règles et meilleures pratiques

Module 6 : Gérer la confidentialité et la gouvernance des données avec Azure Databricks

  • Mettre en œuvre des techniques de chiffrement de données dans Azure Databricks
  • Gérer les contrôles d’accès dans Azure Databricks
  • Mettre en œuvre le masquage des données et l’anonymisation dans Azure Databricks
  • Utiliser le partage de données sécurisé et les infrastructures de conformité dans Azure Databricks
  • Utiliser la gestion des métadonnées et la traçabilité des données
  • Mettre en œuvre l’automatisation de la gouvernance dans Azure Databricks

Module 7 : Utiliser des entrepôts SQL dans Azure Databricks

  • Prise en main de SQL Warehouses
  • Créer des bases de données et des tables
  • Créer des requêtes et des tableaux de bord

Module 8 : Exécuter des notebooks Azure Databricks avec Azure Data Factory

  • Comprendre les notebooks et pipelines Azure Databricks
  • Créer un service lié pour Azure Databricks
  • Utiliser une activité Notebook dans un pipeline
  • Utiliser des paramètres dans un carnet

Documentation

  • Accès à Microsoft Learn, la plateforme d’apprentissage en ligne Microsoft, offrant des ressources interactives et des contenus pédagogiques pour approfondir vos connaissances et développer vos compétences techniques.

Lab / Exercices

  • Ce cours vous donne un accès exclusif au laboratoire officiel Microsoft, vous permettant de mettre en pratique vos compétences dans un environnement professionnel.

Cours complémentaires

Informations Additionnelles

Automatiser et sécuriser les flux de données avec Azure Databricks

Dans un contexte où les volumes de données explosent, maîtriser l’ingénierie des données devient stratégique pour toute entreprise. Azure Databricks propose une solution robuste et évolutive, conçue pour orchestrer, traiter et surveiller efficacement les pipelines de données. Cette formation vous accompagne dans la mise en œuvre d’architectures data modernes, en s’appuyant sur les meilleures pratiques de la plateforme.

Vous apprendrez à industrialiser vos flux de données, en utilisant des outils puissants comme Delta Lake, les Delta Live Tables ou les entrepôts SQL. L’objectif est simple : permettre à vos équipes de gagner en efficacité tout en assurant la qualité, la traçabilité et la sécurité des traitements. Que vous souhaitiez automatiser des flux, gérer des environnements complexes ou garantir la conformité de vos données, ce parcours est structuré pour répondre à ces enjeux.

De l’intégration continue à la gouvernance des données

Au-delà de la simple ingestion de données, cette formation vous permet d’intégrer des pratiques professionnelles solides. Vous découvrirez comment mettre en place un cycle de développement fluide avec des workflows CI/CD, versionner vos notebooks, automatiser les tests et gérer des environnements multiples. Ce volet est essentiel pour toute organisation qui souhaite livrer des projets data en production avec sérénité.

La sécurité et la gouvernance sont également des piliers du programme. Grâce à Unity Catalog, vous apprendrez à tracer les accès, définir des règles de confidentialité, chiffrer les données sensibles ou encore anonymiser certaines colonnes. Ces pratiques répondent aux exigences de conformité actuelles et renforcent la confiance dans vos traitements analytiques.

Exploiter la puissance des traitements temps réel

La capacité à traiter des données dès leur arrivée constitue un avantage compétitif décisif. Azure Databricks vous donne les moyens de construire des pipelines en streaming capables de répondre à cette exigence. Vous apprendrez à configurer des sources de données temps réel, à anticiper les événements non ordonnés ou les arrivées tardives, et à maintenir la cohérence des résultats.

En parallèle, l’optimisation de la performance occupe une place centrale dans cette formation. Vous serez en mesure de surveiller les traitements, ajuster les coûts d’exécution, utiliser la mise à l’échelle automatique ou encore capturer les changements de données pour synchroniser vos systèmes plus efficacement.

Une approche concrète et progressive

Cette formation a été pensée pour allier clarté, montée en compétences et application concrète. Chaque module introduit de nouvelles fonctionnalités tout en consolidant les bases vues précédemment. Même sans connaissances préalables en data engineering, vous pourrez suivre le parcours de manière fluide grâce à des démonstrations, des exercices guidés et des cas concrets inspirés du terrain.

Vous aurez ainsi une vision globale mais aussi détaillée de ce que permet Azure Databricks aujourd’hui : du traitement en batch à la diffusion en temps réel, de la gestion de la qualité à la livraison continue, en passant par l’automatisation et la sécurité. Ce socle de compétences vous permettra de concevoir des solutions performantes, durables et adaptées aux besoins métiers.

FAQ

Faut-il avoir de l’expérience en data engineering ?

Non, ce cours est conçu pour les débutants motivés. Quelques notions de cloud sont un plus.

Peut-on suivre la formation sans connaissance de Spark ?

Oui, les concepts sont introduits de manière progressive avec des exemples concrets.

Y a-t-il des exercices pratiques ?

Oui, chaque module inclut des mises en situation pour vous entraîner en autonomie.

Quelles compétences concrètes vais-je acquérir ?

Vous saurez créer des pipelines en streaming, automatiser des workflows, sécuriser des données et déployer en production.

Est-ce que cette formation donne un badge ?

Oui, un badge de réussite est délivré en fin de parcours pour valoriser vos acquis.

Prix de l'inscription
CHF 850.-
Inclus dans ce cours
  • Formation dispensée par un formateur certifié
  • 180 jours d’accès aux labs Officiels Microsoft
  • Documentation Officielle au format digital
  • Badge de réussite Officiel Microsoft
Mois actuel

lun21juil09:00lun17:00VirtuelVirtuel Etiquettes de sessionDP-3027

lun21juil09:00lun17:00Genève, Route des Jeunes 35, 1227 Carouge Etiquettes de sessionDP-3027

lun25Aoû09:00lun17:00VirtuelVirtuel Etiquettes de sessionDP-3027

lun25Aoû09:00lun17:00Lausanne, Avenue Mon repos 24, 1005 Lausanne Etiquettes de sessionDP-3027

lun29Sep09:00lun17:00VirtuelVirtuel Etiquettes de sessionDP-3027

lun29Sep09:00lun17:00Genève, Route des Jeunes 35, 1227 Carouge Etiquettes de sessionDP-3027

lun03Nov09:00lun17:00VirtuelVirtuel Etiquettes de sessionDP-3027

lun03Nov09:00lun17:00Lausanne, Avenue Mon repos 24, 1005 Lausanne Etiquettes de sessionDP-3027

Contact

ITTA
Route des jeunes 35
1227 Carouge, Suisse

Horaires d’ouverture

Du lundi au vendredi

de 8h30 à 18h00

Tél. 058 307 73 00

Contactez-Nous

ITTA
Route des jeunes 35
1227 Carouge, Suisse

Faire une demande

Opening hours

Monday to Friday
8:30 AM to 6:00 PM
Tel. 058 307 73 00

Contact-us

ITTA
Route des jeunes 35
1227 Carouge, Suisse

Make a request