GCP100DE

Introduction à l'ingénierie des données sur Google Cloud

Dans ce cours, vous découvrirez l'ingénierie des données sur Google Cloud, les rôles et responsabilités des ingénieurs de données, et comment ceux-ci correspondent aux offres fournies par Google Cloud. Vous apprendrez également des manières de relever les défis de l'ingénierie des données.

Google Cloud
Formation officielle Google CloudNiveau Introduction⏱️ 1 jour (7h)

Ce que vous allez apprendre

  • Comprendre le rôle d'un ingénieur de données.
  • Identifier les tâches d'ingénierie des données et les composants principaux utilisés sur Google Cloud.
  • Comprendre comment créer et déployer des pipelines de données de divers modèles sur Google Cloud.
  • Identifier et utiliser diverses techniques d'automatisation sur Google Cloud.

Prérequis

  • Expérience préalable de Google Cloud au niveau fondamental en utilisant Cloud Shell et en accédant aux produits depuis la console Google Cloud.
  • Maîtrise de base d'un langage de requête courant tel que SQL.
  • Expérience de la modélisation de données et des activités ETL (extraire, transformer, charger).
  • Expérience du développement d'applications à l'aide d'un langage de programmation courant tel que Python.

Public cible

  • Ingénieurs de données, Administrateurs de bases de données, Administrateurs système

Programme de la Formation

6 modules pour maîtriser les fondamentaux

Objectifs
  • Expliquer le rôle d'un ingénieur de données.
  • Comprendre les différences entre une source de données et un récepteur de données.
  • Expliquer les différents types de formats de données.
  • Expliquer les options de solution de stockage sur Google Cloud.
  • Apprendre les options de gestion des métadonnées sur Google Cloud.
  • Comprendre comment partager facilement des ensembles de données avec Analytics Hub.
  • Comprendre comment charger des données dans BigQuery en utilisant la console Google Cloud ou la CLI gcloud.
Sujets abordés
  • Le rôle d'un ingénieur de données
  • Sources de données versus récepteurs de données
  • Formats de données
  • Options de solution de stockage sur Google Cloud
  • Options de gestion des métadonnées sur Google Cloud
  • Partage d'ensembles de données avec Analytics Hub
Activités

Lab : Chargement de données dans BigQuery

Quiz

Objectifs
  • Expliquer l'architecture de base de réplication et de migration de données de Google Cloud.
  • Comprendre les options et les cas d'utilisation de l'outil de ligne de commande gcloud.
  • Expliquer la fonctionnalité et les cas d'utilisation du Service de transfert de stockage.
  • Expliquer la fonctionnalité et les cas d'utilisation de Transfer Appliance.
  • Comprendre les fonctionnalités et le déploiement de Datastream.
Sujets abordés
  • Architecture de réplication et de migration
  • L'outil de ligne de commande gcloud
  • Déplacement d'ensembles de données
  • Datastream
Activités

Lab : Datastream : Réplication de PostgreSQL vers BigQuery (optionnel pour ILT)

Quiz

Objectifs
  • Expliquer le diagramme d'architecture de base d'extraction et de chargement.
  • Comprendre les options de l'outil de ligne de commande bq.
  • Expliquer la fonctionnalité et les cas d'utilisation du Service de transfert de données BigQuery.
  • Expliquer la fonctionnalité et les cas d'utilisation de BigLake en tant que modèle sans extraction-chargement.
Sujets abordés
  • Architecture d'extraction et de chargement
  • L'outil de ligne de commande bq
  • Service de transfert de données BigQuery
  • BigLake
Activités

Lab : BigLake : Démarrage rapide

Quiz

Objectifs
  • Expliquer le diagramme d'architecture de base d'extraction, de chargement et de transformation.
  • Comprendre un pipeline ELT courant sur Google Cloud.
  • Apprendre les capacités de scripting SQL et de planification de BigQuery.
  • Expliquer la fonctionnalité et les cas d'utilisation de Dataform.
Sujets abordés
  • Architecture d'extraction, de chargement et de transformation (ELT)
  • Scripting SQL et planification avec BigQuery
  • Dataform
Activités

Lab : Créer et exécuter un flux de travail SQL dans Dataform

Quiz

Objectifs
  • Expliquer le diagramme d'architecture de base d'extraction, de transformation et de chargement.
  • Apprendre les outils graphiques de Google Cloud utilisés pour les pipelines de données ETL.
  • Expliquer le traitement de données par lots avec Dataproc.
  • Apprendre à utiliser Dataproc Serverless pour Spark pour l'ETL.
  • Expliquer les options de traitement de données en continu.
  • Expliquer le rôle que joue Bigtable dans les pipelines de données.
Sujets abordés
  • Architecture d'extraction, de transformation et de chargement (ETL)
  • Outils graphiques de Google Cloud pour les pipelines de données ETL
  • Traitement de données par lots avec Dataproc
  • Options de traitement de données en continu
  • Bigtable et les pipelines de données
Activités

Lab : Utiliser Dataproc Serverless pour Spark pour charger BigQuery (optionnel pour ILT)

Lab : Création d'un pipeline de données en continu pour un tableau de bord en temps réel avec Dataflow

Quiz

Objectifs
  • Expliquer les modèles et les options d'automatisation disponibles pour les pipelines.
  • Apprendre sur Cloud Scheduler et Workflows.
  • Apprendre sur Cloud Composer.
  • Apprendre sur les fonctions Cloud Run.
  • Expliquer la fonctionnalité et les cas d'utilisation d'automatisation pour Eventarc.
Sujets abordés
  • Modèles et options d'automatisation pour les pipelines
  • Cloud Scheduler et Workflows
  • Cloud Composer
  • Cloud Run Functions
  • Eventarc
Activités

Lab : Utiliser les fonctions Cloud Run pour charger BigQuery (optionnel pour ILT)

Quiz

Formations associées

SFEIR Institute
Best

dbt

Apprenez à transformer vos données avec dbt, l'outil de référence du Modern Data Stack. Vous commencerez par comprendre l'évolution des architectures data et la différence entre ETL et ELT. Vous installerez dbt, créerez votre premier projet et le connecterez à vos sources de données. Vous apprendrez ensuite à construire des modèles de données structurés, à choisir les bonnes options de matérialisation (table, view, incremental) et à organiser vos métadonnées avec les tags. Vous découvrirez comment référencer vos sources et gérer les dépendances entre modèles. Vous explorerez les fonctionnalités avancées : seeds pour initialiser vos données de référence, snapshots pour suivre l'historique et gérer les dimensions à évolution lente, macros Jinja et variables pour automatiser vos transformations. Enfin, vous mettrez en place des tests automatisés pour garantir la qualité de vos données, documenterez vos modèles avec le lineage, et découvrirez les packages de la communauté dbt. Formation pratique avec 60% de labs.

2 j
Fondamental
Google Cloud

Introduction à l'Analyse de Données sur Google Cloud

Ce cours est une introduction à l'analyse de données sur Google Cloud. Il est conçu pour les apprenants qui n'ont aucune expérience préalable de l'analyse de données ou de Google Cloud. Le cours couvre les bases de l'analyse de données, y compris la collecte, le stockage, l'exploration, la visualisation et le partage. Il présente également aux apprenants les outils et services d'analyse de données de Google Cloud. À travers des conférences vidéo, des démos, des quiz et des travaux pratiques, le cours montre comment passer des données brutes à des visualisations et des tableaux de bord percutants.

1 j
Fondamental

Prochaines sessions

31 mars 2026
Distanciel • Français
S'inscrire
21 avril 2026
Distanciel • Français
S'inscrire
29 mai 2026
Distanciel • Français
S'inscrire
25 juin 2026
Distanciel • Français
S'inscrire
31 juillet 2026
Distanciel • Français
S'inscrire
27 août 2026
Distanciel • Français
S'inscrire
30 septembre 2026
Distanciel • Français
S'inscrire
22 octobre 2026
Distanciel • Français
S'inscrire
27 novembre 2026
Distanciel • Français
S'inscrire
10 décembre 2026
Distanciel • Français
S'inscrire

Processus Qualité

L'engagement de SFEIR Institute : une démarche d'excellence pour garantir la qualité et la réussite de toutes nos formations. En savoir plus sur notre démarche qualité

Méthodes pédagogiques mobilisées
  • Lectures / Apports théoriques (Slides)Présentation de concepts via des supports visuels (PowerPoint, PDF).
  • Démonstration technique (Démos)Le formateur réalise une manipulation ou une procédure devant les apprenants.
  • Laboratoires dirigés (Labs)Mise en pratique guidée sur logiciel, machine ou environnement technique.
  • Quiz / QCMTest rapide de connaissances (format papier ou numérique type Kahoot/Klaxoon).
Dispositif d'évaluation et de suivi

L'atteinte des objectifs de la formation est évaluée à plusieurs niveaux pour garantir la qualité de la prestation :

  • Évaluation continue des acquis : Vérification des connaissances tout au long de la formation via des méthodes participatives (en fonction de la formation: quiz, exercices pratiques, mises en situation) sous la supervision du formateur.
  • Mesure de la progression : Dispositif d'auto-évaluation comparatif comprenant un diagnostic initial pour situer le niveau de départ, suivi d'une évaluation finale pour valider l'évolution des compétences.
  • Évaluation de la qualité : Questionnaire de satisfaction en fin de session pour mesurer la pertinence et l'efficacité de la formation ressentie par les participants.

790€ HT

par apprenant