Présentation du cours
Dans ce cours, vous allez créer une solution d’analyse de données à l’aide d’Amazon Redshift, un service d’entrepôt de données cloud. Le cours se concentre sur les composants de collecte, d’ingestion, de catalogage, de stockage et de traitement des données du pipeline d’analyse. Vous apprendrez à intégrer Amazon Redshift à un lac de données pour prendre en charge à la fois les charges de travail d’analyse et d’apprentissage automatique. Vous apprendrez également à appliquer les bonnes pratiques en matière de sécurité, de performances et de gestion des coûts au fonctionnement d’Amazon Redshift.
Objectifs pédagogiques
- Comparer les fonctionnalités et les avantages des entrepôts de données, des lacs de données et des architectures de données modernes
- Concevoir et mettre en œuvre une solution d’analyse d’entrepôt de données
- Identifier et appliquer les techniques appropriées, y compris la compression, pour optimiser le stockage des données
- Sélectionner et déployer les options appropriées pour ingérer, transformer et stocker des données
- Choisi les types d’instance et de nœud, les clusters, la mise à l’échelle automatique et la topologie de réseau appropriés pour un cas d’utilisation métier particulier
- Comprendre comment le stockage et le traitement des données affectent les mécanismes d’analyse et de visualisation nécessaires pour obtenir des informations commerciales exploitables
- Sécuriser les données au repos et en transit
- Surveiller les charges de travail analytiques pour identifier et résoudre les problèmes
- Appliquer les meilleures pratiques de gestion des coûts
Public cible
- Ingénieurs d’entrepôt de données
- Ingénieurs de plate-forme de données
- Architectes et opérateurs qui créent et gèrent des pipelines d’analyse de données
Prérequis
Les participants ayant au moins un an d’expérience dans la gestion d’entrepôts de données bénéficieront de ce cours.
Nous recommandons aux participants de ce cours d’avoir suivi les formations :
- AWS Cloud Practitioner Essentials ou AWS Technical Essentials
- Building Data Lakes on AWS
Programme
Module A : Présentation de l’analyse des données et du pipeline de données
- Cas d’utilisation de l’analyse de données
- Utilisation du pipeline de données pour l’analyse
Module 1 : Utilisation d’Amazon Redshift dans le pipeline d’analyse de données
- Pourquoi Amazon Redshift pour l’entreposage de données ?
- Présentation d’Amazon Redshift
Module 2 : Présentation d’Amazon Redshift
- Architecture Amazon Redshift
- Démo interactive 1 : Visite de la console Amazon Redshift
- Fonctionnalités Amazon Redshift
- Mise en pratique : Charger et interroger des données dans un cluster Amazon Redshift
Module 3 : Ingestion et stockage
- Ingestion
- Distribution et stockage des données
- Interroger des données dans Amazon Redshift
- Mise en pratique : Analyse de données à l’aide d’Amazon Redshift Spectrum
Module 4 : Traitement et optimisation des données
- Transformation des données
- Interrogation avancée
- La gestion des ressources
- Automatisation et optimisation
- Mise en pratique : Transformation et interrogation des données dans Amazon Redshift
Module 5 : Sécurité et surveillance des clusters Amazon Redshift
- Sécurisation du cluster Amazon Redshift
- Surveillance et dépannage des clusters Amazon Redshift
Module 6 : Conception de solutions d’analyse d’entrepôt de données
- Revue de cas d’utilisation de l’entrepôt de données
- Activité : Conception d’un workflow d’analyse d’entrepôt de données
Module B : Développement d’architectures de données modernes sur AWS
- Architectures de données modernes
Nos sessions de formations
Ce cours vous intéresse ?
Demandez un devis
personnalisée ? Contactez-nous