KAFKADEV

Compétences de développeur Confluent pour Apache Kafka®

Les leçons et activités de ce cours permettent aux participants d'acquérir les compétences pour écrire des Producteurs et des Consommateurs, intégrer Kafka avec des systèmes externes en utilisant Kafka Connect, écrire des applications de streaming avec Kafka Streams & ksqlDB, et intégrer une application client Kafka avec Confluent Cloud. Les exercices pratiques suivent l'histoire de la construction et de la mise à niveau d'une application de localisation de conducteurs, appliquant les concepts directement à une application fonctionnelle. Les exercices sont disponibles en Java, C# et Python.

Confluent
Formation officielle ConfluentNiveau Intermédiaire⏱️ 3 jours (21h)

Ce que vous allez apprendre

  • Écrire des Producteurs et des Consommateurs pour envoyer et lire des données de Kafka
  • Intégrer Kafka avec des systèmes externes en utilisant Kafka Connect
  • Écrire des applications de streaming avec Kafka Streams & ksqlDB
  • Intégrer une application client Kafka avec Confluent Cloud

Prérequis

  • Familiarité avec le développement d'applications professionnelles en Java (de préférence), C#, ou Python.
  • Une connaissance pratique de l'architecture Apache Kafka, soit par expérience antérieure, soit en suivant le cours Confluent Fundamentals for Apache Kafka.

Public cible

  • Développeurs d'applications et architectes qui souhaitent écrire des applications interagissant avec Apache Kafka.

Programme de la Formation

9 modules pour maîtriser les fondamentaux

Sujets abordés

  • Écrire du code pour se connecter à un cluster Kafka
  • Distinguer les leaders des suiveurs et travailler avec des répliques
  • Expliquer ce qu'est un segment et explorer la rétention
  • Utiliser la CLI pour travailler avec les topics, les producteurs et les consommateurs

Sujets abordés

  • Décrire le travail d'un producteur et les composants principaux nécessaires pour produire des messages
  • Créer des producteurs et spécifier les propriétés de configuration
  • Expliquer comment configurer les producteurs pour savoir que Kafka a reçu les messages
  • Approfondir le fonctionnement du traitement par lots et explorer ses configurations
  • Explorer la réaction à une livraison échouée et l'ajustement des producteurs avec des délais d'attente
  • Utiliser les API pour Java, C#/.NET ou Python pour créer un Producteur

Sujets abordés

  • Créer et gérer des consommateurs et leurs fichiers de propriétés
  • Illustrer comment les groupes de consommateurs et les partitions offrent scalabilité et tolérance aux pannes
  • Explorer la gestion des offsets des consommateurs
  • Ajuster les requêtes de récupération de données
  • Expliquer comment les groupes de consommateurs sont gérés et leurs avantages
  • Comparer et contraster les stratégies de gestion de groupe et quand utiliser chacune d'elles
  • Utiliser l'API pour Java, C#/.NET ou Python pour créer un Consommateur

Sujets abordés

  • Décrire les schémas Kafka et leur fonctionnement
  • Écrire un schéma compatible Avro et explorer l'utilisation de Protobuf et des schémas JSON
  • Écrire des schémas qui peuvent évoluer
  • Écrire et lire des messages en utilisant des applications client Kafka activées pour les schémas
  • En utilisant Avro, l'API pour Java, C#/.NET ou Python, écrire un producteur ou un consommateur activé pour les schémas qui utilise le Confluent Schema Registry

Sujets abordés

  • Développer une appréciation de ce que les applications de streaming peuvent vous apporter au travail
  • Décrire Kafka Streams et explorer les propriétés et topologies des flux
  • Comparer et contraster les flux et les tables, et relier les événements dans les flux aux enregistrements/messages dans les topics
  • Écrire une application en utilisant le DSL Streams (Domain-Specific Language)

Sujets abordés

  • Décrire les liens entre Kafka Streams et ksqlDB
  • Explorer la CLI de ksqlDB
  • Utiliser ksqlDB pour filtrer et transformer les données
  • Comparer et contraster les types de requêtes ksqlDB
  • Tirer parti de ksqlDB pour effectuer des opérations de flux basées sur le temps
  • Écrire une requête ksqlDB qui relie les données entre deux flux ou un flux et une table

Sujets abordés

  • Lister certains des composants de Kafka Connect et décrire leurs relations
  • Définir les configurations pour les composants de Kafka Connect
  • Décrire l'intégration de Connect et comment les données circulent entre les applications et Kafka
  • Explorer quelques cas d'utilisation où Kafka Connect rend le développement efficace
  • Utiliser Kafka Connect en conjonction avec d'autres outils pour traiter les données en mouvement de la manière la plus efficace
  • Créer un Connecteur et importer des données d'une base de données vers un cluster Kafka

Sujets abordés

  • Approfondir l'impact de la compaction sur les offsets des consommateurs
  • Explorer comment les consommateurs travaillent avec les offsets dans des scénarios hors du comportement de traitement normal et comprendre comment les manipuler pour gérer les anomalies
  • Évaluer les décisions concernant le nombre de consommateurs et de partitions et leurs relations
  • Aborder les décisions découlant du partitionnement par clé par défaut et envisager des stratégies de partitionnement alternatives
  • Configurer les producteurs pour livrer des messages sans doublons et avec des garanties d'ordre
  • Lister des moyens de gérer les messages de grande taille
  • Décrire comment travailler avec des messages dans des transactions et comment Kafka permet les transactions

Sujets abordés

  • Comparer et contraster les options de gestion des erreurs avec Kafka Connect, y compris la file d'attente de lettres mortes
  • Distinguer les différentes catégories de tests
  • Lister les considérations pour les tests de stress et de charge d'un système Kafka

Processus Qualité

L'engagement de SFEIR Institute : une démarche d'excellence pour garantir la qualité et la réussite de toutes nos formations. En savoir plus sur notre démarche qualité

Méthodes pédagogiques mobilisées
  • Lectures / Apports théoriques (Slides)Présentation de concepts via des supports visuels (PowerPoint, PDF).
  • Démonstration technique (Démos)Le formateur réalise une manipulation ou une procédure devant les apprenants.
  • Laboratoires dirigés (Labs)Mise en pratique guidée sur logiciel, machine ou environnement technique.
Dispositif d'évaluation et de suivi

L'atteinte des objectifs de la formation est évaluée à plusieurs niveaux pour garantir la qualité de la prestation :

  • Évaluation continue des acquis : Vérification des connaissances tout au long de la formation via des méthodes participatives (en fonction de la formation: quiz, exercices pratiques, mises en situation) sous la supervision du formateur.
  • Mesure de la progression : Dispositif d'auto-évaluation comparatif comprenant un diagnostic initial pour situer le niveau de départ, suivi d'une évaluation finale pour valider l'évolution des compétences.
  • Évaluation de la qualité : Questionnaire de satisfaction en fin de session pour mesurer la pertinence et l'efficacité de la formation ressentie par les participants.

Prochaines sessions

4 février 2026
Distanciel • Français
S'inscrire
8 juillet 2026
Distanciel • Français
S'inscrire
4 novembre 2026
Distanciel • Français
S'inscrire

2 100HT

par apprenant