GCP300GENAIPROD

IA Générative en Production

Dans ce cours, vous découvrirez les différents défis qui surviennent lors de la mise en production d'applications basées sur l'IA générative par rapport au ML traditionnel. Vous apprendrez à gérer l'expérimentation et l'ajustement de vos LLMs, puis vous discuterez de la manière de déployer, tester et maintenir vos applications basées sur les LLMs. Enfin, vous aborderez les meilleures pratiques pour la journalisation et la surveillance de vos applications basées sur les LLMs en production.

Google Cloud
Formation officielle Google CloudNiveau Intermédiaire⏱️ 1 jour (7h)

Ce que vous allez apprendre

  • Décrire les défis de la mise en production d'applications utilisant l'IA générative.
  • Gérer l'expérimentation et l'évaluation pour les applications basées sur les LLMs.
  • Mettre en production des applications basées sur les LLMs.
  • Implémenter la journalisation et la surveillance pour les applications basées sur les LLMs.

Prérequis

  • Avoir suivi la formation "Introduction to Developer Efficiency on Google Cloud" ou posséder des connaissances équivalentes.

Public cible

  • Développeurs et ingénieurs en apprentissage automatique qui souhaitent opérationnaliser des applications basées sur l'IA Générative

Programme de la Formation

4 modules pour maîtriser les fondamentaux

Objectifs

  • Comprendre les opérations de l'IA générative
  • Comparer le MLOps traditionnel et le GenAIOps
  • Analyser les composants d'un système LLM

Sujets abordés

  • Démo du système d'IA : Café sur Roues
  • MLOps traditionnel vs. GenAIOps
  • Opérations de l'IA Générative
  • Composants d'un système LLM

Objectifs

  • Expérimenter avec des jeux de données et l'ingénierie des prompts.
  • Utiliser l'architecture RAG et ReACT.
  • Évaluer les modèles LLM.
  • Suivre les expériences.

Sujets abordés

  • Jeux de données et Ingénierie des Prompts
  • Architecture RAG et ReACT
  • Évaluation des modèles LLM (métriques et framework)
  • Suivi des Expériences

Activités

Lab : Test unitaire d'applications d'IA Générative

Lab optionnel : IA Générative avec Vertex AI : Conception de Prompts

Objectifs

  • Déployer, empaqueter et versionner les modèles
  • Tester les systèmes LLM
  • Maintenir et mettre à jour les modèles LLM
  • Gérer la sécurité et la migration des prompts

Sujets abordés

  • Déploiement, empaquetage et gestion des versions (GenAIOps)
  • Test des systèmes LLM (unitaire et intégration)
  • Maintenance et mises à jour (opérations)
  • Sécurité et migration des prompts

Activités

Lab : Vertex AI Pipelines : Démarrage Rapide

Lab : Sécurisation avec l'API Vertex AI Gemini

Objectifs

  • Utiliser Cloud Logging
  • Versionner, évaluer et généraliser les prompts
  • Surveiller l'écart entre l'évaluation et le service
  • Utiliser la validation continue

Sujets abordés

  • Cloud Logging
  • Gestion des versions, évaluation et généralisation des prompts
  • Surveillance de l'écart entre l'évaluation et le service
  • Validation continue

Activités

Lab : Vertex AI : Playbook d'Évaluations Gemini

Lab optionnel : Fine-tuning supervisé avec Gemini pour la Question-Réponse

Processus Qualité

L'engagement de SFEIR Institute : une démarche d'excellence pour garantir la qualité et la réussite de toutes nos formations. En savoir plus sur notre démarche qualité

Méthodes pédagogiques mobilisées
  • Lectures / Apports théoriques (Slides)Présentation de concepts via des supports visuels (PowerPoint, PDF).
  • Démonstration technique (Démos)Le formateur réalise une manipulation ou une procédure devant les apprenants.
  • Laboratoires dirigés (Labs)Mise en pratique guidée sur logiciel, machine ou environnement technique.
  • Quiz / QCMTest rapide de connaissances (format papier ou numérique type Kahoot/Klaxoon).
Dispositif d'évaluation et de suivi

L'atteinte des objectifs de la formation est évaluée à plusieurs niveaux pour garantir la qualité de la prestation :

  • Évaluation continue des acquis : Vérification des connaissances tout au long de la formation via des méthodes participatives (en fonction de la formation: quiz, exercices pratiques, mises en situation) sous la supervision du formateur.
  • Mesure de la progression : Dispositif d'auto-évaluation comparatif comprenant un diagnostic initial pour situer le niveau de départ, suivi d'une évaluation finale pour valider l'évolution des compétences.
  • Évaluation de la qualité : Questionnaire de satisfaction en fin de session pour mesurer la pertinence et l'efficacité de la formation ressentie par les participants.

Prochaines sessions

12 février 2026
Distanciel • Français
S'inscrire
9 mars 2026
Distanciel • Français
S'inscrire
7 avril 2026
Distanciel • Français
S'inscrire
4 juin 2026
Distanciel • Français
S'inscrire
7 août 2026
Distanciel • Français
S'inscrire
11 décembre 2026
Distanciel • Français
S'inscrire

700HT

par apprenant