Développement d'applications avec les LLM sur Google Cloud
Dans ce cours, vous plongerez dans les détails de l'utilisation des grands modèles de langage (LLM) dans vos applications. Vous commencerez par explorer les principes fondamentaux qui sous-tendent le prompting des LLM. Ensuite, vous vous concentrerez sur la dernière famille de modèles de Google, Gemini. Vous explorerez les différents modèles Gemini et leurs capacités multimodales. Cela inclut une exploration approfondie de la conception et de l'ingénierie de prompts efficaces dans l'environnement Vertex AI Studio. Puis, le cours aborde les frameworks de développement d'applications et comment implémenter ces concepts dans vos applications.

Ce que vous allez apprendre
- Explorer les différentes options disponibles pour utiliser l'IA générative sur Google Cloud.
- Utiliser Vertex AI Studio pour tester des prompts pour les grands modèles de langage.
- Développer des applications basées sur les LLM en utilisant l'IA générative.
- Appliquer des techniques avancées d'ingénierie de prompts pour améliorer les résultats des LLM.
- Créer une application de chat multi-tours en utilisant l'API Gemini et LangChain.
Prérequis
- Avoir suivi la formation "Introduction to Developer Efficiency on Google Cloud" ou posséder des connaissances équivalentes.
Public cible
- Clients, Partenaires
Programme de la Formation
5 modules pour maîtriser les fondamentaux
Sujets abordés
- →Qu'est-ce que l'IA générative
- →Vertex AI sur Google Cloud
- →Options d'IA générative sur Google Cloud
- →Introduction au cas d'utilisation du cours
Sujets abordés
- →Introduction à Vertex AI Studio
- →Conception et test de prompts
- →Gouvernance des données dans Vertex AI Studio
Activités
Lab : Prise en main de l'interface utilisateur Vertex AI Studio
Sujets abordés
- →Introduction au grounding (ancrage)
- →Intégration des API Vertex AI Gemini
- →Chat, mémoire et grounding
- →Principes de recherche
Activités
Lab : Démarrer avec LangChain + l'API Vertex AI Gemini
Sujets abordés
- →Revue du prompting few-shot
- →Prompting chain-of-thought et budgets de réflexion
- →Meta prompting, prompts multi-étapes et prompts en panel
- →RAG et ReAct
Activités
Lab : Architectures de prompts avancées
Sujets abordés
- →LangChain pour les chatbots
- →ADK pour les chatbots
- →Récupération de chat
Activités
Lab : Implémentation de RAG avec LangChain
Processus Qualité
L'engagement de SFEIR Institute : une démarche d'excellence pour garantir la qualité et la réussite de toutes nos formations. En savoir plus sur notre démarche qualité
- Lectures / Apports théoriques (Slides) — Présentation de concepts via des supports visuels (PowerPoint, PDF).
- Démonstration technique (Démos) — Le formateur réalise une manipulation ou une procédure devant les apprenants.
- Laboratoires dirigés (Labs) — Mise en pratique guidée sur logiciel, machine ou environnement technique.
- Quiz / QCM — Test rapide de connaissances (format papier ou numérique type Kahoot/Klaxoon).
L'atteinte des objectifs de la formation est évaluée à plusieurs niveaux pour garantir la qualité de la prestation :
- Évaluation continue des acquis : Vérification des connaissances tout au long de la formation via des méthodes participatives (en fonction de la formation: quiz, exercices pratiques, mises en situation) sous la supervision du formateur.
- Mesure de la progression : Dispositif d'auto-évaluation comparatif comprenant un diagnostic initial pour situer le niveau de départ, suivi d'une évaluation finale pour valider l'évolution des compétences.
- Évaluation de la qualité : Questionnaire de satisfaction en fin de session pour mesurer la pertinence et l'efficacité de la formation ressentie par les participants.
Prochaines sessions
Former plusieurs collaborateurs
- Tarifs dégressifs (plusieurs places)
- Session privée ou sur-mesure
- En présentiel ou à distance