AIENGINEER

Formation AI Engineer

Passez de la simple interrogation de modèles à la création de systèmes autonomes complexes. La révolution de l'IA Agentique est en marche, et cette formation intensive de 3 jours vous donne les clés pour construire, orchestrer et déployer des applications d'IA générative prêtes pour la production.

De la maîtrise des fondamentaux des LLMs jusqu'au déploiement d'agents intelligents autonomes, vous apprendrez à exploiter les meilleurs services Cloud (Vertex AI, Amazon Bedrock, Azure OpenAI). Vous découvrirez comment concevoir des pipelines RAG ultra-performants, et plongerez au cœur de l'IA Agentique en orchestrant des systèmes multi-agents capables de planifier, d'interagir avec des outils (Function Calling, MCP) et de collaborer grâce à LangChain, LangGraph et Google ADK.

Au-delà de la construction, ce programme aborde les défis cruciaux de l'entreprise : l'évaluation des modèles (G-Eval, DeepEval), la sécurisation (Guardrails, prompt injection) et les stratégies de scaling pour maîtriser vos coûts en production.

Formation officielle SFEIR InstituteNiveau Intermédiaire⏱️ 3 jours (21h)

Ce que vous allez apprendre

  • Sélectionner et maîtriser les LLMs : comprendre les architectures, paramétrer finement (system prompt, context window, temperature, context caching) et choisir le modèle adapté selon le cas d'usage
  • Maîtriser l'IA Agentique et l'Orchestration : les technologies d'interrogation de modèles (API streaming, SDK), l'orchestration d'agents avec LangChain, LangGraph, Google ADK, et comprendre les patterns agentiques (ReAct, plan-and-execute, multi-agents)
  • Créer des Outils Interopérables : développer et intégrer des outils via le Function Calling, concevoir et déployer un serveur MCP (Model Context Protocol)
  • Développer des Pipelines RAG complets : gérer les embeddings, maîtriser les bases de données vectorielles, optimiser le chunking et implémenter des stratégies de retrieval complexes
  • Évaluer : implémenter des protocoles d'évaluation automatisés (LLM-as-a-judge, DeepEval, Pytest) pour mesurer la fiabilité, la pertinence et les performances des applications d'IA générative
  • Industrialiser et Sécuriser (LLMOps) : évaluer la performance via OpenTelemetry, sécuriser les applications (Guardrails) et déployer en production en optimisant les coûts

Prérequis

  • Python : maîtrise du langage (fonctions, classes, async/await)
  • APIs REST : compréhension des appels HTTP, JSON, authentification
  • Git : utilisation basique (clone, commit, push)
  • Cloud : notions de base (compte GCP, AWS ou Azure)
  • Aucune connaissance préalable en IA générative n'est requise - le Module 1 couvre tous les fondamentaux
  • Un ordinateur portable (Windows, macOS ou Linux) avec minimum 6 Go de RAM
  • Python 3.10+ installé avec pip
  • Un IDE (VS Code recommandé) avec l'extension Python

Public cible

  • Développeurs Fullstack, Software Engineers, Architectes Logiciels, Data Engineers, Tech Leads, MLOps et Data Scientists souhaitant maîtriser la construction d'applications avec l'IA générative et l'IA Agentique

Programme de la Formation

15 modules pour maîtriser les fondamentaux

Sujets abordés
  • Qu'est-ce que l'IA générative ? IA classique vs IA générative
  • Comment fonctionne un LLM : le pipeline du prompt à la réponse
  • Architecture Transformer : mécanisme d'attention, encoder vs decoder
  • Tokenization & embeddings : BPE, espaces vectoriels, impact sur les coûts
  • Panorama des modèles 2026 : Claude 4.6, Gemini 3.1, GPT-5.x, Llama 4, Mistral 3
  • Paramètres de génération : température, context window, context caching, system prompt
  • Limites et hallucinations : types, causes, stratégies de mitigation
Sujets abordés
  • Vertex AI : Model Garden, Gemini API, endpoints managés, fine-tuning, tarification
  • Amazon Bedrock : API unifiée, modèles multi-fournisseurs, Guardrails, Provisioned Throughput
  • Azure OpenAI Service : déploiement, content filtering, quotas TPM, intégration écosystème Azure
  • Comparatif providers : latence, coûts, conformité RGPD, arbre de décision
  • Stratégie multi-provider : abstraction, failover, load balancing, LiteLLM
  • Self-hosting & open-source : vLLM, Ollama, TGI, coûts GPU
Sujets abordés
  • Patterns avancés : ReAct, Tree-of-Thought, Self-Consistency
  • Structured outputs : JSON mode, Pydantic, grammaires contraintes
  • System prompts : rôles, personas, instructions complexes
  • Prompt templating & versioning
Activités

Lab Prompt Engineering Avancé : Chain-of-Thought, Few-Shot Learning, ReAct Pattern, Structured Outputs avec Pydantic

Sujets abordés
  • Function calling unifié : OpenAI, Anthropic, Gemini - patterns communs
  • Tool design : schémas, validation, error handling, idempotence
Sujets abordés
  • Patterns communs : streaming, gestion d'erreurs, retry, rate limiting
  • Optimisation des coûts : caching, batching, choix de modèle contextuel
  • Multi-model routing : stratégies de routage par complexité
Activités

Lab APIs & SDKs LLMs : Chat completion + streaming, Function calling cross-provider

Sujets abordés
  • Embeddings : modèles (OpenAI, Cohere, BGE), espaces vectoriels
  • Vector databases : Pinecone, ChromaDB, Weaviate, Vertex AI Vector Search
  • Stratégies de chunking : fixed, semantic, recursive, document-aware
  • Retrieval avancé : hybrid search, re-ranking, query expansion
  • RAG patterns : naive, parent-child, corrective RAG
Sujets abordés
  • Architecture LangChain : LCEL (LangChain Expression Language), Runnables
  • Composants clés : ChatModels, Prompts, OutputParsers, Retrievers
  • Chains avancées : sequential, parallel, branching, fallbacks
  • Intégration vector stores : FAISS, Chroma, Pinecone
  • Memory & state management : ConversationBuffer, migration vers LangGraph
Activités

Lab RAG Complet : Indexation & Chunking, Retrieval avancé (similarity, MMR, hybrid search, reranking), Chaîne RAG LCEL

Sujets abordés
  • Pourquoi LangGraph ? Limites des chains linéaires, besoin de graphes
  • Concepts fondamentaux : StateGraph, nodes, edges, conditional edges
  • State management : typed state, reducers, checkpointing
  • Patterns agentiques : ReAct agent, plan-and-execute, réflexion
  • Human-in-the-loop : interrupts, approval workflows, breakpoints
  • Subgraphs & composition : modularité, agents imbriqués
  • Persistence & streaming : checkpointers, event streaming
Activités

Lab Agent LangGraph : Agent multi-étapes avec state, tools et routing conditionnel (5 nœuds), Human-in-the-Loop

Sujets abordés
  • Architecture MCP : client/serveur, transports (stdio, Streamable HTTP)
  • Les 3 primitives : Tools, Resources, Prompts
  • Construire son serveur MCP en Python (FastMCP)
  • Construire son serveur MCP en TypeScript
  • Écosystème MCP : serveurs communautaires, intégrations enterprise
  • Différence entre un tool et un serveur MCP : quand utiliser l'un ou l'autre
Activités

Lab Serveur MCP : 2 tools MCP (calculate, search_knowledge), 2 resources (config, file)

Sujets abordés
  • Introduction ADK : philosophie Google, positionnement vs LangGraph
  • Architecture ADK : Agent, Tool, Session, Runner
  • Types d'agents : LlmAgent, SequentialAgent, LoopAgent, ParallelAgent
  • Tool ecosystem : function tools, built-in tools, MCP tools
  • Orchestration multi-agents : sub_agents, AgentTool, délégation, hiérarchie
  • Architectures multi-agents : supervisor, hiérarchique, consensus, swarm
  • Comparatif ADK vs LangGraph vs CrewAI : critères de choix
Activités

Lab Multi-agents ADK : 3 function tools, 3 agents spécialisés, orchestration séquentielle + parallèle + coordinateur

Sujets abordés
  • Pourquoi évaluer : non-déterminisme, pyramide d'évaluation
  • Benchmarks automatisés : BLEU, ROUGE, MMLU, GSM8K, HumanEval
  • LLM-as-judge : critères personnalisés, biais, calibration
  • Métriques de qualité : accuracy, faithfulness, hallucination
  • Métriques de performance : TTFT, latence P95/P99, throughput
  • G-Eval : évaluation par LLM avec critères auto-générés
  • DeepEval : Faithfulness, Answer Relevancy, Hallucination metrics
  • Intégration pytest : assert_test avec DeepEval, golden datasets
Activités

Lab Évaluation & Tests : Métriques custom pertinence et factualité (LLM-as-judge), critères configurables, batch evaluation, tests de régression avec golden datasets et comparaison de versions

Sujets abordés
  • Tracing LLM : rendre chaque étape observable
  • LangSmith : tracing natif LangChain, décorateur @traceable
  • Langfuse : alternative open source (MIT), self-hosting gratuit
  • Phoenix (Arize) : OpenTelemetry-natif, zero vendor lock-in
  • Tests de régression avec pytest et DeepEval
  • Pipeline CI/CD avec GitHub Actions : quality gates automatisés
  • Debugging d'agents : problèmes courants, boucles, mauvaise sélection d'outil
  • LangGraph Studio : visualisation, mode debug, fork & edit
Sujets abordés
  • Menaces de sécurité LLM : prompt injection, exfiltration, jailbreak
  • Défense multicouche : input validation, prompt hardening, output validation
  • NeMo Guardrails (NVIDIA) : Colang, topic control, jailbreak detection
  • Guardrails AI : validators composables, Hub, PII detection
  • Content filtering en production : pipeline multicouche
  • Propagation des droits et sécurisation des accès
Sujets abordés
  • Les 4 couches : entrée, applicative, inférence, observabilité
  • API Gateway : authentification, rate limiting, routing
  • Cache sémantique : embeddings, Redis, gains en production
  • Google Cloud Run : conteneurisation, auto-scaling, streaming SSE
  • AWS Lambda : functions serverless, contraintes et cold start
  • Vertex AI Endpoints : déploiement de modèles GPU/TPU
  • AWS Bedrock AgentCore : runtime d'agents, framework-agnostique
Sujets abordés
  • Défis spécifiques du scaling LLM
  • Auto-scaling : horizontal, vertical, prédictif
  • Structure des coûts LLM : tokens, infrastructure, observabilité
  • Model Router : routage dynamique par complexité (économies 30-85%)
  • Techniques d'optimisation : cache sémantique, prompt optimization, batch API
  • LangGraph Platform : infrastructure pour agents stateful
  • Options de déploiement : Cloud, Hybrid, Self-Hosted
  • Checklist de mise en production : les 6 piliers
Activités

Lab Production & Déploiement : API Gateway (rate limiting, authentification, FastAPI), Cache sémantique (embeddings, similarité cosinus), Monitoring (métriques, coûts, alerting), Guardrails (anti-prompt-injection, PII detection)

Formations associées

SFEIR Institute
Formation du moment

Développeur Augmenté par l'IA

Accélérez la productivité de vos équipes de développement grâce à l'Agentic Coding. Dans un marché où la rapidité de développement et la qualité du code font la différence, cette formation transforme vos développeurs en "développeurs augmentés", capables de tirer parti des agents d'IA les plus avancés. Centrée sur des cas d'utilisation réels, la formation met l'accent sur la production de valeur immédiate et l'amélioration concrète de la productivité des développeurs. Les participants repartent avec des méthodes, workflows et assets directement applicables à leurs projets en entreprise.

2 j
Intermédiaire
SFEIR Institute
Nouveau

Développeur Augmenté par l'IA – Avancé

Le cours « Développeur Augmenté par l'IA, Avancé » est la suite du cours « Développeur Augmenté par l'IA » destiné à ceux qui souhaitent approfondir la collaboration avec des agents d'intelligence artificielle et l'automatisation de processus complexes. Les participants apprennent à orchestrer plusieurs agents spécialisés capables de se coordonner, de déléguer des tâches et d'améliorer la qualité du code en continu. Ils découvrent également comment transformer des spécifications fonctionnelles en implémentations automatisées grâce à une approche orientée specs garantissant cohérence et fiabilité. La formation adresse la création de serveurs MCP de sa conception à sa mise en production, tout en abordant les aspects de configuration et de sécurité. Ce programme marque une étape clé vers l'expertise complète en développement augmenté, où l'humain et l'intelligence artificielle collaborent de manière fluide et performante pour créer les logiciels de demain.

1 j
Intermédiaire
SFEIR Institute

Formation Claude Code

Boostez votre productivité avec Claude Code, l'outil CLI d'Anthropic pour le développement assisté par IA. Après l'installation et la configuration de Claude Code sur votre poste, vous apprendrez les interactions de base : créer des fichiers CLAUDE.md efficaces, maîtriser le Plan Mode pour réviser les refactorisations avant exécution, et générer des tests unitaires et d'intégration. Vous découvrirez comment organiser votre documentation et gérer vos prompts avec les règles modulaires dans .claude/rules/. Vous explorerez les sub-agents et skills : création d'agents autonomes pour paralléliser les tâches, orchestration en patterns séquentiels et parallèles, et développement de skills réutilisables pour automatiser vos workflows. Enfin, vous maîtriserez les commandes essentielles et astuces pour une productivité maximale au quotidien. Formation pratique avec 60% de labs sur des cas concrets.

1 j
Fondamental

Prochaines sessions

Aucune date ne vous convient ?

Nous organisons régulièrement de nouvelles sessions. Contactez-nous pour connaître les prochaines dates disponibles ou pour organiser une session à la date de votre choix.

S'inscrire à une date personnalisée

Processus Qualité

L'engagement de SFEIR Institute : une démarche d'excellence pour garantir la qualité et la réussite de toutes nos formations. En savoir plus sur notre démarche qualité

Méthodes pédagogiques mobilisées
  • Lectures / Apports théoriques (Slides)Présentation de concepts via des supports visuels (PowerPoint, PDF).
  • Démonstration technique (Démos)Le formateur réalise une manipulation ou une procédure devant les apprenants.
  • Laboratoires dirigés (Labs)Mise en pratique guidée sur logiciel, machine ou environnement technique.
  • Étude de casAnalyse d'une situation réelle ou fictive d'entreprise pour en tirer des solutions.
Dispositif d'évaluation et de suivi

L'atteinte des objectifs de la formation est évaluée à plusieurs niveaux pour garantir la qualité de la prestation :

  • Évaluation continue des acquis : Vérification des connaissances tout au long de la formation via des méthodes participatives (en fonction de la formation: quiz, exercices pratiques, mises en situation) sous la supervision du formateur.
  • Mesure de la progression : Dispositif d'auto-évaluation comparatif comprenant un diagnostic initial pour situer le niveau de départ, suivi d'une évaluation finale pour valider l'évolution des compétences.
  • Évaluation de la qualité : Questionnaire de satisfaction en fin de session pour mesurer la pertinence et l'efficacité de la formation ressentie par les participants.

Questions fréquentes

Vous devez maîtriser Python (fonctions, classes, async/await), comprendre les APIs REST (HTTP, JSON, authentification) et avoir des notions de base en Cloud (GCP, AWS ou Azure). Aucune connaissance préalable en IA générative n'est requise - le Module 1 couvre tous les fondamentaux.
Cette formation s'adresse aux Développeurs Fullstack, Software Engineers, Architectes Logiciels, Data Engineers, Tech Leads, MLOps et Data Scientists souhaitant maîtriser la construction d'applications avec l'IA générative et l'IA Agentique.
La formation couvre LangChain (LCEL, Runnables, Chains), LangGraph (StateGraph, agents, workflows), Google ADK (multi-agents), MCP (Model Context Protocol), ainsi que les providers Cloud (Vertex AI, Amazon Bedrock, Azure OpenAI). Vous apprendrez aussi DeepEval, Guardrails et les outils d'observabilité (LangSmith, Langfuse, Phoenix).
En plus des supports de formation, vous repartirez avec le code de plusieurs labs pratiques : un assistant RAG complet, un agent LangGraph multi-étapes, un serveur MCP, et un système multi-agents ADK. Un dépôt Git contenant le code des ateliers vous sera remis.
Oui, le Jour 3 est entièrement dédié à la production : évaluation et métriques (DeepEval, LLM-as-judge), tracing et debugging (LangSmith, Langfuse), sécurité (Guardrails, prompt injection), architecture Cloud (Cloud Run, Lambda) et optimisation des coûts (cache sémantique, model routing).
Nos organismes de formation SFEIR SAS et SFEIR-Est sont certifiés Qualiopi pour les actions de formation, ce qui permet de solliciter une prise en charge par votre OPCO. L'acceptation du financement reste à la discrétion de votre OPCO. Contactez-nous pour obtenir un devis.

2 370€ HT

par apprenant