Développer avec l'IA générative et les agents
Ref. IA-03
Formation créée le 20/10/2025. Dernière mise à jour le 23/10/2025.Version du programme : 1
Type de formation
PrésentielDurée de formation
7 heures (1 jour)Accessibilité
Oui
Cette formation est gratuite.
S'inscrire
Cette formation est gratuite.
S'inscrire
Cette formation est gratuite.
S'inscrire
Développer avec l'IA générative et les agents
Ref. IA-03
Objectifs de la formation
- Comprendre les principes des LLM et leur intégration en développement logiciel
- Découvrir et expérimenter les agents et frameworks (LangChain, LlamaIndex, …)
- Expérimenter l'utilisation de Copilot en mode agent (vibe coding)
- Identifier les méthodes de spécialisation “doucesˮ des modèles (du prompt engineering au LoRA)
- Appréhender les enjeux de confidentialité et lʼalternative du déploiement local via Ollama
- Intégrer un LLM (cloud ou local) dans une application Python
Profil des bénéficiaires
Pour qui
- Développeurs logiciels, data engineers
- Ingénieurs R&D souhaitant intégrer des briques dʼIA générative dans leurs applications
- Chefs de projet techniques en innovation numérique
Prérequis
- Bonnes bases en développement Python
- Aucune connaissance préalable en IA requise
- Disposer d'un PC
Contenu de la formation
Introduction & panorama
- Qu'est-ce quʼun LLM et comment fonctionne un générateur de texte ?
- Cas d'usage techniques : chatbots, assistants de code, analyse de documents
- Démonstration rapide : Copilot (vibe coding)
Confidentialité et alternatives locales
- Enjeux de sécurité et gouvernance des données
- Risques liés aux API cloud (RGPD, dépendances, coûts)
- Présentation dʼOllama et des modèles open source disponibles
- Démonstration : exécution locale dʼun modèle
Premiers pas avec un LLM
- Appels API (OpenAI / Hugging Face)
- Comparaison Cloud vs Local (exemple : même prompt avec Ollama)
- Exercice guidé : créer un mini chatbot simple
Agents & frameworks
- Qu'est-ce quʼun agent ?
- Tour d'horizon des frameworks (LangChain, LlamaIndex, Langfuse, …)
- Exploiter tout le potentiel de Copilot en mode agent : serveurs MCP, Chat Mode vs Instructions vs Prompts, bonnes pratiques
Méthodes de spécialisation "douces"
- Sans fine tuning : prompt engineering (in context learning, chain of thought…), RAG (Retrieval Augmented Generation)
- "Parameter Efficient" fine tuning (PEFT) : soft Prompting, LoRA (Low-Rank Adaptation)
Atelier
- Développement dʼune petite application Python intégrant : un agent avec RAG, choix du backend (API cloud ou modèle Ollama local)
- Restitution et échanges
Conclusion & perspectives
- Bilan, tendances, bonnes pratiques
- Évaluation de la satisfaction des participants et remise des attestations
- Avec la formule intra entreprise : Questions ouvertes et discussion sur les cas dʼusage des participants
Équipe pédagogique
Experts en IA, data science et transformation numérique du CATIE - Centre de Ressources Technologiques spécialisé dans le numérique
Suivi de l'exécution et évaluation des résultats
- Tours de table réguliers
- Contrôle de connaissances via exercices pratiques
- Évaluation de satisfaction
- Attestation de fin de formation
Ressources techniques et pédagogiques
- Alternance théorie / démonstrations / ateliers pratiques
- Codes sources fournis
- Support de formation numérique remis aux participants
Lieu
ALPHANOV PYLA
rue François Mitterrand - 3ème étage - 33 400 TALENCE
Capacité d'accueil
Entre 4 et 8 apprenants
Accessibilité
Nous sommes attentifs à toute demande concernant l’accessibilité de nos formations aux personnes en situation de handicap. Vous pouvez contacter notre équipe afin d’évaluer votre demande. Contact de notre référente handicap : Carole ROY, assistante administrative et commerciale, c.roy@pyla-formation.com