Développer avec l'IA générative et les agents

Ref. IA-03

Formation créée le 20/10/2025. Dernière mise à jour le 23/10/2025.
Version du programme : 1

Type de formation

Présentiel

Durée de formation

7 heures (1 jour)

Accessibilité

Oui
Cette formation est gratuite.
S'inscrire
Cette formation est gratuite.
S'inscrire
Cette formation est gratuite.
S'inscrire

Développer avec l'IA générative et les agents

Ref. IA-03


Objectifs de la formation

  • Comprendre les principes des LLM et leur intégration en développement logiciel
  • Découvrir et expérimenter les agents et frameworks (LangChain, LlamaIndex, …)
  • Expérimenter l'utilisation de Copilot en mode agent (vibe coding)
  • Identifier les méthodes de spécialisation “doucesˮ des modèles (du prompt engineering au LoRA)
  • Appréhender les enjeux de confidentialité et lʼalternative du déploiement local via Ollama
  • Intégrer un LLM (cloud ou local) dans une application Python

Profil des bénéficiaires

Pour qui
  • Développeurs logiciels, data engineers
  • Ingénieurs R&D souhaitant intégrer des briques dʼIA générative dans leurs applications
  • Chefs de projet techniques en innovation numérique
Prérequis
  • Bonnes bases en développement Python
  • Aucune connaissance préalable en IA requise
  • Disposer d'un PC

Contenu de la formation

Introduction & panorama
  • Qu'est-ce quʼun LLM et comment fonctionne un générateur de texte ?
  • Cas d'usage techniques : chatbots, assistants de code, analyse de documents
  • Démonstration rapide : Copilot (vibe coding)
Confidentialité et alternatives locales
  • Enjeux de sécurité et gouvernance des données
  • Risques liés aux API cloud (RGPD, dépendances, coûts)
  • Présentation dʼOllama et des modèles open source disponibles
  • Démonstration : exécution locale dʼun modèle
Premiers pas avec un LLM
  • Appels API (OpenAI / Hugging Face)
  • Comparaison Cloud vs Local (exemple : même prompt avec Ollama)
  • Exercice guidé : créer un mini chatbot simple
Agents & frameworks
  • Qu'est-ce quʼun agent ?
  • Tour d'horizon des frameworks (LangChain, LlamaIndex, Langfuse, …)
  • Exploiter tout le potentiel de Copilot en mode agent : serveurs MCP, Chat Mode vs Instructions vs Prompts, bonnes pratiques
Méthodes de spécialisation "douces"
  • Sans fine tuning : prompt engineering (in context learning, chain of thought…), RAG (Retrieval Augmented Generation)
  • "Parameter Efficient" fine tuning (PEFT) : soft Prompting, LoRA (Low-Rank Adaptation)
Atelier
  • Développement dʼune petite application Python intégrant : un agent avec RAG, choix du backend (API cloud ou modèle Ollama local)
  • Restitution et échanges
Conclusion & perspectives
  • Bilan, tendances, bonnes pratiques
  • Évaluation de la satisfaction des participants et remise des attestations
  • Avec la formule intra entreprise : Questions ouvertes et discussion sur les cas dʼusage des participants

Équipe pédagogique

Experts en IA, data science et transformation numérique du CATIE - Centre de Ressources Technologiques spécialisé dans le numérique

Suivi de l'exécution et évaluation des résultats

  • Tours de table réguliers
  • Contrôle de connaissances via exercices pratiques
  • Évaluation de satisfaction
  • Attestation de fin de formation

Ressources techniques et pédagogiques

  • Alternance théorie / démonstrations / ateliers pratiques
  • Codes sources fournis
  • Support de formation numérique remis aux participants

Lieu

ALPHANOV PYLA rue François Mitterrand - 3ème étage - 33 400 TALENCE

Capacité d'accueil

Entre 4 et 8 apprenants

Accessibilité

Nous sommes attentifs à toute demande concernant l’accessibilité de nos formations aux personnes en situation de handicap. Vous pouvez contacter notre équipe afin d’évaluer votre demande. Contact de notre référente handicap : Carole ROY, assistante administrative et commerciale, c.roy@pyla-formation.com