Dernière mise à jour : 26/05/2025
Cette formation présente une vue d'ensemble exhaustive de l'intelligence artificielle générative, en couvrant les différentes architectures de modèles, y compris les Transformers, ainsi que les techniques d'apprentissage pertinentes.
Les participants apprendront à exploiter des modèles pré-entraînés via des frameworks populaires, à personnaliser ces modèles et à concevoir des applications intégrées.
Des stratégies de déploiement et d'optimisation seront étudiées, fournissant des solutions concrètes adaptées à divers secteurs.
Connaissance du langage de programmation python.
Des connaissances de base en data science sont recommandées.
Exploration des différentes architectures des modèles génératifs, notamment les Transformers avec leurs mécanismes d’attention, et les modèles de diffusion.
Présentation des techniques d'entraînement (pré-entraînement, fine-tuning, RLHF) et évaluation des performances des modèles.
Exploration des frameworks tels que Hugging Face et OpenAI.
Configuration des environnements de développement, intégration d'APIs de modèles génératifs, en abordant les stratégies d'optimisation des coûts.
Atelier pratique pour construire une application simple avec une API LLM.
Exploration des méthodes de fine-tuning (LoRA, adapter layers…).
Préparation des données et évaluation des modèles personnalisés.
Atelier pratique sur le fine-tuning d'un petit modèle avec des données spécifiques.
Conception d'applications robustes alimentées par l'IA et exploration de la génération augmentée par récupération (RAG).
Atelier pratique sur la construction d'un système RAG
Exploration des architectures de déploiement de modèles et optimisation des performances pour la mise à l'échelle.
Surveillance, Observabilité et sécurité des déploiements IA.
Études de cas approfondies adaptées au contexte client :
Chaque cas inclut l'architecture, les détails d'implémentation et les défis rencontrés