- Catalogue
- Intelligence artificielle et science des données
- Spécialisation des LLM : Fine-tuning et Prompt Engineering
Spécialisation des LLM : Fine-tuning et Prompt Engineering Présentiel
Dernière mise à jour : 05/12/2025
- Unité de recherche
- Description
- Objectifs de la formation
- Public visé
- Prérequis
- Modalités pédagogiques
- Moyens et supports pédagogiques
- Modalités d'évaluation et de suivi
- Modalités tarifaires spécifiques
- Informations sur l'accessibilité
- Inscription
Description
Pour des raisons techniques et organisationnelles, cette formation est temporairement suspendue ; de nouvelles dates seront proposées à partir de septembre 2026.
1er jour
- Théorie des Transformers (mécanisme d'attention, language modeling...)
- Fine-tuning classique
- Evaluations et métriques des Large Language Models
- Mise en place d'un cadre pour le développement de LLM (mlflow, multi-GPU...)
2ème jour
- Nettoyage des données textuelles (data cleaning)
- Prompt Engineering
- Retrieval Augmented Generation (RAG)
- Parameter-Efficient Fine-tuning (PEFT)
3ème jour
- Génération de données synthétiques et RAG Evaluation
- Alignement de LLM (DPO, RLHF...)
- Mise en production (inférence)
- Multimodalité
- Agents et appels d'outils
- Discussion sur les projets des apprenants (optionnel)
Objectifs de la formation
- Acquérir les bases théoriques des Transformers (mécanisme d'attention, language modeling...)
- Connaître les différentes méthodes de Fine-tuning (classique, LoRA...) et de Prompt Engineering (RAG, Chain of Thought...)
- Mettre en place un environnement d'entraînement et d'optimisation de Large Language Models (LLM) : boucle d'entraînement, évaluation, tracking des résultats, nettoyage des données...
- Appliquer la théorie dans un cas d'usage précis
Public visé
Prérequis
Modalités pédagogiques
Moyens et supports pédagogiques
EQUIPEMENT : Salle informatique avec mise à disposition d'un ordinateur par apprenant connecté à la machine de cours de l'IDRIS (16 A100). La machine de cours peut être utilisée via un pc personnel. Il est recommandé à l'apprenant d'avoir un compte GitHub pour la récupération des ressources.
Les fichiers au format PDF, des Notebooks et les codes seront mis à disposition de l'apprenant.
Modalités d'évaluation et de suivi
Modalités tarifaires spécifiques
Informations sur l'accessibilité
M'inscrire à la formation
- Catégorie : Intelligence artificielle et science des données
- Durée : 21h
-
Prix : 2 040 € Net de taxePrix INTRA : Nous consulter
- Référence : MOD_2025032
-
Satisfaction :
★★★★★★★★★★
- Taux de réussite : - %
- Télécharger le programme
Inscription rapide et flexible
Prochaines Sessions
-
Aucune session inter-entreprises n'est actuellement disponible pour cette formation.
Contactez-nous pour organiser une session intra-entreprises ou consultez Notre offre de formation.
Dans la même catégorie
- Architectures du Deep Learning Présentiel
- Biostatistiques : comparaison de moyennes dans le cadre de protocoles expérimentaux Présentiel
- Capitaliser sur vos données : introduction au Machine Learning Présentiel
- Deep Learning optimisé sur supercalculateur Présentiel
- Deep learning pour le traitement automatique des langues Présentiel
Catalogue de formation propulsé par Dendreo,
logiciel spécialisé pour les organismes de formation
