Deployer des modeles d’IA en local permet de garder le controle total sur vos donnees et de reduire les couts lies aux services Cloud. Cette formation pratique vous guide dans le choix, l’installation et l’optimisation de modeles open source comme Mistral, Llama et Phi-3 avec des outils comme Ollama et vLLM, en tenant compte des contraintes materielles de votre infrastructure.
Public visé
Data Scientists, Data Analysts, ingénieurs Data, MLOps, développeurs, architectes Data, cadres dirigeants, managers, chefs de projets, Product Managers IA.
Objectifs pédagogiques
À l’issue de cette formation, vous serez capable de :
- Définir les exigences fonctionnelles et tests des modèles
- Comparer les modèles open source selon les métriques principales
- Explorer les alternatives d’entraînement (transfer learning, prompting, LoRA)
- Spécifier les architectures locales pour héberger des modèles
- Déployer et surveiller des modèles en production
Programme
Jour 1 - Matin
Introduction
- Dernières avancées dans la production de modèles d’IA
- Planification d’applications IA : les grands jalons
- IA closed source vs IA open source : comparatif des avantages et inconvénients
- Ingénierie des coûts
- Modèles open source :
- Polyvalents (Mistral/Mixtral, Llama, Falcon)
- Légers (Phi-3, Gemma, TinyLlama)
- Spécialisés (CodeLlama, Meditron)
- Exigences matérielles pour chaque type de modèle (mémoire, CPU/GPU/multi-GPU/cluster/cloud privé, réseautage)
- Ingénierie d’Intelligences Artificielles : des LLM aux modèles fondateurs et écosystèmes d’IA
- Ingénierie des datasets :
- Traitement
- Enrichissement
- Augmentation
- Synthèse des données
- Les trois couches de la stack IA
Travaux pratiques
- À partir d’une étude de cas : recueil des besoins, étude de faisabilité, estimation du budget et des ressources, sélection d’une solution, implémentation de l’application IA, tests
Jour 1 - Après-midi
Les modèles fondateurs
- Qu’est-ce qu’un modèle fondateur, exemples
- Processus de création d’un modèle fondateur
- Données d’apprentissage
- Modélisation : architecture du modèle, taille du modèle
- Alternatives d’entrainement :
- From scratch
- Transfer learning
- Prompting
- Distillation
- RLHF
- Mixture of experts
- LoRA
- PEFT Affinage (fine tuning)
- Echantillonnage (stratégies, test time compute, sorties structurées)
- Infrastructures pour les LLM :
- Ollama
- LM Studio
- llama.cpp
- vLLM
- Unsloth
- Hugging Face
- Hub Space
- Optimisation des LLM :
- Quantization
- LoRA
- Fully sharded data parallel–quantized LoRA
- Défis et solutions dans la mise en production des LLM et LCM
Travaux pratiques
- Réimplémentation du modèle open source Llama
- Amélioration du modèle avec la quantization et LoRA
- Déploiement, inférence, et surveillance
Modalités d’évaluation des acquis
En cours de formation, par des travaux pratiques. En fin de formation, par un questionnaire d’auto-évaluation.
Voir aussi
Vous serez peut-être intéressés par les formations suivantes :
- AWS - Developing Generative AI Applications
- IA et architecture Cloud applicative
- Architectures de données pour le ML et l'IA
- Architecture microservices à base d'IA
- Red Hat OpenShift AI
- Red Hat OpenShift AI
Formation EAI-DEPLOY-100 — Déployer une IA open source en local. Domaine : Intelligence Artificielle. Niveau : Initiation. Durée : 1 jour (7 heures). Mots-clés : intelligence-artificielle, open-source, llm, déploiement, ollama, mistral, llama. Cylian Formation, Dijon.