Le Deep Learning est le moteur des avancees les plus spectaculaires de l’IA, de la reconnaissance d’images a la generation de texte. Cette formation vous donne les bases theoriques et pratiques des reseaux de neurones – MLP, CNN, RNN, GAN – avec les frameworks de reference TensorFlow et PyTorch, pour que vous puissiez concevoir et entrainer vos propres modeles.
Public visé
Ingénieurs, analystes, Data Scientists, Data Analysts, Data Steward, développeurs intéressés par le Deep Learning et les réseaux de neurones.
Objectifs pédagogiques
À l’issue de cette formation, vous serez capable de :
- Distinguer les apports du Deep Learning et de l’IA
- Décrire les concepts du Machine Learning et l’évolution vers le Deep Learning
- Reconnaître les briques fondamentales (réseaux simples, convolutifs, récursifs)
- Identifier les modèles avancés (auto-encodeurs, GANs, apprentissage par renforcement)
- Mettre en oeuvre les bases théoriques et pratiques d’architecture neuronale
- Expliquer les méthodologies et limites des réseaux de neurones
Programme
Comprendre les concepts de Machine Learning et l’évolution vers le Deep Learning
- Définitions et positionnement IA, Deep Learning et Machine Learning
- Les apports du Deep Learning, état de l’art
- Outils disponibles
- Exemple de projets
- Domaines d’application et exemples
- Présentation de DeepMind
- Outils Deep Learning de haut niveau : Keras / TensorFlow, Caffe / PyTorch, Lasagne
Travaux pratiques
- Mise en oeuvre sur Cloud AutoML : langages naturels, traduction, reconnaissance d’images
Appréhender les bases théoriques et pratiques d’architecture et de convergence de réseaux de neurones
- Fonctionnement d’un réseau de neurones
- Comprendre le fonctionnement de l’apprentissage d’un réseau de neurones
- Comprendre la rétro-propagation de l’erreur et la convergence
- Comprendre la descente de gradient
- Les fonctions d’erreur : MSE, Binary Cross Entropy, les optimiseurs SGD, RMSprop, Adam
- Définitions : couche, epochs, batch size, itérations, loss, learning rate, momentum
- Optimiser un entraînement par découpage d’entraînements peu profonds
- Comprendre le principe des hyper-paramètres
- Choix des hyper-paramètres
Travaux pratiques
- Construire un réseau capable de reconnaître une courbe
Connaître les briques de base du Deep Learning
- Les réseaux de neurones : principe, différents types de réseaux de neurones (artificiels, convolutifs, récurrents…)
- Les différentes formes de réseaux : MultiLayer Perceptron FNN / MLP, CNN
- Couches d’entrée, de sortie et de calcul
- Fonctionnement d’une couche de convolution
- Définitions : kernel, padding, stride
- Fonctionnement d’une couche de Pooling
- API standard, modèles d’apprentissage
- Apprendre à lire une courbe d’apprentissage
- Les modèles de Deep Learning pour Keras : Xception, Inception, ResNet, VGG, LeNet
Travaux pratiques
- Construction d’un réseau de neurones de reconnaissance d’images
- Comparaison de courbes d’apprentissage avec TensorFlow sur plusieurs paramètres
Appréhender les modèles plus avancés
- Représentations des données
- Bruits
- Couches d’encodage : codage entier, one-hot, embedding layer
- Notion d’autoencodeur
- Auto-encodeurs empilés, convolutifs, récurrents
- Comprendre les réseaux antagonistes génératifs (GAN) et leurs limites de convergences
- Apprentissage par transfert
- Comment optimiser les récompenses ?
- Evolutions vers les GRU (Gated Recurrent Units) et LSTM (Long Short Term Memory)
- Traitement NLP : encodage des caractères et des mots, traduction
Travaux pratiques
- Entraînement d’un auto-encodeur variationnel sur un jeu d’images
Comprendre les méthodologies de mise en place de réseaux de neurones
- Préparation des données, régularisation, normalisation, extraction des caractéristiques
- Optimisation de la politique d’apprentissage
- Exploitation des modèles, mise en production
- TensorFlow Hub, Serving
- Visualiser les reconstructions
Travaux pratiques
- Mise en place d’un serveur de modèles et d’une application TFLite
Comprendre les points forts et les limites de ces outils
- Mise en évidence des problèmes de convergence et du Vanishing Gradient
- Les erreurs d’architecture
- Comment distribuer un réseau de neurones
- Les limites du Deep Learning : imiter / créer
- Cas concrets d’utilisation
- Introduction aux machines quantiques
Modalités d’évaluation des acquis
En cours de formation, par des études de cas ou des travaux pratiques. En fin de formation, par un questionnaire d’auto-évaluation.
Voir aussi
Vous serez peut-être intéressés par les formations suivantes :
- ChatGPT pour le développement de code
- IA - Analyse et production de code informatique
- Analyse de Données avec l'IA
- ChatGPT et GPT-4 dans des applications Python
- Apprentissage
- IA - Génération de Modèles
- AWS - MLOps Engineering
- IA - Traitement du Langage Naturel (NLP)
- IA et traitement d'images
Formation EAI-DEEP-100 — IA et outils du Deep Learning. Domaine : Intelligence Artificielle. Niveau : Initiation. Durée : 3 jours (21 heures). Mots-clés : intelligence-artificielle, deep-learning, tensorflow, pytorch, réseaux-de-neurones, machine-learning. Cylian Formation, Dijon.