Les systemes d’IA en production sont exposes a des menaces specifiques : empoisonnement de donnees, attaques adversariales, inversion de modeles. Cette formation vous apprend a cartographier les risques avec MITRE ATLAS, a implementer des controles d’acces et de tracabilite dans vos pipelines, et a mettre en place une surveillance continue avec des plans de reponse aux incidents adaptes.
Public visé
Ingénieurs IA/ML, Data Scientists en production, architectes DevSecOps, responsables sécurité, opérateurs de plateformes IA, auditeurs et consultants en sécurité des systèmes IA.
Objectifs pédagogiques
À l’issue de cette formation, vous serez capable de :
- Cartographier le cycle de vie d’un modèle IA selon MITRE ATLAS
- Implémenter des contrôles d’accès et la traçabilité dans les pipelines
- Détecter et atténuer les attaques adversariales
- Intégrer la surveillance continue avec des indicateurs IA
- Élaborer des plans de réponse aux incidents
Programme
Jour 1 - Matin
Cartographie et contrôles d’accès
- Introduction MITRE ATLAS : tactiques et phases (reconnaissance, accès au pipeline, attaques sur le modèle)
- Cartographie d’un pipeline IA interne :
- Flux de données
- Artefacts de modèles
- Points d’inférence
Travaux pratiques
- Modéliser votre pipeline IA et inventorier les actifs critiques
Jour 1 - Après-midi
Cartographie et contrôles d’accès - Suite
- Contrôles d’accès et traçabilité : gestion des identités (IAM), séparation des environnements DEV/TRAIN/PROD
- Chiffrement des données et des modèles (au repos, en transit)
Travaux pratiques
- Déployer un mécanisme d’audit sur les appels d’API d’inférence
Jour 2 - Matin
Attaques adversariales et atténuation
- Attaques par empoisonnement de données (Data Poisoning) et par falsification (Data Falsification)
- Détection des anomalies de données à l’entraînement (statistiques, ML-based)
Travaux pratiques
- Injecter et détecter un cas simple d’empoisonnement de Dataset
Jour 2 - Après-midi
Attaques adversariales et atténuation - Suite
- Attaques d’évasion d’inférence (Evasion Attacks) et inversion de modèle (Model Extraction)
- Contre-mesures :
- Défenses par distillation
- Randomisation
- Evaluation de robustesse (FGSM, PGD)
Travaux pratiques
- Générer des exemples adversariaux et tester la robustesse du modèle en production
Jour 3 - Matin
Surveillance continue et réponse
- Surveillance des indicateurs de compromission IA (IoCs-IA) : dérive de performance, patterns de requêtes anormales
- Mise en place de dashboards et alertes (logs d’inférence, métriques d’exactitude)
Travaux pratiques
- Configurer un pipeline de monitoring dans Grafana / Prometheus pour un service IA
Jour 3 - Après-midi
Surveillance continue et réponse - Suite
- Plan de réponse aux incidents IA :
- Rollback de modèle
- Réentraînement sécurisé
- Communication
- Clôture et recommandations pour une gouvernance IA pérenne
Travaux pratiques
- Exercice guidé : simulation d’un incident de compromission IA et exécution du plan de réponse
Modalités d’évaluation des acquis
En cours de formation, par des travaux pratiques. En fin de formation, par un questionnaire d’auto-évaluation.
Voir aussi
Vous serez peut-être intéressés par cette formation :
Formation EAI-SEC-100 — Sécurisation des IA en production. Domaine : Intelligence Artificielle. Niveau : Initiation. Durée : 3 jours (21 heures). Mots-clés : intelligence-artificielle, sécurité, production, mitre-atlas, adversarial, devSecOps. Cylian Formation, Dijon.