Merci d'avoir envoyé votre demande ! Un membre de notre équipe vous contactera sous peu.
Merci d'avoir envoyé votre réservation ! Un membre de notre équipe vous contactera sous peu.
Plan du cours
Introduction à la modélisation des menaces en IA
- Qu'est-ce qui rend les systèmes d'IA vulnérables ?
- Surface d'attaque de l'IA vs systèmes traditionnels
- Vecteurs d'attaque clés : couches de données, modèles, sortie et interface
Attaques adverses sur les modèles d'IA
- Comprendre les exemples adverses et les techniques de perturbation
- Attaques en boîte blanche vs attaques en boîte noire
- Méthodes FGSM, PGD et DeepFool
- Visualisation et création d'échantillons adverses
Inversion de modèle et fuites de confidentialité
- Inférer les données d'entraînement à partir de la sortie du modèle
- Attaques par inférence de membres
- Risques de confidentialité dans les modèles de classification et génératifs
Empoisonnement des données et injections de porte-de-derrière
- Comment les données empoisonnées influencent le comportement du modèle
- Portes-de-derrière basées sur des déclencheurs et attaques de Troie
- Stratégies de détection et de nettoyage
Robustesse et techniques de défense
- Entraînement adverse et augmentation des données
- Masquage du gradient et prétraitement des entrées
- Techniques de lissage et régularisation des modèles
Défenses d'IA respectueuses de la vie privée
- Introduction à la confidentialité différentielle
- Injection de bruit et budgets de confidentialité
- Apprentissage fédéré et agrégation sécurisée
Sécurité de l'IA en pratique
- Évaluation et déploiement des modèles sensibles aux menaces
- Utilisation d'ART (Boîte à outils de robustesse adversaire) dans les environnements appliqués
- Études de cas industrielles : violations et atténuations réelles
Résumé et étapes suivantes
Pré requis
- Une compréhension des workflows d'apprentissage automatique et de l'entraînement des modèles
- Une expérience avec Python et des frameworks d'IA courants tels que PyTorch ou TensorFlow
- Une familiarité avec les concepts de base de sécurité ou de modélisation des menaces est utile
Public cible
- Ingénieurs en apprentissage automatique
- Analystes de cybersécurité
- Chercheurs en IA et équipes de validation des modèles
14 Heures
Nos clients témoignent (1)
Les connaissances professionnelles et la manière dont il les a présentées devant nous
Miroslav Nachev - PUBLIC COURSE
Formation - Cybersecurity in AI Systems
Traduction automatique