Plan du cours
Introduction à la modélisation des menaces en IA
- Qu'est-ce qui rend les systèmes d'IA vulnérables ?
- Surface d'attaque de l'IA vs systèmes traditionnels
- Vecteurs d'attaque clés : couches de données, modèles, sortie et interface
Attaques adverses sur les modèles d'IA
- Comprendre les exemples adverses et les techniques de perturbation
- Attaques en boîte blanche vs attaques en boîte noire
- Méthodes FGSM, PGD et DeepFool
- Visualisation et création d'échantillons adverses
Inversion de modèle et fuites de confidentialité
- Inférer les données d'entraînement à partir de la sortie du modèle
- Attaques par inférence de membres
- Risques de confidentialité dans les modèles de classification et génératifs
Empoisonnement des données et injections de porte-de-derrière
- Comment les données empoisonnées influencent le comportement du modèle
- Portes-de-derrière basées sur des déclencheurs et attaques de Troie
- Stratégies de détection et de nettoyage
Robustesse et techniques de défense
- Entraînement adverse et augmentation des données
- Masquage du gradient et prétraitement des entrées
- Techniques de lissage et régularisation des modèles
Défenses d'IA respectueuses de la vie privée
- Introduction à la confidentialité différentielle
- Injection de bruit et budgets de confidentialité
- Apprentissage fédéré et agrégation sécurisée
Sécurité de l'IA en pratique
- Évaluation et déploiement des modèles sensibles aux menaces
- Utilisation d'ART (Boîte à outils de robustesse adversaire) dans les environnements appliqués
- Études de cas industrielles : violations et atténuations réelles
Résumé et étapes suivantes
Pré requis
- Une compréhension des workflows d'apprentissage automatique et de l'entraînement des modèles
- Une expérience avec Python et des frameworks d'IA courants tels que PyTorch ou TensorFlow
- Une familiarité avec les concepts de base de sécurité ou de modélisation des menaces est utile
Public cible
- Ingénieurs en apprentissage automatique
- Analystes de cybersécurité
- Chercheurs en IA et équipes de validation des modèles
Nos clients témoignent (2)
J'ai vraiment apprécié d'apprendre sur les attaques par IA et les outils disponibles pour commencer à pratiquer et à utiliser activement pour les tests de sécurité. J'ai acquis beaucoup de connaissances que je n'avais pas au début, et le cours a répondu à mes attentes. Ma partie préférée de la formation était le navigateur Comet, et j'ai été impressionné par ce qu'il pouvait faire. C'est assurément quelque chose que je vais explorer davantage. Globalement, c'était un excellent cours et j'ai beaucoup apprécié d'apprendre le Top 10 OWASP GenAI.
Patrick Collins - Optum
Formation - OWASP GenAI Security
Traduction automatique
Les connaissances professionnelles et la manière dont il les a présentées devant nous
Miroslav Nachev - PUBLIC COURSE
Formation - Cybersecurity in AI Systems
Traduction automatique