Plan du cours

Introduction à la modélisation des menaces en IA

  • Qu'est-ce qui rend les systèmes d'IA vulnérables ?
  • Surface d'attaque de l'IA vs systèmes traditionnels
  • Vecteurs d'attaque clés : couches de données, modèles, sortie et interface

Attaques adverses sur les modèles d'IA

  • Comprendre les exemples adverses et les techniques de perturbation
  • Attaques en boîte blanche vs attaques en boîte noire
  • Méthodes FGSM, PGD et DeepFool
  • Visualisation et création d'échantillons adverses

Inversion de modèle et fuites de confidentialité

  • Inférer les données d'entraînement à partir de la sortie du modèle
  • Attaques par inférence de membres
  • Risques de confidentialité dans les modèles de classification et génératifs

Empoisonnement des données et injections de porte-de-derrière

  • Comment les données empoisonnées influencent le comportement du modèle
  • Portes-de-derrière basées sur des déclencheurs et attaques de Troie
  • Stratégies de détection et de nettoyage

Robustesse et techniques de défense

  • Entraînement adverse et augmentation des données
  • Masquage du gradient et prétraitement des entrées
  • Techniques de lissage et régularisation des modèles

Défenses d'IA respectueuses de la vie privée

  • Introduction à la confidentialité différentielle
  • Injection de bruit et budgets de confidentialité
  • Apprentissage fédéré et agrégation sécurisée

Sécurité de l'IA en pratique

  • Évaluation et déploiement des modèles sensibles aux menaces
  • Utilisation d'ART (Boîte à outils de robustesse adversaire) dans les environnements appliqués
  • Études de cas industrielles : violations et atténuations réelles

Résumé et étapes suivantes

Pré requis

  • Une compréhension des workflows d'apprentissage automatique et de l'entraînement des modèles
  • Une expérience avec Python et des frameworks d'IA courants tels que PyTorch ou TensorFlow
  • Une familiarité avec les concepts de base de sécurité ou de modélisation des menaces est utile

Public cible

  • Ingénieurs en apprentissage automatique
  • Analystes de cybersécurité
  • Chercheurs en IA et équipes de validation des modèles
 14 Heures

Nombre de participants


Prix ​​par Participant

Nos clients témoignent (1)

Cours à venir

Catégories Similaires