Cursusaanbod

Inleiding tot AI Threat Modeling

  • Wat maakt AI-systemen kwetsbaar?
  • AI-aanvalsoppervlak vs traditionele systemen
  • Belangrijke aanvalsvectoren: gegevens, model, uitvoer en interface lagen

Adversariale Aanvallen op AI-modellen

  • Begrip van adversariale voorbeelden en perturbatietechnieken
  • White-box vs black-box aanvallen
  • FGSM, PGD en DeepFool-methoden
  • Visualiseren en creëren van adversariale samples

Model Inversie en Privacy Leakage

  • Afleiden van trainingsgegevens uit modeluitvoer
  • Membership inference aanvallen
  • Privacyrisico's in classificatie en generatieve modellen

Data Vergiftiging en Backdoor Injecties

  • Hoe vergiftegegevens modelgedrag beïnvloeden
  • Trigger-based backdoors en Trojan-aanvallen
  • Detectie- en sanitatiestrategieën

Robustheid en Defensietechnieken

  • Adversariale training en data-augmentatie
  • Gradient masking en invoer voorafverwerking
  • Modelverzachting en reguleringstechnieken

Privacy-bewarende AI-verdedigingen

  • Inleiding tot differentiaal privacy
  • Geluidsinjectie en privacy-budgetten
  • Federated learning en veilige aggregatie

AI Security in de praktijk

  • Threat-aware model-evaluatie en implementatie
  • Gebruik van ART (Adversarial Robustness Toolbox) in toegepaste instellingen
  • Branche-case studies: echte wereldbreuken en mitigaties

Samenvatting en Volgende Stappen

Vereisten

  • Begrip van machine learning workflows en modeltraining
  • Ervaring met Python en gemeenschappelijke ML-frameworks zoals PyTorch of TensorFlow
  • Kennis van basisbeveiliging of bedreigingsmodelleringsconcepten is handig

Publiek

  • Machine learning engineers
  • Cybersecurity analisten
  • AI-onderzoekers en modelvalidatieteams
 14 Uren

Aantal deelnemers


Prijs Per Deelnemer

Voorlopige Aankomende Cursussen

Gerelateerde categorieën