Cursusaanbod

Inleiding tot AI Threat Modeling

  • Wat maakt AI-systemen kwetsbaar?
  • AI-aanvalsobervlak vs traditionele systemen
  • Sleutelaanvalsvektoren: data, model, uitvoer- en interfacelaag

Adversarial Attacks on AI Models

  • Begrijpen van adversariale voorbeelden en verstoringstechnieken
  • White-box vs black-box aanvallen
  • FGSM, PGD en DeepFool methoden
  • Visualiseren en creëren van adversariale samples

Model Inversion en Privacy Leakage

  • Afleiden van traindata uit modeluitvoer
  • Lidmaatschapsinferentieaanvallen
  • Privacyrisico's in classificatie- en generatieve modellen

Data Poisoning en Backdoor Injections

  • Hoe vergiftigde data het modelgedrag beïnvloedt
  • Triggergebaseerde backdoors en Trojaanse aanvallen
  • Detectie- en saneringsstrategieën

Robustheid en Verdedigingstechnieken

  • Adversariale training en dataverrijking
  • Gradientmaskering en invoerverwerking
  • Modelgladmaken en reguleringstechnieken

Privacy-Bewarende AI-Verdedigingen

  • Inleiding tot differentiaal privacy
  • Ruisonderdrukking en privacybegrotingen
  • Federated learning en veilige aggregatie

AI Security in de Praktijk

  • Threat-aware modelbeoordeling en implementatie
  • Gebruik van ART (Adversarial Robustness Toolbox) in toegepaste instellingen
  • Bedrijfsstudies: echte wereldbreuken en verminderingen

Samenvatting en Volgende Stappen

Vereisten

  • Inzicht in machine learning workflows en modeltraining
  • Ervaring met Python en veelvoorkomende ML-frameworks zoals PyTorch of TensorFlow
  • Kennis van basisbeveiligings- of bedreigingsmodelconcepten is nuttig

Publiek

  • Machine learning engineers
  • Cybersecurity analysts
  • AI-onderzoekers en modelvalidatieteams
 14 Uren

Aantal deelnemers


Prijs Per Deelnemer

Voorlopige Aankomende Cursussen

Gerelateerde categorieën