Cursusaanbod

Inleiding tot AI-bedreigingsmodellering

  • Wat maakt AI-systemen kwetsbaar?
  • AI-aanvalsoppervlak vs traditionele systemen
  • Belangrijkste aanvalspaden: data, model, uitvoer en interface-lagen

Adversarische aanvallen op AI-modellen

  • Inzicht in adversarische voorbeelden en perturbatiemethoden
  • White-box vs black-box aanvallen
  • FGSM, PGD en DeepFool methoden
  • Visualiseren en creëren van adversarische samples

Modelinversie en privacylekken

  • Afleiden van trainingdata uit modeluitvoer
  • Lidmaatschapsinferentieaanvallen
  • Privacyrisico's in classificatie- en generatieve modellen

Datavergiftiging en achterdeurinjecties

  • Hoe vergiftigde data het modelgedrag beïnvloedt
  • Triggergebaseerde achterdeuren en Trojan-aanvallen
  • Detectie- en saniteringstrategieën

Robuustheid en verdedigingsmethoden

  • Adversarische training en data-augmentatie
  • Gradiëntmaskering en invoerpreprocessing
  • Modelgladstrijking en regulatisietechnieken

Privacybehoudende AI-verdedigingsmethoden

  • Inleiding tot differentiële privacy
  • Geluidsinjectie en privacybudgets
  • Federated learning en veilige aggregatie

AI-beveiliging in de praktijk

  • Bedreigingsbewuste modellenevaluatie en implementatie
  • Gebruik van ART (Adversarial Robustness Toolbox) in praktische toepassingen
  • Branchecasestudies: echte aanvallen en afwendingen

Samenvatting en volgende stappen

Vereisten

  • Inzicht in machine learning-werkstromen en modeltraining
  • Ervaring met Python en veelgebruikte ML-frameworks zoals PyTorch of TensorFlow
  • Familiariteit met basisveiligheids- of bedreigingsmodelleringconcepten is nuttig

Doelgroep

  • Machine learning-ingenieurs
  • Cybersecurity-analisten
  • AI-onderzoekers en modelvalidatieteam
 14 Uren

Aantal deelnemers


Prijs Per Deelnemer

Getuigenissen (1)

Voorlopige Aankomende Cursussen

Gerelateerde categorieën