Bedankt voor uw aanvraag! Een van onze medewerkers neemt binnenkort contact met u op
Bedankt voor uw boeking! Een van onze medewerkers neemt binnenkort contact met u op.
Cursusaanbod
Inleiding tot AI Threat Modeling
- Wat maakt AI-systemen kwetsbaar?
- AI-aanvalsobervlak vs traditionele systemen
- Sleutelaanvalsvektoren: data, model, uitvoer- en interfacelaag
Adversarial Attacks on AI Models
- Begrijpen van adversariale voorbeelden en verstoringstechnieken
- White-box vs black-box aanvallen
- FGSM, PGD en DeepFool methoden
- Visualiseren en creëren van adversariale samples
Model Inversion en Privacy Leakage
- Afleiden van traindata uit modeluitvoer
- Lidmaatschapsinferentieaanvallen
- Privacyrisico's in classificatie- en generatieve modellen
Data Poisoning en Backdoor Injections
- Hoe vergiftigde data het modelgedrag beïnvloedt
- Triggergebaseerde backdoors en Trojaanse aanvallen
- Detectie- en saneringsstrategieën
Robustheid en Verdedigingstechnieken
- Adversariale training en dataverrijking
- Gradientmaskering en invoerverwerking
- Modelgladmaken en reguleringstechnieken
Privacy-Bewarende AI-Verdedigingen
- Inleiding tot differentiaal privacy
- Ruisonderdrukking en privacybegrotingen
- Federated learning en veilige aggregatie
AI Security in de Praktijk
- Threat-aware modelbeoordeling en implementatie
- Gebruik van ART (Adversarial Robustness Toolbox) in toegepaste instellingen
- Bedrijfsstudies: echte wereldbreuken en verminderingen
Samenvatting en Volgende Stappen
Vereisten
- Inzicht in machine learning workflows en modeltraining
- Ervaring met Python en veelvoorkomende ML-frameworks zoals PyTorch of TensorFlow
- Kennis van basisbeveiligings- of bedreigingsmodelconcepten is nuttig
Publiek
- Machine learning engineers
- Cybersecurity analysts
- AI-onderzoekers en modelvalidatieteams
14 Uren