Bedankt voor uw aanvraag! Een van onze medewerkers neemt binnenkort contact met u op
Bedankt voor uw boeking! Een van onze medewerkers neemt binnenkort contact met u op.
Cursusaanbod
Inleiding tot AI Threat Modeling
- Wat maakt AI-systemen kwetsbaar?
- AI-aanvalsoppervlak vs traditionele systemen
- Belangrijke aanvalsvectoren: gegevens, model, uitvoer en interface lagen
Adversariale Aanvallen op AI-modellen
- Begrip van adversariale voorbeelden en perturbatietechnieken
- White-box vs black-box aanvallen
- FGSM, PGD en DeepFool-methoden
- Visualiseren en creëren van adversariale samples
Model Inversie en Privacy Leakage
- Afleiden van trainingsgegevens uit modeluitvoer
- Membership inference aanvallen
- Privacyrisico's in classificatie en generatieve modellen
Data Vergiftiging en Backdoor Injecties
- Hoe vergiftegegevens modelgedrag beïnvloeden
- Trigger-based backdoors en Trojan-aanvallen
- Detectie- en sanitatiestrategieën
Robustheid en Defensietechnieken
- Adversariale training en data-augmentatie
- Gradient masking en invoer voorafverwerking
- Modelverzachting en reguleringstechnieken
Privacy-bewarende AI-verdedigingen
- Inleiding tot differentiaal privacy
- Geluidsinjectie en privacy-budgetten
- Federated learning en veilige aggregatie
AI Security in de praktijk
- Threat-aware model-evaluatie en implementatie
- Gebruik van ART (Adversarial Robustness Toolbox) in toegepaste instellingen
- Branche-case studies: echte wereldbreuken en mitigaties
Samenvatting en Volgende Stappen
Vereisten
- Begrip van machine learning workflows en modeltraining
- Ervaring met Python en gemeenschappelijke ML-frameworks zoals PyTorch of TensorFlow
- Kennis van basisbeveiliging of bedreigingsmodelleringsconcepten is handig
Publiek
- Machine learning engineers
- Cybersecurity analisten
- AI-onderzoekers en modelvalidatieteams
14 Uren