Bedankt voor uw aanvraag! Een van onze medewerkers neemt binnenkort contact met u op
Bedankt voor uw boeking! Een van onze medewerkers neemt binnenkort contact met u op.
Cursusaanbod
Inleiding tot AI Red Teaming
- Het begrijpen van de AI-bedreigingslandschap
- Rollen van red teams in AI-beveiliging
- Ethische en juridische overwegingen
Adversarial Machine Learning
- Typen aanvallen: ontwijken, vergiftigen, extraheren, infereren
- Genereren van adversarial voorbeelden (bijv., FGSM, PGD)
- Gedoeld versus ongericht aanvallen en succesmetriken
Testen van Model Robustheid
- Evaluatie van robustheid onder verstoringen
- Onderzoeken van blindvlekken en falen van het model
- Stress testen van classificatie-, visie- en NLP-modellen
Red Teaming AI Pipelines
- Aanvalsovertreffende AI-pipelines: data, model, implementatie
- Misbruik maken van onveilige model-API's en eindpunten
- Omkeren van het gedrag en de uitvoeringen van het model
Simulatie en Tools
- Gebruik van de Adversarial Robustness Toolbox (ART)
- Red teaming met tools zoals TextAttack en IBM ART
- Tools voor sandboxing, monitoring en observability
AI Red Team Strategy en Defense Collaboration
- Ontwikkelen van red team oefeningen en doelen
- Overdragen van bevindingen naar blue teams
- Integratie van red teaming in AI-risicobeheer
Samenvatting en Volgende Stappen
Vereisten
- Een begrip van machine learning en deep learning architecturen
- Ervaring met Python en ML frameworks (b.v., TensorFlow, PyTorch)
- Vertrouwdheid met cybersecurity concepten of offensieve security technieken
Publiek
- Beveiligingsonderzoekers
- Offensieve security teams
- AI assurantie en red team professionals
14 Uren