Bedankt voor uw aanvraag! Een van onze medewerkers neemt binnenkort contact met u op
Bedankt voor uw boeking! Een van onze medewerkers neemt binnenkort contact met u op.
Cursusaanbod
Introductie tot AI Red Teaming
- Begrip van de AI bedreigingslandscape
- Rollen van rode teams in AI-beveiliging
- Ethische en juridische overwegingen
Adversarial Machine Learning
- Types of aanvallen: omzeilen, vergiftigen, extraheren, infereren
- Het genereren van adversariale voorbeelden (bijv., FGSM, PGD)
- Gedoelde vs. niet-gedoelde aanvallen en succesmetriek
Testen van Modelrobustheid
- Robustheid evalueren onder verstoringen
- Blindvlekken en falenmodi van modellen onderzoeken
- Stress testen van classificatie, visie en NLP-modellen
Red Teaming AI Pipelines
- Aanvalsobervlak van AI-pipelines: gegevens, model, implementatie
- Uitbuiten van onveilige model-API's en eindpunten
- Omkeren van modelgedrag en uitvoeren
Simulatie en Tools
- Gebruik van de Adversarial Robustness Toolbox (ART)
- Red teaming met tools zoals TextAttack en IBM ART
- Sandboxing, monitoring en observability tools
AI Red Team Strategie en Verdediging Collaboration
- Ontwikkelen van red team-oefeningen en doelstellingen
- Resultaten overbrengen aan blauwe teams
- Red teaming integreren in AI-risicobeheer
Samenvatting en Volgende Stappen
Vereisten
- Begrip van machine learning en deep learning architecturen
- Ervaring met Python en ML frameworks (bijvoorbeeld, TensorFlow, PyTorch)
- Kennis van cybersecurity concepten of offensieve security technieken
Doelgroep
- Security onderzoekers
- Offensieve security teams
- AI assurance en red team professionals
14 Uren