Bedankt voor uw aanvraag! Een van onze medewerkers neemt binnenkort contact met u op
Bedankt voor uw boeking! Een van onze medewerkers neemt binnenkort contact met u op.
Cursusaanbod
Inleiding tot AI Red Teaming
- Begrijpen van het AI-bedreigingslandschap
- Rollen van red teams in AI-beveiliging
- Ethische en juridische overwegingen
Adversarisch machine learning
- Soorten aanvallen: ontwijken, vergiftigen, extraheren, infereren
- Genereren van adversarische voorbeelden (bijv., FGSM, PGD)
- Geïnformeerde vs. ongeïnformeerde aanvallen en succesmetrieken
Testen van modellenrobustheid
- Robuustheid beoordelen bij variaties
- Modellenblindvlekken en -mislukkingen verkennen
- Stress testen van classificatie, visuele en NLP-modellen
Red Teaming AI-pipelines
- Aanvalsoppervlakte van AI-pipelines: data, model, implementatie
- Exploiteren van onveilige model-API's en -endpoints
- Terugbouwen van modelgedrag en -uitvoer
Simulatie en tooling
- Gebruik maken van het Adversarische Robuustheidstoolkit (ART)
- Red teamen met tools zoals TextAttack en IBM ART
- Sandboxing, monitoring- en observability-tools
AI Red Team strategie en samenwerking met verdedigingsteams
- Ontwikkelen van red team-oefeningen en doelen
- Vinden doorgeven aan blue teams
- Red teaming integreren in AI-risicomanagement
Samenvatting en volgende stappen
Vereisten
- Kennis van machine learning en deep learning architectuur
- Ervaring met Python en ML-frameworks (bijv., TensorFlow, PyTorch)
- Kenmerken van cybersecurity concepten of offensieve beveiligingstechnieken
Doelgroep
- Beveiligingsonderzoekers
- Offensieve beveiligingsteams
- AI-assertering en red team professionals
14 Uren
Getuigenissen (1)
Het professionele kennis en de manier waarop hij het voor ons presenteerde
Miroslav Nachev - PUBLIC COURSE
Cursus - Cybersecurity in AI Systems
Automatisch vertaald