Cursusaanbod

Inleiding tot AI Red Teaming

  • Begrijpen van het AI-bedreigingslandschap
  • Rollen van red teams in AI-beveiliging
  • Ethische en juridische overwegingen

Adversarisch machine learning

  • Soorten aanvallen: ontwijken, vergiftigen, extraheren, infereren
  • Genereren van adversarische voorbeelden (bijv., FGSM, PGD)
  • Geïnformeerde vs. ongeïnformeerde aanvallen en succesmetrieken

Testen van modellenrobustheid

  • Robuustheid beoordelen bij variaties
  • Modellenblindvlekken en -mislukkingen verkennen
  • Stress testen van classificatie, visuele en NLP-modellen

Red Teaming AI-pipelines

  • Aanvalsoppervlakte van AI-pipelines: data, model, implementatie
  • Exploiteren van onveilige model-API's en -endpoints
  • Terugbouwen van modelgedrag en -uitvoer

Simulatie en tooling

  • Gebruik maken van het Adversarische Robuustheidstoolkit (ART)
  • Red teamen met tools zoals TextAttack en IBM ART
  • Sandboxing, monitoring- en observability-tools

AI Red Team strategie en samenwerking met verdedigingsteams

  • Ontwikkelen van red team-oefeningen en doelen
  • Vinden doorgeven aan blue teams
  • Red teaming integreren in AI-risicomanagement

Samenvatting en volgende stappen

Vereisten

  • Kennis van machine learning en deep learning architectuur
  • Ervaring met Python en ML-frameworks (bijv., TensorFlow, PyTorch)
  • Kenmerken van cybersecurity concepten of offensieve beveiligingstechnieken

Doelgroep

  • Beveiligingsonderzoekers
  • Offensieve beveiligingsteams
  • AI-assertering en red team professionals
 14 Uren

Aantal deelnemers


Prijs Per Deelnemer

Voorlopige Aankomende Cursussen

Gerelateerde categorieën