Cursusaanbod

Introductie tot AI Red Teaming

  • Begrip van de AI bedreigingslandscape
  • Rollen van rode teams in AI-beveiliging
  • Ethische en juridische overwegingen

Adversarial Machine Learning

  • Types of aanvallen: omzeilen, vergiftigen, extraheren, infereren
  • Het genereren van adversariale voorbeelden (bijv., FGSM, PGD)
  • Gedoelde vs. niet-gedoelde aanvallen en succesmetriek

Testen van Modelrobustheid

  • Robustheid evalueren onder verstoringen
  • Blindvlekken en falenmodi van modellen onderzoeken
  • Stress testen van classificatie, visie en NLP-modellen

Red Teaming AI Pipelines

  • Aanvalsobervlak van AI-pipelines: gegevens, model, implementatie
  • Uitbuiten van onveilige model-API's en eindpunten
  • Omkeren van modelgedrag en uitvoeren

Simulatie en Tools

  • Gebruik van de Adversarial Robustness Toolbox (ART)
  • Red teaming met tools zoals TextAttack en IBM ART
  • Sandboxing, monitoring en observability tools

AI Red Team Strategie en Verdediging Collaboration

  • Ontwikkelen van red team-oefeningen en doelstellingen
  • Resultaten overbrengen aan blauwe teams
  • Red teaming integreren in AI-risicobeheer

Samenvatting en Volgende Stappen

Vereisten

  • Begrip van machine learning en deep learning architecturen
  • Ervaring met Python en ML frameworks (bijvoorbeeld, TensorFlow, PyTorch)
  • Kennis van cybersecurity concepten of offensieve security technieken

Doelgroep

  • Security onderzoekers
  • Offensieve security teams
  • AI assurance en red team professionals
 14 Uren

Aantal deelnemers


Prijs Per Deelnemer

Voorlopige Aankomende Cursussen

Gerelateerde categorieën