Cursusaanbod

Inleiding tot AI Red Teaming

  • Het begrijpen van de AI-bedreigingslandschap
  • Rollen van red teams in AI-beveiliging
  • Ethische en juridische overwegingen

Adversarial Machine Learning

  • Typen aanvallen: ontwijken, vergiftigen, extraheren, infereren
  • Genereren van adversarial voorbeelden (bijv., FGSM, PGD)
  • Gedoeld versus ongericht aanvallen en succesmetriken

Testen van Model Robustheid

  • Evaluatie van robustheid onder verstoringen
  • Onderzoeken van blindvlekken en falen van het model
  • Stress testen van classificatie-, visie- en NLP-modellen

Red Teaming AI Pipelines

  • Aanvalsovertreffende AI-pipelines: data, model, implementatie
  • Misbruik maken van onveilige model-API's en eindpunten
  • Omkeren van het gedrag en de uitvoeringen van het model

Simulatie en Tools

  • Gebruik van de Adversarial Robustness Toolbox (ART)
  • Red teaming met tools zoals TextAttack en IBM ART
  • Tools voor sandboxing, monitoring en observability

AI Red Team Strategy en Defense Collaboration

  • Ontwikkelen van red team oefeningen en doelen
  • Overdragen van bevindingen naar blue teams
  • Integratie van red teaming in AI-risicobeheer

Samenvatting en Volgende Stappen

Vereisten

  • Een begrip van machine learning en deep learning architecturen
  • Ervaring met Python en ML frameworks (b.v., TensorFlow, PyTorch)
  • Vertrouwdheid met cybersecurity concepten of offensieve security technieken

Publiek

  • Beveiligingsonderzoekers
  • Offensieve security teams
  • AI assurantie en red team professionals
 14 Uren

Aantal deelnemers


Prijs Per Deelnemer

Voorlopige Aankomende Cursussen

Gerelateerde categorieën