Red Teaming voor AI-systemen: Offensieve beveiliging voor ML-modellen Training Cursus
Red Teaming voor AI-systemen is een gespecialiseerde tak van offensieve beveiliging die zich richt op het identificeren van zwakke plekken in machine learning modellen en implementatiepipelines door middel van adversarische testen en stresssimulaties.
Deze instructiegeleide, live training (online of ter plaatse) is gericht op geavanceerde beveiligingsexperts en ML-specialisten die aanvallen willen simuleren op AI-systemen, kwetsbaarheden willen ontdekken en de robuustheid van ingezette AI-modellen willen verbeteren.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
- Echte bedreigingen voor machine learning modellen te simuleren.
- Adversarische voorbeelden te genereren om de robuustheid van modellen te testen.
- De aanvalsoppervlakte van AI-API's en pipelines te beoordelen.
- Red team strategieën voor de implementatieomgeving van AI te ontwerpen.
Format van het cursus
- Interactieve lezing en discussie.
- Veel oefeningen en praktijk.
- Praktijkgerichte implementatie in een live-lab omgeving.
Cursus aanpassingsopties
- Voor een aangepaste training voor deze cursus, neem contact met ons op om de details te bespreken.
Cursusaanbod
Inleiding tot AI Red Teaming
- Begrijpen van het AI-bedreigingslandschap
- Rollen van red teams in AI-beveiliging
- Ethische en juridische overwegingen
Adversarisch machine learning
- Soorten aanvallen: ontwijken, vergiftigen, extraheren, infereren
- Genereren van adversarische voorbeelden (bijv., FGSM, PGD)
- Geïnformeerde vs. ongeïnformeerde aanvallen en succesmetrieken
Testen van modellenrobustheid
- Robuustheid beoordelen bij variaties
- Modellenblindvlekken en -mislukkingen verkennen
- Stress testen van classificatie, visuele en NLP-modellen
Red Teaming AI-pipelines
- Aanvalsoppervlakte van AI-pipelines: data, model, implementatie
- Exploiteren van onveilige model-API's en -endpoints
- Terugbouwen van modelgedrag en -uitvoer
Simulatie en tooling
- Gebruik maken van het Adversarische Robuustheidstoolkit (ART)
- Red teamen met tools zoals TextAttack en IBM ART
- Sandboxing, monitoring- en observability-tools
AI Red Team strategie en samenwerking met verdedigingsteams
- Ontwikkelen van red team-oefeningen en doelen
- Vinden doorgeven aan blue teams
- Red teaming integreren in AI-risicomanagement
Samenvatting en volgende stappen
Vereisten
- Kennis van machine learning en deep learning architectuur
- Ervaring met Python en ML-frameworks (bijv., TensorFlow, PyTorch)
- Kenmerken van cybersecurity concepten of offensieve beveiligingstechnieken
Doelgroep
- Beveiligingsonderzoekers
- Offensieve beveiligingsteams
- AI-assertering en red team professionals
Voor open trainingen is een minimum aantal van 5 deelnemers vereist
Red Teaming voor AI-systemen: Offensieve beveiliging voor ML-modellen Training Cursus - Boeking
Red Teaming voor AI-systemen: Offensieve beveiliging voor ML-modellen Training Cursus - Navraag
Red Teaming voor AI-systemen: Offensieve beveiliging voor ML-modellen - Consultancyaanvraag
Consultancyaanvraag
Voorlopige Aankomende Cursussen
Gerelateerde cursussen
ISACA Advanced in AI Security Management (AAISM)
21 UrenAAISM is een geavanceerd kader voor het beoordelen, besturen en beheren van veiligheidsrisico's in kunstmatige intelligentiesystemen.
Dit instructeurgeleide, live-training (online of ter plekke) is gericht op professionals met een geavanceerd niveau die effectieve veiligheidscontroles en bestuurlijke praktijken willen implementeren voor enterprise AI-omgevingen.
Aan het einde van deze opleiding zullen de deelnemers in staat zijn om:
- AI-veiligheidsrisico's te beoordelen met behulp van industriegeaccepteerde methodologieën.
- Bestuurlijke modellen voor verantwoordelijke implementatie van AI in te voeren.
- AI-veiligheidsbeleid aan organisatorische doelstellingen en reguleringsverplichtingen uit te richten.
- Veerkracht en aansprakelijkheid binnen AI-aangedreven operaties te versterken.
Opzet van de cursus
- Faciliteiten voor voordrachten ondersteund door deskundige analyse.
- Praktische workshops en evaluatiegebaseerde activiteiten.
- Toepasbare oefeningen met realistische AI-bestuursscenario's.
Cursusaanscherpingsopties
- Voor op maat gemaakte training afgestemd op uw organisatorische AI-strategie, neem dan contact met ons op om de cursus aan te passen.
AI Bestuur, Compliance en Veiligheid voor Ondernemingsleiders
14 UrenDeze instructeurgerichte live training in België (online of ter plaatse) is gericht op middelbare ondernemingsleiders die willen begrijpen hoe ze AI-systemen verantwoordelijk kunnen besturen en beveiligen, in overeenstemming met emergente globale kaders zoals de EU AI Act, GDPR, ISO/IEC 42001 en het Amerikaanse presidentsbesluit over AI.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
- De juridische, ethische en regulatoire risico's van het gebruik van AI over verschillende afdelingen te begrijpen.
- Belangrijke AI-bestuurskaders (EU AI Act, NIST AI RMF, ISO/IEC 42001) te interpreteren en toe te passen.
- Veiligheids-, auditing- en toezichtbeleid voor de implementatie van AI in het bedrijf op te stellen.
- Aankoop- en gebruikrichtlijnen voor derden en in-house AI-systemen te ontwikkelen.
AI Risk Management en Security in de Publieke Sector
7 UrenKunstmatige Intelligentie (KI) brengt nieuwe dimensies van operationeel risico, bestuurlijke uitdagingen en cybersecurity-exposities met zich mee voor overheidsinstanties en departementen.
Deze door een instructeur geleide, live training (online of ter plaatse) is gericht op IT- en risicoprofessionals in de publieke sector die beperkte ervaring hebben met KI en willen begrijpen hoe ze KIsystemen kunnen evalueren, bewaken en beveiligen binnen een overheids- of reguleringscontext.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
- Belangrijke risicokernen die specifiek voor KIsystemen gelden, zoals bias, onvoorspelbaarheid en model drift, te interpreteren.
- Specifieke bestuurlijke en auditframeworks voor KI toe te passen, zoals NIST AI RMF en ISO/IEC 42001.
- Cybersecurity-bedreigingen die gericht zijn op KImodellen en datapipelines te herkennen.
- Risicomanagementplannen en beleidsharmonisatie over departementen heen voor de implementatie van KI te vestigen.
Format van het Cursus
- Interactieve lezing en bespreking van use cases in de publieke sector.
- Oefeningen met KI-bestuurlijke frameworks en beleidsafstemming.
- Scenario-gebaseerd dreigingsmodel en risico-evaluatie.
Cursus Aanpassingsopties
- Voor een op maat gemaakte training voor deze cursus kunt u contact met ons opnemen om de details te regelen.
Inleiding tot AI Vertrouwen, Risico en Security Management (AI TRiSM)
21 UrenDeze docentgeleide, live training (online of op locatie) is bedoeld voor IT-professionals op begin- tot middel-niveau die AI TRiSM in hun organisaties willen begrijpen en implementeren.
Na deze training kunnen de deelnemers:
- De kernbegrippen en de belangrijkheid van het beheer van AI-trust, risico en veiligheid begrijpen.
- Risico's die gepaard gaan met AI-systemen identificeren en verminderen.
- Veiligheidsbestreksingen voor AI implementeren.
- De regelgeving en ethische overwegingen voor AI begrijpen.
- Strategieën ontwikkelen voor effectief AI-beheer en -bestuur.
Building Secure and Responsible LLM Applications
14 UrenDeze instructeurgeleide, live training in België (online of op locatie) is gericht op AI-ontwikkelaars, architecten en productmanagers op tussen- en gevorderd niveau die risico's willen identificeren en verminderen die verband houden met LLM-gestuurde toepassingen, waaronder prompt injectie, datalekken en ongefilterde uitvoer, terwijl ze veiligheidscontroles zoals invoervalidatie, mens-in-de-schijf toezicht en uitvoerbeveiligingen integreren.
Na deze training zullen de deelnemers in staat zijn om:
- De kernkwetsbaarheden van LLM-gebaseerde systemen te begrijpen.
- Veilige ontwerpprincipes toe te passen op de architectuur van LLM-apps.
- Tools zoals Guardrails AI en LangChain te gebruiken voor validatie, filtering en veiligheid.
- Technieken zoals sandboxing, red teaming en mens-in-de-schijf beoordeling te integreren in productiekwaliteitslijnen.
Cyberbeveiliging in AI-systemen
14 UrenDeze door een instructeur geleide, live-training (online of op locatie) is gericht op professionals op het gebied van AI en cybersecurity op tussenliggend niveau die de beveiligingskwetsbaarheden specifiek voor AI-modellen en -systemen willen begrijpen en aanpakken, met name in sterk gereguleerde sectoren zoals financiële dienstverlening, databeheer en advies.
Na afloop van deze training zullen de deelnemers in staat zijn om:
- De soorten aanvalsvrienden die AI-systeem en methoden om zich te verdedigen te begrijpen.
- Modelversterkingstechnieken te implementeren om machine learning-pijplijnen te beveiligen.
- Gegevensbeveiliging en integriteit te waarborgen in machine learning-modellen.
- De wettelijke nalevingsvereisten met betrekking tot AI-beveiliging te navigeren.
Inleiding tot AI-beveiliging en risicomanagement
14 UrenDeze door een instructeur geleide live-training in België (online of ter plaatse) is gericht op beginnersniveau IT-beveiligings-, risico- en complianceprofessionals die de basisprincipes van AI-beveiliging willen begrijpen, dreigingsscenariô's en wereldwijde kaders zoals NIST AI RMF en ISO/IEC 42001.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
- De unieke beveiligingsrisico's begrijpen die worden geïntroduceerd door AI-systemen.
- Dreigingsscenariô's zoals adversarische aanvallen, data vergiftiging en modelomkering te identificeren.
- Funderende bestuurlijke modellen zoals het NIST AI Risk Management Framework toe te passen.
- De gebruik van AI uit te lijnen met opkomende standaarden, compliance richtlijnen en ethische principes.
OWASP GenAI Security
14 UrenOp basis van de nieuwste richtlijnen van het OWASP GenAI Security Project leren deelnemers hoe ze AI-specifieke bedreigingen kunnen identificeren, waarderen en afwenden door middel van praktische oefeningen en realistische scenario's.
Privacy-Beoordigende Machine Learning
14 UrenDeze instructeurgerichte live-training in België (online of ter plaatse) is gericht op professionals met een geavanceerd niveau die wensen te implementeren en evalueren technieken zoals federated learning, secure multiparty computation, homomorphic encryption en differentiële privacy in echte machine learning-pijplijnen.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
- De belangrijkste privacy-beoordigende technieken in ML te begrijpen en met elkaar te vergelijken.
- Federated learning-systemen te implementeren met open-source frameworks.
- Differentiële privacy toe te passen voor veilig gegevensdelen en modeltraining.
- Encryptie- en beveiligde berekkingstechnieken te gebruiken om modelinvoeren en -uitvoeren te beschermen.
Securing Edge AI en Embedded Intelligence
14 UrenDeze instructeurgeleide live-training in België (online of op locatie) is gericht op middelbare ingenieurs en beveiligingsspecialisten die AI-modellen aan de edge willen beveiligen tegen bedreigingen zoals vervalsing, gegevenslekken, adversariele invoer en fysieke aanvallen.
Aan het einde van deze training zullen de deelnemers in staat zijn:
- Beveiligingsrisico's in edge AI-implementaties te identificeren en waarderen.
- Vervalsingsbestendige en gecodeerde inferentie-technieken toe te passen.
- Edge-implementeerde modellen te versterken en gegevenspipelines te beveiligen.
- Bedreigingsverminderingstrategieën specifiek voor embedded en beperkte systemen te implementeren.
Beveiliging van AI-modellen: Bedreigingen, aanvallen en verdedigingsstrategieën
14 UrenDeze door een instructeur geleide live-training in België (online of ter plaatse) is gericht op machine learning- en cybersecurity-professionals met een tussenliggend niveau die willen begrijpen en afwenden opkomende bedreigingen tegen AI-modellen, zowel met behulp van conceptuele kaders als praktische verdedigingsmethoden zoals robuuste training en differentiële privacy.
Aan het einde van deze training kunnen de deelnemers:
- Identificeer en classificeer AI-specifieke bedreigingen zoals adversarische aanvallen, inversie en vergiftiging.
- Gebruik tools zoals de Adversarial Robustness Toolbox (ART) om aanvallen te simuleren en modellen te testen.
- Pas praktische verdedigingsmethoden toe, waaronder adversarische training, geluidsinjectie en privacybehoudende technieken.
- Ontwerp bedreigingsbewuste evaluatiestrategieën voor modellen in productieomgevingen.
Beveiliging en Privacy in TinyML-toepassingen
21 UrenTinyML is een benadering om machine learning-modellen te implementeren op energie-efficiënte, middelenbeperkte apparaten die aan de rand van het netwerk werken.
Deze instructeurgeleide, live training (online of ter plaatse) is gericht op geavanceerde professionals die TinyML-pijplijnen willen beveiligen en privacytechnieken willen implementeren in edge AI-toepassingen.
Aan het einde van deze cursus kunnen de deelnemers:
- Specifieke beveiligingsrisico's identificeren die uniek zijn voor TinyML-inferentie op apparaat.
- Privacy-bevorderende mechanismen implementeren voor edge AI-implementaties.
- TinyML-modellen en ingesloten systemen versterken tegen aanvallen van kwade opzet.
- Best practices toepassen voor veilige dataverwerking in middelenbeperkte omgevingen.
Cursusformaat
- Inspirerende lessen ondersteund door gespecialiseerde discussies.
- Praktische oefeningen die zich richten op realistische bedreigingsscenario's.
- Hands-on implementatie met behulp van ingesloten beveiligings- en TinyML-hulpmiddelen.
Cursusaanpassingsopties
- Organisaties kunnen een aangepaste versie van deze training aanvragen die voldoet aan hun specifieke beveiligings- en nalevingsbehoeften.
Veilig & Gecontroleerd Agente AI: Governance, Identiteit en Red-Teaming
21 UrenDeze cursus behandelt governance, identiteitsbeheer en adversarische testen voor agente AI-systemen, met focus op ondernemingsveilige implementatiepatronen en praktische red-teaming technieken.
Dit instructeurgeleide, live-training (online of ter plekke) is gericht op gevorderde professionals die willen ontwerpen, beveiligen en evalueren agentengebaseerde AI-systemen in productieomgevingen.
Aan het einde van deze training kunnen de deelnemers:
- Governance-modellen en -beleid definiëren voor veilige agente AI-implementaties.
- Non-human identiteits- en authenticatieflows ontwerpen voor agenten met minimale rechten.
- Toegangscontroles, audittrajecten en observabiliteit implementeren die zijn afgestemd op autonome agenten.
- Red-team-oefeningen plannen en uitvoeren om misbruik, escalatiepaden en dataexfiltratierisico's te ontdekken.
- Gewone bedreigingen voor agente systemen verminderen door beleid, ingenieurscontroles en monitoring.
Format van de cursus
- Interactieve lessen en bedreigingsmodelworkshops.
- Praktijkopdrachten: identiteitsvoorziening, beleidenforceering en vijandsimulatie.
- Red-team/blue-team-oefeningen en eindbeoordeling van de cursus.
Cursusaanpassingsmogelijkheden
- Voor een aangepaste training voor deze cursus kunt u contact met ons opnemen om dit te regelen.