Privacy-Beoordigende Machine Learning Training Cursus
Privacy-Beoordigende Machine Learning is een veld dat zich richt op het beschermen van gevoelige gegevens, terwijl er toch sprake kan zijn van geavanceerde AI-mogelijkheden in gedecentraliseerde of beperkte omgevingen.
Deze instructeurgerichte live-training (online of ter plaatse) is gericht op professionals met een geavanceerd niveau die wensen te implementeren en evalueren technieken zoals federated learning, secure multiparty computation, homomorphic encryption en differentiële privacy in echte machine learning-pijplijnen.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
- De belangrijkste privacy-beoordigende technieken in ML te begrijpen en met elkaar te vergelijken.
- Federated learning-systemen te implementeren met open-source frameworks.
- Differentiële privacy toe te passen voor veilig gegevensdelen en modeltraining.
- Encryptie- en beveiligde berekkingstechnieken te gebruiken om modelinvoeren en -uitvoeren te beschermen.
Cursusopzet
- Interactieve lezing en discussie.
- Veel oefeningen en praktijk.
- Praktische implementatie in een live-labomgeving.
Cursusaanpassingsmogelijkheden
- Voor aangepaste training voor deze cursus, neem contact met ons op om de details te bespreken.
Cursusaanbod
Inleiding tot Privacy-Beoordigende ML
- Motieven en risico's in gevoelige gegevensomgevingen
- Overzicht van privacy-beoordigende ML-technieken
- Bedreigingsmodellen en regelgevende overwegingen (bijv., GDPR, HIPAA)
Federated Learning
- Concept en architectuur van federated learning
- Client-server-synchronisatie en -aggregatie
- Implementatie met PySyft en Flower
Differentiële Privacy
- Wiskunde van differentiële privacy
- Toepassing van DP in gegevensopvragen en modeltraining
- Gebruik van Opacus en TensorFlow Privacy
Secure Multiparty Computation (SMPC)
- SMPC-protocollen en -gebruiksvoorbeelden
- Encryptie gebaseerd vs geheimsdelingsbenaderingen
- Beveiligde berekkingswerkstromen met CrypTen of PySyft
Homomorfe Encryptie
- Volledige vs partiële homomorfe encryptie
- Geëncrypteerde inferentie voor gevoelige werkbelastingen
- Praktijkervaring met TenSEAL en Microsoft SEAL
Toepassingen en Industrieel Case Studies
- Privacy in de gezondheidszorg: federated learning voor medische AI
- Veilige samenwerking in de financiële sector: risicomodellen en compliance
- Gebruiksvoorbeelden in de verdediging en overheid
Samenvatting en Volgende Stappen
Vereisten
- Een begrip van machine learning-principes
- Ervaring met Python en ML-bibliotheken (bijv., PyTorch, TensorFlow)
- Kennis van gegevensbeschermings- of cybersecurityconcepten is nuttig
Doelgroep
- AI-onderzoekers
- Gegevensbeschermings- en privacycompliance-teams
- Veiligheidstechnici die werken in gereguleerde industrieën
Voor open trainingen is een minimum aantal van 5 deelnemers vereist
Privacy-Beoordigende Machine Learning Training Cursus - Boeking
Privacy-Beoordigende Machine Learning Training Cursus - Navraag
Privacy-Beoordigende Machine Learning - Consultancyaanvraag
Consultancyaanvraag
Voorlopige Aankomende Cursussen
Gerelateerde cursussen
ISACA Advanced in AI Security Management (AAISM)
21 UrenAAISM is een geavanceerd kader voor het beoordelen, besturen en beheren van veiligheidsrisico's in kunstmatige intelligentiesystemen.
Dit instructeurgeleide, live-training (online of ter plekke) is gericht op professionals met een geavanceerd niveau die effectieve veiligheidscontroles en bestuurlijke praktijken willen implementeren voor enterprise AI-omgevingen.
Aan het einde van deze opleiding zullen de deelnemers in staat zijn om:
- AI-veiligheidsrisico's te beoordelen met behulp van industriegeaccepteerde methodologieën.
- Bestuurlijke modellen voor verantwoordelijke implementatie van AI in te voeren.
- AI-veiligheidsbeleid aan organisatorische doelstellingen en reguleringsverplichtingen uit te richten.
- Veerkracht en aansprakelijkheid binnen AI-aangedreven operaties te versterken.
Opzet van de cursus
- Faciliteiten voor voordrachten ondersteund door deskundige analyse.
- Praktische workshops en evaluatiegebaseerde activiteiten.
- Toepasbare oefeningen met realistische AI-bestuursscenario's.
Cursusaanscherpingsopties
- Voor op maat gemaakte training afgestemd op uw organisatorische AI-strategie, neem dan contact met ons op om de cursus aan te passen.
AI Bestuur, Compliance en Veiligheid voor Ondernemingsleiders
14 UrenDeze instructeurgerichte live training in België (online of ter plaatse) is gericht op middelbare ondernemingsleiders die willen begrijpen hoe ze AI-systemen verantwoordelijk kunnen besturen en beveiligen, in overeenstemming met emergente globale kaders zoals de EU AI Act, GDPR, ISO/IEC 42001 en het Amerikaanse presidentsbesluit over AI.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
- De juridische, ethische en regulatoire risico's van het gebruik van AI over verschillende afdelingen te begrijpen.
- Belangrijke AI-bestuurskaders (EU AI Act, NIST AI RMF, ISO/IEC 42001) te interpreteren en toe te passen.
- Veiligheids-, auditing- en toezichtbeleid voor de implementatie van AI in het bedrijf op te stellen.
- Aankoop- en gebruikrichtlijnen voor derden en in-house AI-systemen te ontwikkelen.
AI Risk Management en Security in de Publieke Sector
7 UrenKunstmatige Intelligentie (KI) brengt nieuwe dimensies van operationeel risico, bestuurlijke uitdagingen en cybersecurity-exposities met zich mee voor overheidsinstanties en departementen.
Deze door een instructeur geleide, live training (online of ter plaatse) is gericht op IT- en risicoprofessionals in de publieke sector die beperkte ervaring hebben met KI en willen begrijpen hoe ze KIsystemen kunnen evalueren, bewaken en beveiligen binnen een overheids- of reguleringscontext.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
- Belangrijke risicokernen die specifiek voor KIsystemen gelden, zoals bias, onvoorspelbaarheid en model drift, te interpreteren.
- Specifieke bestuurlijke en auditframeworks voor KI toe te passen, zoals NIST AI RMF en ISO/IEC 42001.
- Cybersecurity-bedreigingen die gericht zijn op KImodellen en datapipelines te herkennen.
- Risicomanagementplannen en beleidsharmonisatie over departementen heen voor de implementatie van KI te vestigen.
Format van het Cursus
- Interactieve lezing en bespreking van use cases in de publieke sector.
- Oefeningen met KI-bestuurlijke frameworks en beleidsafstemming.
- Scenario-gebaseerd dreigingsmodel en risico-evaluatie.
Cursus Aanpassingsopties
- Voor een op maat gemaakte training voor deze cursus kunt u contact met ons opnemen om de details te regelen.
Inleiding tot AI Vertrouwen, Risico en Security Management (AI TRiSM)
21 UrenDeze docentgeleide, live training (online of op locatie) is bedoeld voor IT-professionals op begin- tot middel-niveau die AI TRiSM in hun organisaties willen begrijpen en implementeren.
Na deze training kunnen de deelnemers:
- De kernbegrippen en de belangrijkheid van het beheer van AI-trust, risico en veiligheid begrijpen.
- Risico's die gepaard gaan met AI-systemen identificeren en verminderen.
- Veiligheidsbestreksingen voor AI implementeren.
- De regelgeving en ethische overwegingen voor AI begrijpen.
- Strategieën ontwikkelen voor effectief AI-beheer en -bestuur.
Building Secure and Responsible LLM Applications
14 UrenDeze instructeurgeleide, live training in België (online of op locatie) is gericht op AI-ontwikkelaars, architecten en productmanagers op tussen- en gevorderd niveau die risico's willen identificeren en verminderen die verband houden met LLM-gestuurde toepassingen, waaronder prompt injectie, datalekken en ongefilterde uitvoer, terwijl ze veiligheidscontroles zoals invoervalidatie, mens-in-de-schijf toezicht en uitvoerbeveiligingen integreren.
Na deze training zullen de deelnemers in staat zijn om:
- De kernkwetsbaarheden van LLM-gebaseerde systemen te begrijpen.
- Veilige ontwerpprincipes toe te passen op de architectuur van LLM-apps.
- Tools zoals Guardrails AI en LangChain te gebruiken voor validatie, filtering en veiligheid.
- Technieken zoals sandboxing, red teaming en mens-in-de-schijf beoordeling te integreren in productiekwaliteitslijnen.
Cyberbeveiliging in AI-systemen
14 UrenDeze door een instructeur geleide, live-training (online of op locatie) is gericht op professionals op het gebied van AI en cybersecurity op tussenliggend niveau die de beveiligingskwetsbaarheden specifiek voor AI-modellen en -systemen willen begrijpen en aanpakken, met name in sterk gereguleerde sectoren zoals financiële dienstverlening, databeheer en advies.
Na afloop van deze training zullen de deelnemers in staat zijn om:
- De soorten aanvalsvrienden die AI-systeem en methoden om zich te verdedigen te begrijpen.
- Modelversterkingstechnieken te implementeren om machine learning-pijplijnen te beveiligen.
- Gegevensbeveiliging en integriteit te waarborgen in machine learning-modellen.
- De wettelijke nalevingsvereisten met betrekking tot AI-beveiliging te navigeren.
Inleiding tot AI-beveiliging en risicomanagement
14 UrenDeze door een instructeur geleide live-training in België (online of ter plaatse) is gericht op beginnersniveau IT-beveiligings-, risico- en complianceprofessionals die de basisprincipes van AI-beveiliging willen begrijpen, dreigingsscenariô's en wereldwijde kaders zoals NIST AI RMF en ISO/IEC 42001.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
- De unieke beveiligingsrisico's begrijpen die worden geïntroduceerd door AI-systemen.
- Dreigingsscenariô's zoals adversarische aanvallen, data vergiftiging en modelomkering te identificeren.
- Funderende bestuurlijke modellen zoals het NIST AI Risk Management Framework toe te passen.
- De gebruik van AI uit te lijnen met opkomende standaarden, compliance richtlijnen en ethische principes.
OWASP GenAI Security
14 UrenOp basis van de nieuwste richtlijnen van het OWASP GenAI Security Project leren deelnemers hoe ze AI-specifieke bedreigingen kunnen identificeren, waarderen en afwenden door middel van praktische oefeningen en realistische scenario's.
Red Teaming voor AI-systemen: Offensieve beveiliging voor ML-modellen
14 UrenDeze instructiegeleide, live training in België (online of ter plaatse) is gericht op geavanceerde beveiligingsexperts en ML-specialisten die aanvallen willen simuleren op AI-systemen, kwetsbaarheden willen ontdekken en de robuustheid van ingezette AI-modellen willen verbeteren.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
- Echte bedreigingen voor machine learning modellen te simuleren.
- Adversarische voorbeelden te genereren om de robuustheid van modellen te testen.
- De aanvalsoppervlakte van AI-API's en pipelines te beoordelen.
- Red team strategieën voor de implementatieomgeving van AI te ontwerpen.
Securing Edge AI en Embedded Intelligence
14 UrenDeze instructeurgeleide live-training in België (online of op locatie) is gericht op middelbare ingenieurs en beveiligingsspecialisten die AI-modellen aan de edge willen beveiligen tegen bedreigingen zoals vervalsing, gegevenslekken, adversariele invoer en fysieke aanvallen.
Aan het einde van deze training zullen de deelnemers in staat zijn:
- Beveiligingsrisico's in edge AI-implementaties te identificeren en waarderen.
- Vervalsingsbestendige en gecodeerde inferentie-technieken toe te passen.
- Edge-implementeerde modellen te versterken en gegevenspipelines te beveiligen.
- Bedreigingsverminderingstrategieën specifiek voor embedded en beperkte systemen te implementeren.
Beveiliging van AI-modellen: Bedreigingen, aanvallen en verdedigingsstrategieën
14 UrenDeze door een instructeur geleide live-training in België (online of ter plaatse) is gericht op machine learning- en cybersecurity-professionals met een tussenliggend niveau die willen begrijpen en afwenden opkomende bedreigingen tegen AI-modellen, zowel met behulp van conceptuele kaders als praktische verdedigingsmethoden zoals robuuste training en differentiële privacy.
Aan het einde van deze training kunnen de deelnemers:
- Identificeer en classificeer AI-specifieke bedreigingen zoals adversarische aanvallen, inversie en vergiftiging.
- Gebruik tools zoals de Adversarial Robustness Toolbox (ART) om aanvallen te simuleren en modellen te testen.
- Pas praktische verdedigingsmethoden toe, waaronder adversarische training, geluidsinjectie en privacybehoudende technieken.
- Ontwerp bedreigingsbewuste evaluatiestrategieën voor modellen in productieomgevingen.
Beveiliging en Privacy in TinyML-toepassingen
21 UrenTinyML is een benadering om machine learning-modellen te implementeren op energie-efficiënte, middelenbeperkte apparaten die aan de rand van het netwerk werken.
Deze instructeurgeleide, live training (online of ter plaatse) is gericht op geavanceerde professionals die TinyML-pijplijnen willen beveiligen en privacytechnieken willen implementeren in edge AI-toepassingen.
Aan het einde van deze cursus kunnen de deelnemers:
- Specifieke beveiligingsrisico's identificeren die uniek zijn voor TinyML-inferentie op apparaat.
- Privacy-bevorderende mechanismen implementeren voor edge AI-implementaties.
- TinyML-modellen en ingesloten systemen versterken tegen aanvallen van kwade opzet.
- Best practices toepassen voor veilige dataverwerking in middelenbeperkte omgevingen.
Cursusformaat
- Inspirerende lessen ondersteund door gespecialiseerde discussies.
- Praktische oefeningen die zich richten op realistische bedreigingsscenario's.
- Hands-on implementatie met behulp van ingesloten beveiligings- en TinyML-hulpmiddelen.
Cursusaanpassingsopties
- Organisaties kunnen een aangepaste versie van deze training aanvragen die voldoet aan hun specifieke beveiligings- en nalevingsbehoeften.
Veilig & Gecontroleerd Agente AI: Governance, Identiteit en Red-Teaming
21 UrenDeze cursus behandelt governance, identiteitsbeheer en adversarische testen voor agente AI-systemen, met focus op ondernemingsveilige implementatiepatronen en praktische red-teaming technieken.
Dit instructeurgeleide, live-training (online of ter plekke) is gericht op gevorderde professionals die willen ontwerpen, beveiligen en evalueren agentengebaseerde AI-systemen in productieomgevingen.
Aan het einde van deze training kunnen de deelnemers:
- Governance-modellen en -beleid definiëren voor veilige agente AI-implementaties.
- Non-human identiteits- en authenticatieflows ontwerpen voor agenten met minimale rechten.
- Toegangscontroles, audittrajecten en observabiliteit implementeren die zijn afgestemd op autonome agenten.
- Red-team-oefeningen plannen en uitvoeren om misbruik, escalatiepaden en dataexfiltratierisico's te ontdekken.
- Gewone bedreigingen voor agente systemen verminderen door beleid, ingenieurscontroles en monitoring.
Format van de cursus
- Interactieve lessen en bedreigingsmodelworkshops.
- Praktijkopdrachten: identiteitsvoorziening, beleidenforceering en vijandsimulatie.
- Red-team/blue-team-oefeningen en eindbeoordeling van de cursus.
Cursusaanpassingsmogelijkheden
- Voor een aangepaste training voor deze cursus kunt u contact met ons opnemen om dit te regelen.