Securing Edge AI en Embedded Intelligence Training Cursus
Het beveiligen van Edge AI en Embedded Intelligence is de praktijk om machine learning-modellen en gegevens te beschermen in beperkte, vaak fysiek blootgestelde omgevingen zoals drones, sensoren, slimme camera's en autonome systemen.
Dit instructeurgeleide live-training (online of op locatie) is gericht op middelbare ingenieurs en beveiligingsspecialisten die AI-modellen aan de edge willen beveiligen tegen bedreigingen zoals vervalsing, gegevenslekken, adversariele invoer en fysieke aanvallen.
Aan het einde van deze training zullen de deelnemers in staat zijn:
- Beveiligingsrisico's in edge AI-implementaties te identificeren en waarderen.
- Vervalsingsbestendige en gecodeerde inferentie-technieken toe te passen.
- Edge-implementeerde modellen te versterken en gegevenspipelines te beveiligen.
- Bedreigingsverminderingstrategieën specifiek voor embedded en beperkte systemen te implementeren.
Formaat van de cursus
- Interactieve lezing en discussie.
- Veel oefeningen en praktijk.
- Handson implementation in een live-lab omgeving.
Cursusaanpassingsopties
- Voor een aangepaste training voor deze cursus, neem contact met ons op om het te regelen.
Cursusaanbod
Introductie tot Edge AI en Embedded Systems
- Wat is Edge AI? Gebruiksgevallen en beperkingen
- Edge hardware platforms en software stacks
- Beveiligingsuitdagingen in embedded en gedecentraliseerde omgevingen
Bedreigingssituatie voor Edge AI
- Risico's van fysieke toegang en vervalsing
- Adversariele voorbeelden en modelmanipulatie
- Gegevenslekken en bedreigingen door modelinversie
Beveiliging van het model
- Modelversterking en kwantisatiestrategieën
- Watermarken en vingerafdrukken voor modellen
- Defensieve distillatie en prunen
Gecodeerde inferentie en veilige uitvoering
- Betrouwbare uitvoeromgevingen (TEEs) voor AI
- Veilige enclave's en vertrouwelijk computing
- Gecodeerde inferentie met behulp van homomorfe codering of SMPC
Vervalsingsdetectie en apparaatniveau-controls
- Veilige boot en firmware-integriteitscontroles
- Sensorenvalidatie en anomaliedetectie
- Remote attestatie en apparaatzondagscontrole
Integratie van edge-naar-cloud-beveiliging
- Veilige gegevensoverdracht en sleutelbeheer
- End-to-end codering en gegevenslevencycle-beveiliging
- Cloud AI-orchestratie met edge-beveiligingsbeperkingen
Best practices en risicominimalisatiestrategie
- Threat modeling voor edge AI-systemen
- Beveiligingsontwerpprincipes voor embedded intelligence
- Incidentresponse en firmware-updatebeheer
Samenvatting en volgende stappen
Vereisten
- Kennis van embedded systemen of edge AI-implementatieomgevingen
- Ervaring met Python en ML-frameworks (bijv., TensorFlow Lite, PyTorch Mobile)
- Basisfamiliariteit met cybersecurity of IoT-bedreigingsmodellen
Doelgroep
- Embedded AI-ontwikkelaars
- IoT-beveiligingsspecialisten
- Ingenieurs die ML-modellen implementeren op edge of beperkte apparaten
Voor open trainingen is een minimum aantal van 5 deelnemers vereist
Securing Edge AI en Embedded Intelligence Training Cursus - Boeking
Securing Edge AI en Embedded Intelligence Training Cursus - Navraag
Securing Edge AI en Embedded Intelligence - Consultancyaanvraag
Consultancyaanvraag
Voorlopige Aankomende Cursussen
Gerelateerde cursussen
ISACA Advanced in AI Security Management (AAISM)
21 UrenAAISM is een geavanceerd kader voor het beoordelen, besturen en beheren van veiligheidsrisico's in kunstmatige intelligentiesystemen.
Dit instructeurgeleide, live-training (online of ter plekke) is gericht op professionals met een geavanceerd niveau die effectieve veiligheidscontroles en bestuurlijke praktijken willen implementeren voor enterprise AI-omgevingen.
Aan het einde van deze opleiding zullen de deelnemers in staat zijn om:
- AI-veiligheidsrisico's te beoordelen met behulp van industriegeaccepteerde methodologieën.
- Bestuurlijke modellen voor verantwoordelijke implementatie van AI in te voeren.
- AI-veiligheidsbeleid aan organisatorische doelstellingen en reguleringsverplichtingen uit te richten.
- Veerkracht en aansprakelijkheid binnen AI-aangedreven operaties te versterken.
Opzet van de cursus
- Faciliteiten voor voordrachten ondersteund door deskundige analyse.
- Praktische workshops en evaluatiegebaseerde activiteiten.
- Toepasbare oefeningen met realistische AI-bestuursscenario's.
Cursusaanscherpingsopties
- Voor op maat gemaakte training afgestemd op uw organisatorische AI-strategie, neem dan contact met ons op om de cursus aan te passen.
AI Bestuur, Compliance en Veiligheid voor Ondernemingsleiders
14 UrenDeze instructeurgerichte live training in België (online of ter plaatse) is gericht op middelbare ondernemingsleiders die willen begrijpen hoe ze AI-systemen verantwoordelijk kunnen besturen en beveiligen, in overeenstemming met emergente globale kaders zoals de EU AI Act, GDPR, ISO/IEC 42001 en het Amerikaanse presidentsbesluit over AI.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
- De juridische, ethische en regulatoire risico's van het gebruik van AI over verschillende afdelingen te begrijpen.
- Belangrijke AI-bestuurskaders (EU AI Act, NIST AI RMF, ISO/IEC 42001) te interpreteren en toe te passen.
- Veiligheids-, auditing- en toezichtbeleid voor de implementatie van AI in het bedrijf op te stellen.
- Aankoop- en gebruikrichtlijnen voor derden en in-house AI-systemen te ontwikkelen.
AI Risk Management en Security in de Publieke Sector
7 UrenKunstmatige Intelligentie (KI) brengt nieuwe dimensies van operationeel risico, bestuurlijke uitdagingen en cybersecurity-exposities met zich mee voor overheidsinstanties en departementen.
Deze door een instructeur geleide, live training (online of ter plaatse) is gericht op IT- en risicoprofessionals in de publieke sector die beperkte ervaring hebben met KI en willen begrijpen hoe ze KIsystemen kunnen evalueren, bewaken en beveiligen binnen een overheids- of reguleringscontext.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
- Belangrijke risicokernen die specifiek voor KIsystemen gelden, zoals bias, onvoorspelbaarheid en model drift, te interpreteren.
- Specifieke bestuurlijke en auditframeworks voor KI toe te passen, zoals NIST AI RMF en ISO/IEC 42001.
- Cybersecurity-bedreigingen die gericht zijn op KImodellen en datapipelines te herkennen.
- Risicomanagementplannen en beleidsharmonisatie over departementen heen voor de implementatie van KI te vestigen.
Format van het Cursus
- Interactieve lezing en bespreking van use cases in de publieke sector.
- Oefeningen met KI-bestuurlijke frameworks en beleidsafstemming.
- Scenario-gebaseerd dreigingsmodel en risico-evaluatie.
Cursus Aanpassingsopties
- Voor een op maat gemaakte training voor deze cursus kunt u contact met ons opnemen om de details te regelen.
Inleiding tot AI Vertrouwen, Risico en Security Management (AI TRiSM)
21 UrenDeze docentgeleide, live training (online of op locatie) is bedoeld voor IT-professionals op begin- tot middel-niveau die AI TRiSM in hun organisaties willen begrijpen en implementeren.
Na deze training kunnen de deelnemers:
- De kernbegrippen en de belangrijkheid van het beheer van AI-trust, risico en veiligheid begrijpen.
- Risico's die gepaard gaan met AI-systemen identificeren en verminderen.
- Veiligheidsbestreksingen voor AI implementeren.
- De regelgeving en ethische overwegingen voor AI begrijpen.
- Strategieën ontwikkelen voor effectief AI-beheer en -bestuur.
Building Secure and Responsible LLM Applications
14 UrenDeze instructeurgeleide, live training in België (online of op locatie) is gericht op AI-ontwikkelaars, architecten en productmanagers op tussen- en gevorderd niveau die risico's willen identificeren en verminderen die verband houden met LLM-gestuurde toepassingen, waaronder prompt injectie, datalekken en ongefilterde uitvoer, terwijl ze veiligheidscontroles zoals invoervalidatie, mens-in-de-schijf toezicht en uitvoerbeveiligingen integreren.
Na deze training zullen de deelnemers in staat zijn om:
- De kernkwetsbaarheden van LLM-gebaseerde systemen te begrijpen.
- Veilige ontwerpprincipes toe te passen op de architectuur van LLM-apps.
- Tools zoals Guardrails AI en LangChain te gebruiken voor validatie, filtering en veiligheid.
- Technieken zoals sandboxing, red teaming en mens-in-de-schijf beoordeling te integreren in productiekwaliteitslijnen.
Cyberbeveiliging in AI-systemen
14 UrenDeze door een instructeur geleide, live-training (online of op locatie) is gericht op professionals op het gebied van AI en cybersecurity op tussenliggend niveau die de beveiligingskwetsbaarheden specifiek voor AI-modellen en -systemen willen begrijpen en aanpakken, met name in sterk gereguleerde sectoren zoals financiële dienstverlening, databeheer en advies.
Na afloop van deze training zullen de deelnemers in staat zijn om:
- De soorten aanvalsvrienden die AI-systeem en methoden om zich te verdedigen te begrijpen.
- Modelversterkingstechnieken te implementeren om machine learning-pijplijnen te beveiligen.
- Gegevensbeveiliging en integriteit te waarborgen in machine learning-modellen.
- De wettelijke nalevingsvereisten met betrekking tot AI-beveiliging te navigeren.
Inleiding tot AI-beveiliging en risicomanagement
14 UrenDeze door een instructeur geleide live-training in België (online of ter plaatse) is gericht op beginnersniveau IT-beveiligings-, risico- en complianceprofessionals die de basisprincipes van AI-beveiliging willen begrijpen, dreigingsscenariô's en wereldwijde kaders zoals NIST AI RMF en ISO/IEC 42001.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
- De unieke beveiligingsrisico's begrijpen die worden geïntroduceerd door AI-systemen.
- Dreigingsscenariô's zoals adversarische aanvallen, data vergiftiging en modelomkering te identificeren.
- Funderende bestuurlijke modellen zoals het NIST AI Risk Management Framework toe te passen.
- De gebruik van AI uit te lijnen met opkomende standaarden, compliance richtlijnen en ethische principes.
OWASP GenAI Security
14 UrenOp basis van de nieuwste richtlijnen van het OWASP GenAI Security Project leren deelnemers hoe ze AI-specifieke bedreigingen kunnen identificeren, waarderen en afwenden door middel van praktische oefeningen en realistische scenario's.
Privacy-Beoordigende Machine Learning
14 UrenDeze instructeurgerichte live-training in België (online of ter plaatse) is gericht op professionals met een geavanceerd niveau die wensen te implementeren en evalueren technieken zoals federated learning, secure multiparty computation, homomorphic encryption en differentiële privacy in echte machine learning-pijplijnen.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
- De belangrijkste privacy-beoordigende technieken in ML te begrijpen en met elkaar te vergelijken.
- Federated learning-systemen te implementeren met open-source frameworks.
- Differentiële privacy toe te passen voor veilig gegevensdelen en modeltraining.
- Encryptie- en beveiligde berekkingstechnieken te gebruiken om modelinvoeren en -uitvoeren te beschermen.
Red Teaming voor AI-systemen: Offensieve beveiliging voor ML-modellen
14 UrenDeze instructiegeleide, live training in België (online of ter plaatse) is gericht op geavanceerde beveiligingsexperts en ML-specialisten die aanvallen willen simuleren op AI-systemen, kwetsbaarheden willen ontdekken en de robuustheid van ingezette AI-modellen willen verbeteren.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
- Echte bedreigingen voor machine learning modellen te simuleren.
- Adversarische voorbeelden te genereren om de robuustheid van modellen te testen.
- De aanvalsoppervlakte van AI-API's en pipelines te beoordelen.
- Red team strategieën voor de implementatieomgeving van AI te ontwerpen.
Beveiliging van AI-modellen: Bedreigingen, aanvallen en verdedigingsstrategieën
14 UrenDeze door een instructeur geleide live-training in België (online of ter plaatse) is gericht op machine learning- en cybersecurity-professionals met een tussenliggend niveau die willen begrijpen en afwenden opkomende bedreigingen tegen AI-modellen, zowel met behulp van conceptuele kaders als praktische verdedigingsmethoden zoals robuuste training en differentiële privacy.
Aan het einde van deze training kunnen de deelnemers:
- Identificeer en classificeer AI-specifieke bedreigingen zoals adversarische aanvallen, inversie en vergiftiging.
- Gebruik tools zoals de Adversarial Robustness Toolbox (ART) om aanvallen te simuleren en modellen te testen.
- Pas praktische verdedigingsmethoden toe, waaronder adversarische training, geluidsinjectie en privacybehoudende technieken.
- Ontwerp bedreigingsbewuste evaluatiestrategieën voor modellen in productieomgevingen.
Beveiliging en Privacy in TinyML-toepassingen
21 UrenTinyML is een benadering om machine learning-modellen te implementeren op energie-efficiënte, middelenbeperkte apparaten die aan de rand van het netwerk werken.
Deze instructeurgeleide, live training (online of ter plaatse) is gericht op geavanceerde professionals die TinyML-pijplijnen willen beveiligen en privacytechnieken willen implementeren in edge AI-toepassingen.
Aan het einde van deze cursus kunnen de deelnemers:
- Specifieke beveiligingsrisico's identificeren die uniek zijn voor TinyML-inferentie op apparaat.
- Privacy-bevorderende mechanismen implementeren voor edge AI-implementaties.
- TinyML-modellen en ingesloten systemen versterken tegen aanvallen van kwade opzet.
- Best practices toepassen voor veilige dataverwerking in middelenbeperkte omgevingen.
Cursusformaat
- Inspirerende lessen ondersteund door gespecialiseerde discussies.
- Praktische oefeningen die zich richten op realistische bedreigingsscenario's.
- Hands-on implementatie met behulp van ingesloten beveiligings- en TinyML-hulpmiddelen.
Cursusaanpassingsopties
- Organisaties kunnen een aangepaste versie van deze training aanvragen die voldoet aan hun specifieke beveiligings- en nalevingsbehoeften.
Veilig & Gecontroleerd Agente AI: Governance, Identiteit en Red-Teaming
21 UrenDeze cursus behandelt governance, identiteitsbeheer en adversarische testen voor agente AI-systemen, met focus op ondernemingsveilige implementatiepatronen en praktische red-teaming technieken.
Dit instructeurgeleide, live-training (online of ter plekke) is gericht op gevorderde professionals die willen ontwerpen, beveiligen en evalueren agentengebaseerde AI-systemen in productieomgevingen.
Aan het einde van deze training kunnen de deelnemers:
- Governance-modellen en -beleid definiëren voor veilige agente AI-implementaties.
- Non-human identiteits- en authenticatieflows ontwerpen voor agenten met minimale rechten.
- Toegangscontroles, audittrajecten en observabiliteit implementeren die zijn afgestemd op autonome agenten.
- Red-team-oefeningen plannen en uitvoeren om misbruik, escalatiepaden en dataexfiltratierisico's te ontdekken.
- Gewone bedreigingen voor agente systemen verminderen door beleid, ingenieurscontroles en monitoring.
Format van de cursus
- Interactieve lessen en bedreigingsmodelworkshops.
- Praktijkopdrachten: identiteitsvoorziening, beleidenforceering en vijandsimulatie.
- Red-team/blue-team-oefeningen en eindbeoordeling van de cursus.
Cursusaanpassingsmogelijkheden
- Voor een aangepaste training voor deze cursus kunt u contact met ons opnemen om dit te regelen.