Beveiliging en Privacy in TinyML-toepassingen Training Cursus
TinyML is een benadering om machine learning-modellen te implementeren op energie-efficiënte, middelenbeperkte apparaten die aan de rand van het netwerk werken.
Deze instructeurgeleide, live training (online of ter plaatse) is gericht op geavanceerde professionals die TinyML-pijplijnen willen beveiligen en privacytechnieken willen implementeren in edge AI-toepassingen.
Aan het einde van deze cursus kunnen de deelnemers:
- Specifieke beveiligingsrisico's identificeren die uniek zijn voor TinyML-inferentie op apparaat.
- Privacy-bevorderende mechanismen implementeren voor edge AI-implementaties.
- TinyML-modellen en ingesloten systemen versterken tegen aanvallen van kwade opzet.
- Best practices toepassen voor veilige dataverwerking in middelenbeperkte omgevingen.
Cursusformaat
- Inspirerende lessen ondersteund door gespecialiseerde discussies.
- Praktische oefeningen die zich richten op realistische bedreigingsscenario's.
- Hands-on implementatie met behulp van ingesloten beveiligings- en TinyML-hulpmiddelen.
Cursusaanpassingsopties
- Organisaties kunnen een aangepaste versie van deze training aanvragen die voldoet aan hun specifieke beveiligings- en nalevingsbehoeften.
Cursusaanbod
Introductie tot beveiliging in TinyML
- Beveiligingsuitdagingen in middelenbeperkte ML-systemen
- Bedreigingsmodellen voor TinyML-implementaties
- Risicocategorieën voor ingesloten AI-toepassingen
Dataprivacy in edge AI
- Privacyoverwegingen voor dataverwerking op apparaat
- Minimale gegevensblootstelling en -overdracht
- Technieken voor gedecentraliseerde dataverwerking
Aanvallen op TinyML-modellen van kwade opzet
- Bedreigingen door modelontwijkings- en vergiftigingsaanvallen
- Inputmanipulatie via ingesloten sensoren
- Vulbaarheidsanalyse in middelenbeperkte omgevingen
Beveiligingsversterking voor ingesloten ML
- Firmware- en harwareschermlagen
- Toegangscontrole en veilige opstartmechanismen
- Best practices voor het beschermen van inferentiepijplijnen
Privacy-bevorderende TinyML-technieken
- Overwegingen bij kwantificatie en modelontwerp voor privacy
- Technieken voor anonymisering op apparaat
- Lichte versleuteling en methoden voor veilige berekening
Veilige implementatie en onderhoud
- Veilige inrichting van TinyML-apparaten
- OTA-updates en patchstrategieën
- Bewaking en incidentenafhandeling aan de rand
Testen en valideren van veilige TinyML-systemen
- Beveiligings- en privacytestframeworks
- Simulatie van realistische aanvallenscenario's
- Validatie- en nalevingsoverwegingen
Case studies en toegepaste scenario's
- Beveiligingsmislukkingen in edge AI-ecosystemen
- Ontwerpen van robuuste TinyML-architecturen
- Evalueren van compromissen tussen prestaties en bescherming
Samenvatting en volgende stappen
Vereisten
- Inzicht in de architectuur van ingesloten systemen
- Ervaring met machine learning-workflows
- Kennis van cybersecurity-fundamenten
Doelgroep
- Beveiligingsanalisten
- AI-ontwikkelaars
- Ingesloten ingenieurs
Voor open trainingen is een minimum aantal van 5 deelnemers vereist
Beveiliging en Privacy in TinyML-toepassingen Training Cursus - Boeking
Beveiliging en Privacy in TinyML-toepassingen Training Cursus - Navraag
Beveiliging en Privacy in TinyML-toepassingen - Consultancyaanvraag
Consultancyaanvraag
Voorlopige Aankomende Cursussen
Gerelateerde cursussen
AI Governance, Compliance, and Security for Enterprise Leaders
14 UrenDeze door een docent geleide, live training (online of ter plaatse) is gericht op interimbedrijfsleiders die willen begrijpen hoe ze AI-systemen verantwoordelijk en in overeenstemming met opkomende wereldwijde kaders zoals de EU AI Act, GDPR, ISO/IEC 42001 en de U.S. Executive Order on AI kunnen beheersen en beveiligen.
Aan het einde van deze training kunnen de deelnemers:
- De juridische, ethische en regelgevende risico's van het gebruik van AI over verschillende afdelingen begrijpen.
- Grote AI-governance kaders interpreteren en toepassen (EU AI Act, NIST AI RMF, ISO/IEC 42001).
- Beveiligings-, audit- en toezichtbeleid voor AI-implementatie in het bedrijf opstellen.
- Aanvullende inkoop- en gebruikrichtlijnen voor derde partij- en eigen AI-systemen ontwikkelen.
AI Risk Management en Veiligheid in de Openbare Sector
7 UrenArtificial Intelligence (AI) voegt nieuwe dimensies van operationele risico's, governance-uitdagingen en cybersecurity-blootstelling toe voor overheidsinstanties en -afdelingen.
Deze door een instructeur geleide live training (online of op locatie) is gericht op IT- en risicoprofessionals in de publieke sector met beperkte ervaring in AI, die willen leren hoe ze AI-systeem kunnen evalueren, monitoren en veiligstellen in een overheids- of reguleringscontext.
Aan het einde van deze training kunnen de deelnemers:
- Slechtjes begrijpen van de belangrijkste risicoconcepten die betrekking hebben op AI-systeem, inclusief bias, onvoorspelbaarheid en modeldrift.
- AI-specifieke governance- en auditkaders toepassen zoals NIST AI RMF en ISO/IEC 42001.
- Cybersecurity bedreigingen herkennen die AI-modellen en datapijplijnen treffen.
- Doorlopen cross-departementale risicobeheersingsplannen en beleidsuitlijning voor AI-implementatie.
Formaat van de cursus
- Interactieve lezingen en discussie over gebruiksscenario's in de publieke sector.
- Oefeningen met AI-governancekaders en beleidskaarten.
- Scenario-gebaseerde bedreigingsmodellering en risicobeoordeling.
Aanpassingsopties voor de cursus
- Om een aangepaste training voor deze cursus te vragen, neem dan contact met ons op om dit te regelen.
Inleiding tot AI Vertrouwen, Risico en Security Management (AI TRiSM)
21 UrenDeze docentgeleide, live training (online of op locatie) is bedoeld voor IT-professionals op begin- tot middel-niveau die AI TRiSM in hun organisaties willen begrijpen en implementeren.
Na deze training kunnen de deelnemers:
- De kernbegrippen en de belangrijkheid van het beheer van AI-trust, risico en veiligheid begrijpen.
- Risico's die gepaard gaan met AI-systemen identificeren en verminderen.
- Veiligheidsbestreksingen voor AI implementeren.
- De regelgeving en ethische overwegingen voor AI begrijpen.
- Strategieën ontwikkelen voor effectief AI-beheer en -bestuur.
Building Secure and Responsible LLM Applications
14 UrenDeze instructeurgeleide, live training in België (online of op locatie) is gericht op AI-ontwikkelaars, architecten en productmanagers op tussen- en gevorderd niveau die risico's willen identificeren en verminderen die verband houden met LLM-gestuurde toepassingen, waaronder prompt injectie, datalekken en ongefilterde uitvoer, terwijl ze veiligheidscontroles zoals invoervalidatie, mens-in-de-schijf toezicht en uitvoerbeveiligingen integreren.
Na deze training zullen de deelnemers in staat zijn om:
- De kernkwetsbaarheden van LLM-gebaseerde systemen te begrijpen.
- Veilige ontwerpprincipes toe te passen op de architectuur van LLM-apps.
- Tools zoals Guardrails AI en LangChain te gebruiken voor validatie, filtering en veiligheid.
- Technieken zoals sandboxing, red teaming en mens-in-de-schijf beoordeling te integreren in productiekwaliteitslijnen.
Cyberbeveiliging in AI-systemen
14 UrenDeze door een instructeur geleide, live-training (online of op locatie) is gericht op professionals op het gebied van AI en cybersecurity op tussenliggend niveau die de beveiligingskwetsbaarheden specifiek voor AI-modellen en -systemen willen begrijpen en aanpakken, met name in sterk gereguleerde sectoren zoals financiële dienstverlening, databeheer en advies.
Na afloop van deze training zullen de deelnemers in staat zijn om:
- De soorten aanvalsvrienden die AI-systeem en methoden om zich te verdedigen te begrijpen.
- Modelversterkingstechnieken te implementeren om machine learning-pijplijnen te beveiligen.
- Gegevensbeveiliging en integriteit te waarborgen in machine learning-modellen.
- De wettelijke nalevingsvereisten met betrekking tot AI-beveiliging te navigeren.
Inleiding tot AI Security en Risk Management
14 UrenDeze door een instructeur geleide, live training (online of op locatie) is gericht op beginnende IT-beveiligings-, risico- en nalevingsprofessionals die fundamentele AI-beveiligingsconcepten, bedreigingsvectoren en wereldwijde kaders zoals NIST AI RMF en ISO/IEC 42001 willen begrijpen.
Aan het einde van deze training kunnen de deelnemers:
- De unieke beveiligingsrisico's die worden geïntroduceerd door AI-systemen begrijpen.
- Bedreigingsvectoren zoals adversaire aanvalen, data-vervuiling en modelinversie identificeren.
- Fundamentele governance-modellen zoals de NIST AI Risk Management Framework toepassen.
- AI-gebruik afstemmen op opkomende normen, nalevingsrichtlijnen en ethische principes.
Deplooiing AI op Microcontrollers met TinyML
21 UrenDeze door een instructeur geleide, live training (online of ter plaatse) is gericht op embedded systems engineers en AI-ontwikkelaars op intermediair niveau die machine learning modellen op microcontrollers willen implementeren met behulp van TensorFlow Lite en Edge Impulse.
Na afronding van deze training kunnen de deelnemers:
- De basisprincipes van TinyML en de voordelen voor edge AI-toepassingen begrijpen.
- Een ontwikkelomgeving voor TinyML-projecten instellen.
- AI-modellen trainen, optimaliseren en implementeren op laagvermogen microcontrollers.
- TensorFlow Lite en Edge Impulse gebruiken om praktische TinyML-toepassingen te implementeren.
- AI-modellen optimaliseren voor stroomefficiëntie en geheugenbeperkingen.
OWASP GenAI Security
14 UrenOp basis van de nieuwste richtlijnen van het OWASP GenAI Security Project leren deelnemers hoe ze AI-specifieke bedreigingen kunnen identificeren, waarderen en afwenden door middel van praktische oefeningen en realistische scenario's.
Privacy-behoudend Machine Learning
14 UrenDeze door een instructeur geleide, live training (online of ter plaatse) is gericht op professionals op gevorderd niveau die technieken zoals federated learning, secure multiparty computation, homomorphic encryption en differential privacy willen implementeren en evalueren in echte machine learning pipelines.
Aan het einde van deze training kunnen de deelnemers:
- De belangrijkste privacybehoudende technieken in ML begrijpen en vergelijken.
- Federated learning systemen implementeren met behulp van open-source frameworks.
- Differential privacy toepassen voor veilige gegevensdeling en modeltraining.
- Encryptie en veilige computatietechnieken gebruiken om modelinvoer en -uitvoer te beschermen.
Red Teaming AI Systems: Offensive Security for ML Models
14 UrenDeze door een instructeur geleide, live training (online of ter plaatse) is bedoeld voor geavanceerde beveiligingsexperts en ML-specialisten die aanvallen op AI-systeem willen simuleren, kwetsbaarheden willen ontdekken en de robustheid van ingediende AI-modellen willen versterken.
Aan het einde van deze training kunnen deelnemers:
- Echte bedreigingen voor machine learning-modellen simuleren.
- Adversariale voorbeelden genereren om de robustheid van modellen te testen.
- Het aanvalsobervlak van AI-API's en pipelines beoordelen.
- Red teaming-strategieën ontwerpen voor AI-implementatieomgevingen.
Securing Edge AI en Ingebouwde Intelligentie
14 UrenDeze door instructeurs geleide, live training (online of ter plaatse) is gericht op medewerkers met tussenkennis op het gebied van ingenieurs en beveiligingsspecialisten die AI-modellen die op de rand zijn ingezet willen beschermen tegen bedreigingen zoals tampering, datalekken, adversaire invoer en fysieke aanvallen.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
- Beveiligingsrisico's in AI-oplossingen op de rand te identificeren en beoordelen.
- Tamper-resistente en versleutelde inferentie technieken toe te passen.
- Modellen op de rand te versterken en gegevenspijplijnen te beveiligen.
- Bedreigingsbeperkingsstrategieën specifiek voor ingebedde en beperkte systemen te implementeren.
Securing AI Models: Threats, Attacks, and Defenses
14 UrenDeze door een instructeur geleide live-training (online of op locatie) is bedoeld voor machine learning- en cyberbeveiligingsprofessionals op intermiddelair niveau die de opkomende bedreigingen tegen AI-modellen willen begrijpen en verminderen. Ze gebruiken zowel conceptuele kaders als praktische verdedigingen zoals robust training en differentiële privacy.
Na afloop van deze training zullen de deelnemers in staat zijn om:
- Specifieke AI-bedreigingen zoals adversarische aanvallen, inversie en vergiftiging te identificeren en te classificeren.
- Gebruik maken van tools zoals de Adversarial Robustness Toolbox (ART) om aanvallen te simuleren en modellen te testen.
- Praktische verdedigingen toe te passen, zoals adversarische training, ruisinjectie en privacybehoudende technieken.
- Bedreigingsbewuste model-evaluatiestrategieën te ontwerpen in productieomgevingen.
Veilig & Gecontroleerd Agente AI: Governance, Identiteit en Red-Teaming
21 UrenDeze cursus behandelt governance, identiteitsbeheer en adversarische testen voor agente AI-systemen, met focus op ondernemingsveilige implementatiepatronen en praktische red-teaming technieken.
Dit instructeurgeleide, live-training (online of ter plekke) is gericht op gevorderde professionals die willen ontwerpen, beveiligen en evalueren agentengebaseerde AI-systemen in productieomgevingen.
Aan het einde van deze training kunnen de deelnemers:
- Governance-modellen en -beleid definiëren voor veilige agente AI-implementaties.
- Non-human identiteits- en authenticatieflows ontwerpen voor agenten met minimale rechten.
- Toegangscontroles, audittrajecten en observabiliteit implementeren die zijn afgestemd op autonome agenten.
- Red-team-oefeningen plannen en uitvoeren om misbruik, escalatiepaden en dataexfiltratierisico's te ontdekken.
- Gewone bedreigingen voor agente systemen verminderen door beleid, ingenieurscontroles en monitoring.
Format van de cursus
- Interactieve lessen en bedreigingsmodelworkshops.
- Praktijkopdrachten: identiteitsvoorziening, beleidenforceering en vijandsimulatie.
- Red-team/blue-team-oefeningen en eindbeoordeling van de cursus.
Cursusaanpassingsmogelijkheden
- Voor een aangepaste training voor deze cursus kunt u contact met ons opnemen om dit te regelen.
Introductie tot TinyML
14 UrenDeze door een instructeur geleide live training (online of ter plaatse) is bedoeld voor beginnende engineers en datawetenschappers die de fundamenten van TinyML willen begrijpen, de toepassingen willen verkennen en AI-modellen willen implementeren op microcontrollers.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
- De fundamenten van TinyML en de betekenis ervan te begrijpen.
- Lichtgewicht AI-modellen op microcontrollers en edge-apparaten te implementeren.
- Machine learning-modellen te optimaliseren en af te stemmen voor laag energieverbruik.
- TinyML toe te passen op echte toepassingen zoals gebaarherkenning, anomalie-detectie en audioverwerking.
TinyML: AI Uitvoeren op Ultra-Laagvermogen Edge Devices
21 UrenDeze begeleide, live training op België (online of ter plaatse) is bedoeld voor geavanceerde embedded engineers, IoT-ontwikkelaars en AI-onderzoekers die TinyML-technieken willen implementeren voor AI-aangedreven toepassingen op energiezuinige hardware.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
- De basisprincipes van TinyML en edge AI te begrijpen.
- Lichtgewichtige AI-modellen op microcontrollers te implementeren.
- AI-inferentie te optimaliseren voor laag energieverbruik.
- TinyML te integreren met echte IoT-toepassingen.