Cursusaanbod
Machine Learning Modellen Voorbereiden voor Deployment
- Modellen verpakken met Docker
- Modellen exporteren uit TensorFlow en PyTorch
- Versiebeheer en opslagoverwegingen
Model Serving op Kubernetes
- Overzicht van inference servers
- TensorFlow Serving en TorchServe deployen
- Model endpoints opzetten
Inference Optimalisatietechnieken
- Batching strategieën
- Concurrency request handling
- Latency en throughput tuning
Autoscaling ML Workloads
- Horizontal Pod Autoscaler (HPA)
- Vertical Pod Autoscaler (VPA)
- Kubernetes Event-Driven Autoscaling (KEDA)
GPU Provisionering en Resource Management
- GPU nodes configureren
- NVIDIA device plugin overzicht
- Resource requests en limits voor ML workloads
Model Rollout en Release Strategieën
- Blue/green deployments
- Canary rollout patterns
- A/B testing voor model evaluatie
Monitoring en Observability voor ML in Productie
- Metrics voor inference workloads
- Logging en tracing praktijken
- Dashboards en alerting
Security en Reliability Overwegingen
- Model endpoints beveiligen
- Network policies en access control
- High availability waarborgen
Samenvatting en Volgende Stappen
Vereisten
- Een begrip van containergebaseerde applicatie workflows
- Ervaring met Python-gebaseerde machine learning modellen
- Vertrouwdheid met Kubernetes fundamentals
Doelgroep
- ML-ingenieurs
- DevOps ingenieurs
- Platform engineering teams
Getuigenissen (3)
Over microservices en hoe je Kubernetes onderhoudt
Yufri Isnaini Rochmat Maulana - Bank Indonesia
Cursus - Advanced Platform Engineering: Scaling with Microservices and Kubernetes
Automatisch vertaald
Hoe trainers kennis effectief overbrengen
Vu Thoai Le - Reply Polska sp. z o. o.
Cursus - Certified Kubernetes Administrator (CKA) - exam preparation
Automatisch vertaald
De kennis en het geduld van de trainer om onze vragen te beantwoorden.
Calin Avram - REGNOLOGY ROMANIA S.R.L.
Cursus - Deploying Kubernetes Applications with Helm
Automatisch vertaald