Cursusaanbod

Machine Learning Modellen Voorbereiden voor Deployment

  • Modellen verpakken met Docker
  • Modellen exporteren uit TensorFlow en PyTorch
  • Versiebeheer en opslagoverwegingen

Model Serving op Kubernetes

  • Overzicht van inference servers
  • TensorFlow Serving en TorchServe deployen
  • Model endpoints opzetten

Inference Optimalisatietechnieken

  • Batching strategieën
  • Concurrency request handling
  • Latency en throughput tuning

Autoscaling ML Workloads

  • Horizontal Pod Autoscaler (HPA)
  • Vertical Pod Autoscaler (VPA)
  • Kubernetes Event-Driven Autoscaling (KEDA)

GPU Provisionering en Resource Management

  • GPU nodes configureren
  • NVIDIA device plugin overzicht
  • Resource requests en limits voor ML workloads

Model Rollout en Release Strategieën

  • Blue/green deployments
  • Canary rollout patterns
  • A/B testing voor model evaluatie

Monitoring en Observability voor ML in Productie

  • Metrics voor inference workloads
  • Logging en tracing praktijken
  • Dashboards en alerting

Security en Reliability Overwegingen

  • Model endpoints beveiligen
  • Network policies en access control
  • High availability waarborgen

Samenvatting en Volgende Stappen

Vereisten

  • Een begrip van containergebaseerde applicatie workflows
  • Ervaring met Python-gebaseerde machine learning modellen
  • Vertrouwdheid met Kubernetes fundamentals

Doelgroep

  • ML-ingenieurs
  • DevOps ingenieurs
  • Platform engineering teams
 14 Uren

Aantal deelnemers


Prijs per deelnemer

Getuigenissen (5)

Voorlopige Aankomende Cursussen

Gerelateerde categorieën