Cursusaanbod

Inleiding tot GPU-versneld containerisering

  • Begrijpen van GPU-gebruik in deep learning workflows
  • Hoe Docker GPU-gestuurde workloads ondersteunt
  • Belangrijke prestatieoverwegingen

Installeren en configureren van NVIDIA Container Toolkit

  • Instellen van drivers en CUDA-compatibiliteit
  • Valideren van GPU-toegang in containers
  • Configureren van de runtime-omgeving

Bouwen van GPU-ingeschakelde Docker-images

  • Gebruik maken van CUDA basisimages
  • Verpakken van AI-frameworks in GPU-gereed containers
  • Beheren van afhankelijkheden voor training en inferentie

Uitvoeren van GPU-versnelde AI-workloads

  • Uitvoeren van trainingstaak met GPUs
  • Beheren van multi-GPU workloads
  • Monitor GPU-gebruik

Optimaliseren van prestaties en resource-toewijzing

  • Limiteren en isoleren van GPU-resources
  • Optimaliseren van geheugen, batchgrootten en device placement
  • Prestatieafstelling en -diagnostiek

Containerized inferentie en model serving

  • Bouwen van inferentie-gereed containers
  • Bedienen van hoge belastingsworkloads op GPUs
  • Integreren van modelrunners en APIs

Schalen van GPU-workloads met Docker

  • Strategieën voor gedistribueerde GPU-training
  • Schalen van inferentie-microservices
  • Coördineren van multi-container AI-systemen

Veiligheid en betrouwbaarheid voor GPU-ingeschakelde containers

  • Garanderen van veilige GPU-toegang in gedeelde omgevingen
  • Versterken van containerimages
  • Beheren van updates, versies en compatibiliteit

Samenvatting en volgende stappen

Vereisten

  • Inzicht in deep learning principes
  • Ervaring met Python en veelgebruikte AI-frameworks
  • Kennis van basiscontainerconcepten

Doelgroep

  • Deep learning ingenieurs
  • Onderzoek- en ontwikkelingsteams
  • AI-modellen trainers
 21 Uren

Aantal deelnemers


Prijs Per Deelnemer

Getuigenissen (5)

Voorlopige Aankomende Cursussen

Gerelateerde categorieën