Cursusaanbod

Inleiding tot AI-inferentie met Docker

  • Begrip van AI-inferentietaakverdeling
  • Voordelen van containerisatie voor inferentie
  • Implementatiescenario's en beperkingen

AI-inferentiecontainers bouwen

  • Basisafbeeldingen en frameworks selecteren
  • Voorafgetrainde modellen inpakken
  • Inferencecode structureren voor containeruitvoering

Containergebaseerde AI-services beveiligen

  • Het aanvalsoverzicht van containers minimaliseren
  • Geheimen en gevoelige bestanden beheren
  • Veilige netwerk- en API-expositiesstrategieën

Technieken voor draagbare implementatie

  • Afbeeldingen optimaliseren voor draagbaarheid
  • Voorspelbare runtime-omgevingen waarborgen
  • Dependencies beheren over platforms

Lokale implementatie en testen

  • Services lokaal uitvoeren met Docker
  • Inferencecontainers debuggen
  • Prestatie en betrouwbaarheid testen

Implementeren op servers en cloud-VM's

  • Containers aanpassen voor externe omgevingen
  • Veilige server-toegang configureren
  • Inference-API's implementeren op cloud-VM's

Docker Compose gebruiken voor multiservice AI-systemen

  • Inferentie orkestreren met ondersteunende componenten
  • Omgevingsvariabelen en configuraties beheren
  • Microservices schalen met Compose

Monitoring en onderhoud van AI-inferentieservices

  • Aanpakken voor logging en observabiliteit
  • Mislukkingen in inferentiepijplijnen detecteren
  • Modellen in productie bijwerken en versieën

Samenvatting en volgende stappen

Vereisten

  • Een begrip van basisconcepten uit machine learning
  • Ervaring met Python of backend-ontwikkeling
  • Vertrouwdheid met basiscontainerconcepts

Doelgroep

  • Ontwikkelaars
  • Backend-ingenieurs
  • Teams die AI-services implementeren
 14 Uren

Aantal deelnemers


Prijs Per Deelnemer

Getuigenissen (5)

Voorlopige Aankomende Cursussen

Gerelateerde categorieën