Cursusaanbod

Inleiding tot Ollama

  • Wat is Ollama en hoe werkt het?
  • Voordelen van het uitvoeren van AI-modellen lokaal
  • Overzicht van ondersteunde LLMs (Llama, DeepSeek, Mistral, enz.)

Installeren en Configureren van Ollama

  • Systeemvereisten en hardware-overwegingen
  • Ollama installeren op verschillende besturingssystemen
  • Afhankelijkheden en omgeving configureren

AI-modellen lokaal uitvoeren

  • AI-modellen downloaden en laden in Ollama
  • Interactie met modellen via de commandoregel
  • Basische prompt-engineering voor lokale AI-taken

Optimaliseren van prestaties en brongebruik

  • Hardwarebronnen beheren voor efficiënte AI-uitvoering
  • Latentie verminderen en de responssnelheid van het model verbeteren
  • Prestatie benchmarken voor verschillende modellen

Use Cases voor lokale AI-deployments

  • AI-gestuurde chatbots en virtuele assistenten
  • Data-verwerking en automatiseringstaken
  • Privacy-gericht AI-gebruik

Samenvatting en volgende stappen

Vereisten

  • Basiskennis van AI- en machine learning-concepten
  • Vertrouwdheid met commando-lijninterfaces

Publiek

  • Ontwikkelaars die AI-modellen draaien zonder cloudafhankelijkheden
  • Business professionals geïnteresseerd in AI-privacy en kosteneffectief inzetten
  • AI-enthousiasten die lokale modelinzet verkennen
 7 Uren

Aantal deelnemers


Prijs Per Deelnemer

Voorlopige Aankomende Cursussen

Gerelateerde categorieën