Cursusaanbod

Inleiding tot Ollama

  • Wat is Ollama en hoe werkt het?
  • Voordelen van lokaal uitvoeren van AI-modellen
  • Overzicht van ondersteunde LLMs (Llama, DeepSeek, Mistral, etc.)

Ollama installeren en instellen

  • Systeemvereisten en hardwareoverwegingen
  • Ollama installeren op verschillende besturingssystemen
  • Afhankelijkheden configureren en omgeving instellen

AI-modellen lokaal uitvoeren

  • AI-modellen in Ollama downloaden en laden
  • Interacteren met modellen via de command line
  • Basis prompt engineering voor lokale AI-taken

Prestaties en bronnengebruik optimaliseren

  • Hardwarebronnen beheren voor efficiente AI-uitvoering
  • Latentie verminderen en modelresponstijd verbeteren
  • Prestaties benchmarken voor verschillende modellen

Gebruiksvoorbeelden voor lokale AI-implementatie

  • AI-gebaseerde chatbots en virtuele assistenten
  • Dataprocessing en automatiseringstaken
  • Privacygerichte AI-toepassingen

Samenvatting en volgende stappen

Vereisten

  • Basisbegrip van AI en machine learning concepten
  • Vertrouwdheid met command-line interfaces

Doelgroep

  • Ontwikkelaars die AI-modellen zonder cloud-afhankelijkheden uitvoeren
  • Bedrijfsprofessionals met interesse in AI-privacy en kosteneffectieve implementatie
  • AI-enthousiastelingen die lokale modelimplementatie verkennen
 7 uren

Aantal deelnemers


Prijs per deelnemer

Voorlopige Aankomende Cursussen

Gerelateerde categorieën