Cursusaanbod

Inleiding tot Open-Source LLMs

  • Wat zijn open-weight modellen en waarom ze belangrijk zijn
  • Overzicht van LLaMA, Mistral, Qwen, en andere community modellen
  • Toepassingsgebieden voor privé, op locatie, of veilige implementaties

Omgeving instellen en gereedschappen

  • Transformers, Datasets, en PEFT bibliotheken installeren en configureren
  • Appropiate hardware kiezen voor fine-tuning
  • Pre-trained modellen laden van Hugging Face of andere repositories

Data-voorbereiding en -verwerking

  • Datasetformaten (instructie tuning, chatdata, tekst alleen)
  • Tokenisering en sequentiebewerking
  • Aangepaste datasets en dataloaders maken

Fine-tuning technieken

  • Standaard volledige fine-tuning vs. parameter-efficiënte methoden
  • LoRA en QLoRA toepassen voor efficiënte fine-tuning
  • Trainer API gebruiken voor snelle experimenten

Model-evaluatie en -optimalisatie

  • Fijne-getoonde modellen beoordelen met generatie- en nauwkeurigheidsmetriken
  • Overfitting, generalisatie en validatiesets beheren
  • Prestatieoptimalisatie tips en loggen

Implementatie en privégebruik

  • Modellen opslaan en laden voor inferentie
  • Fijne-getoonde modellen implementeren in veilige bedrijfsomgevingen
  • Strategieën voor op-locatie vs. cloud implementatie

Gevallenstudies en toepassingsgebieden

  • Voorbeelden van bedrijfsgebruik van LLaMA, Mistral, en Qwen
  • Omgaan met multilinguale en domeinspecifieke fine-tuning
  • Discussie: Afwegingen tussen open en gesloten modellen

Samenvatting en volgende stappen

Vereisten

  • Een begrip van grote taalmallen (LLMs) en hun architectuur
  • Ervaring met Python en PyTorch
  • Basisvaardigheden in de Hugging Face ecosystem

Publiek

  • ML- practitioners
  • AI-ontwikkelaars
 14 Uren

Aantal deelnemers


Prijs Per Deelnemer

Voorlopige Aankomende Cursussen

Gerelateerde categorieën