Cursusaanbod

**Introduction tot Open-Source LLMs** * Wat zijn open-weight-modellen en waarom ze belangrijk zijn * Overzicht van LLaMA, Mistral, Qwen, en andere gemeenschapsmodellen * Toepassingsgebieden voor privé, lokale, of veilige implementaties **Omgevinginstelling en Gereedschappen** * Installeren en configureren van Transformers, Datasets, en PEFT-bibliotheken * Kies geschikte hardware voor fine-tuning * Laden van vooraf getrainde modellen vanuit Hugging Face of andere repositories **Dataopbereiding en Voorbewerking** * Dataset-formaten (instructie tuning, chatdata, tekst alleen) * Tokenisatie en volgordebeheer * Het maken van aangepaste datasets en dataladers **Fine-Tuning Technieken** * Standaard volledige fine-tuning vs. parameter-efficiënte methoden * Toepassen van LoRA en QLoRA voor efficiënte fine-tuning * Gebruik van de Trainer API voor snel experimenteren **Model Evaluatie en Optimalisatie** * Het beoordelen van fine-tuned modellen met generatie- en nauwkeurigheidsmetriken * Het beheren van overfitting, generalisatie, en validatiesets * Tips voor prestatietuning en logboekregistratie **Implementatie en Privégebruik** * Opslaan en laden van modellen voor inferentie * Het implementeren van fine-tuned modellen in veilige ondernemingsomgevingen * Lokale vs. cloud-implementatiestrategieën **Casusstudies en Use Cases** * Voorbeelden van het gebruik van LLaMA, Mistral, en Qwen door bedrijven * Het aanpassen van multilinguale en domeinspecifieke fine-tuning * Bespreking: Afwegingen tussen open en gesloten modellen **Samenvatting en Volgende Stappen**

Vereisten

  • Een begrip van grote taalmallen (LLMs) en hun architectuur
  • Ervaring met Python en PyTorch
  • Basisvaardigheden in de Hugging Face ecosystem

Publiek

  • ML- practitioners
  • AI-ontwikkelaars
 14 Uren

Aantal deelnemers


Prijs Per Deelnemer

Voorlopige Aankomende Cursussen

Gerelateerde categorieën