Cursusaanbod

**Introduction tot Open-Source LLMs*** Wat zijn open-weight-modellen en waarom ze belangrijk zijn* Overzicht van LLaMA, Mistral, Qwen, en andere gemeenschapsmodellen* Toepassingsgebieden voor privé, lokale, of veilige implementaties**Omgevinginstelling en Gereedschappen*** Installeren en configureren van Transformers, Datasets, en PEFT-bibliotheken* Kies geschikte hardware voor fine-tuning* Laden van vooraf getrainde modellen vanuit Hugging Face of andere repositories**Dataopbereiding en Voorbewerking*** Dataset-formaten (instructie tuning, chatdata, tekst alleen)* Tokenisatie en volgordebeheer* Het maken van aangepaste datasets en dataladers**Fine-Tuning Technieken*** Standaard volledige fine-tuning vs. parameter-efficiënte methoden* Toepassen van LoRA en QLoRA voor efficiënte fine-tuning* Gebruik van de Trainer API voor snel experimenteren**Model Evaluatie en Optimalisatie*** Het beoordelen van fine-tuned modellen met generatie- en nauwkeurigheidsmetriken* Het beheren van overfitting, generalisatie, en validatiesets* Tips voor prestatietuning en logboekregistratie**Implementatie en Privégebruik*** Opslaan en laden van modellen voor inferentie* Het implementeren van fine-tuned modellen in veilige ondernemingsomgevingen* Lokale vs. cloud-implementatiestrategieën**Casusstudies en Use Cases*** Voorbeelden van het gebruik van LLaMA, Mistral, en Qwen door bedrijven* Het aanpassen van multilinguale en domeinspecifieke fine-tuning* Bespreking: Afwegingen tussen open en gesloten modellen**Samenvatting en Volgende Stappen**

Vereisten

  • Een begrip van grote taalmallen (LLMs) en hun architectuur
  • Ervaring met Python en PyTorch
  • Basisvaardigheden in de Hugging Face ecosystem

Publiek

  • ML- practitioners
  • AI-ontwikkelaars
 14 Uren

Aantal deelnemers


Prijs Per Deelnemer

Voorlopige Aankomende Cursussen

Gerelateerde categorieën