Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems Training Cursus
Fine-Tuning voor Retrieval-Augmented Generation (RAG) Systemen is het proces van optimaliseren hoe grote taalmodellen relevante informatie uit externe bronnen voor bedrijfsapplicaties ophalen en genereren.
Deze door instructeurs geleide live training (online of op locatie) is gericht op NLP-ingenieurs en kennisbeheerteams op intermediair niveau die RAG-pipelines willen aanpassen om de prestaties te verbeteren in vraag- en antwoordsituaties, bedrijfszoekopdrachten en samenvattingsgebruiken.
Tegen het einde van deze training zullen deelnemers in staat zijn om:
- De architectuur en workflow van RAG-systemen te begrijpen.
- Retriever- en generatorcomponenten aan te passen voor domeinspecifieke gegevens.
- RAG-prestaties te evalueren en verbeteringen toe te passen via PEFT-technieken.
- Optimaliseerde RAG-systemen te implementeren voor intern of productiegebruik.
Opbouw van de cursus
- Interactieve colleges en discussies.
- Veel oefeningen en praktijkopdrachten.
- Handson implementatie in een live-labomgeving.
Aanpassingsopties voor de cursus
- Om een aangepaste training voor deze cursus aan te vragen, neem contact met ons op om dit te regelen.
Cursusaanbod
Inleiding tot Retrieval-Augmented Generation (RAG)
- Wat is RAG en waarom het belangrijk is voor bedrijfs-AI
- Componenten van een RAG-systeem: retriever, generator, documentopslag
- Vergelijking met stand-alone LLMs en vectorzoekopdrachten
Instellen van een RAG-Pipeline
- Installeren en configureren van Haystack of vergelijkbare frameworks
- Documentinname en voorverwerking
- Verbinden van retrievers met vector-databases (bijv. FAISS, Pinecone)
Fine-Tuning de Retriever
- Trainen van dichte retrievers met behulp van domeinspecifieke data
- Gebruik van zinstransformatoren en contrastief leren
- Beoordelen van de kwaliteit van de retriever met top-k-accurate
Fine-Tuning de Generator
- Kiezen van basismodellen (bijv. BART, T5, FLAN-T5)
- Instructietuning vs. gesuperviseerde fijnafstemming
- LoRA- en PEFT-methoden voor efficiënte updates
Evaluatie en Optimalisatie
- Metriken voor het beoordelen van RAG-prestaties (bijv. BLEU, EM, F1)
- Latentie, kwaliteit van de opvraging en reductie van hallucinaties
- Experimentvolgen en iteratieve verbetering
Implementatie en Integraie in de Werkelijkheid
- Implementeren van RAG in interne zoekmachines en chatbots
- Overwegingen op het gebied van veiligheid, toegang tot gegevens en beheer
- Integraie met API's, dashboards of kennisportals
Casusstudies en Beste Praktijken
- Bedrijfsgebruiksgevallen in financiën, gezondheidszorg en juridische sectoren
- Beheer van domeinverschuiving en updates van de kennisbank
- Toekomstige richtingen in retrieval-augmented LLM-systeem
Samenvatting en Volgende Stappen
Vereisten
- Kennis van concepten van natuurlijke taalverwerking (NLP)
- Ervaring met transformatorgebaseerde taalmodellen
- Kennis van Python en basisworkflows voor machine learning
Publiek
- NLP-ingenieurs
- Teams voor kennisbeheer
Voor open trainingen is een minimum aantal van 5 deelnemers vereist
Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems Training Cursus - Booking
Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems Training Cursus - Enquiry
Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems - Consultancyaanvraag
Consultancyaanvraag
Voorlopige Aankomende Cursussen
Gerelateerde cursussen
Advanced Techniques in Transfer Learning
14 UrenDeze live training onder leiding van een instructeur in België (online of ter plaatse) is gericht op professionals op het gebied van machine learning op gevorderd niveau die geavanceerde transferleertechnieken onder de knie willen krijgen en deze willen toepassen op complexe problemen uit de echte wereld.
Aan het einde van deze training zijn de deelnemers in staat om:
- Begrijp geavanceerde concepten en methodologieën op het gebied van transfer learning.
- Implementeer domeinspecifieke aanpassingstechnieken voor vooraf getrainde modellen.
- Pas continu leren toe om evoluerende taken en datasets te beheren.
- Beheers de fijnafstelling van meerdere taken om de prestaties van het model in alle taken te verbeteren.
Deploying Fine-Tuned Models in Production
21 UrenDeze live training onder leiding van een instructeur in België (online of ter plaatse) is bedoeld voor professionals op gevorderd niveau die op betrouwbare en efficiënte wijze verfijnde modellen willen inzetten.
Aan het einde van deze training zijn de deelnemers in staat om:
- Begrijp de uitdagingen van het implementeren van nauwkeurig afgestemde modellen in productie.
- Modellen in containers plaatsen en implementeren met behulp van hulpprogramma's zoals Docker en Kubernetes.
- Implementeer bewaking en logboekregistratie voor geïmplementeerde modellen.
- Optimaliseer modellen voor latentie en schaalbaarheid in real-world scenario's.
Domain-Specific Fine-Tuning for Finance
21 UrenDeze live training onder leiding van een instructeur in België (online of ter plaatse) is bedoeld voor professionals van gemiddeld niveau die praktische vaardigheden willen opdoen in het aanpassen van AI-modellen voor kritieke financiële taken.
Aan het einde van deze training zijn de deelnemers in staat om:
- Begrijp de basisprincipes van fine-tuning voor financiële toepassingen.
- Maak gebruik van vooraf getrainde modellen voor domeinspecifieke taken in de financiële sector.
- Pas technieken toe voor het opsporen van fraude, risicobeoordeling en het genereren van financieel advies.
- Zorg voor naleving van financiële regelgeving zoals GDPR en SOX.
- Implementeer gegevensbeveiliging en ethische AI-praktijken in financiële toepassingen.
Fine-Tuning Models and Large Language Models (LLMs)
14 UrenDeze live training onder leiding van een instructeur in België (online of ter plaatse) is gericht op professionals van gemiddeld tot gevorderd niveau die vooraf getrainde modellen willen aanpassen voor specifieke taken en datasets.
Aan het einde van deze training zijn de deelnemers in staat om:
- Begrijp de principes van fine-tuning en de toepassingen ervan.
- Bereid gegevenssets voor op het verfijnen van vooraf getrainde modellen.
- Verfijn grote taalmodellen (LLM's) voor NLP-taken.
- Optimaliseer de prestaties van modellen en pak veelvoorkomende uitdagingen aan.
Efficient Fine-Tuning with Low-Rank Adaptation (LoRA)
14 UrenDeze live training onder leiding van een instructeur in België (online of ter plaatse) is bedoeld voor ontwikkelaars van gemiddeld niveau en AI-beoefenaars die fine-tuningstrategieën voor grote modellen willen implementeren zonder dat er uitgebreide rekenbronnen nodig zijn.
Aan het einde van deze training zijn de deelnemers in staat om:
- Begrijp de principes van Low-Rank Adaptation (LoRA).
- Implementeer LoRA voor efficiënte fijnafstelling van grote modellen.
- Optimaliseer de fijnafstelling voor omgevingen met beperkte bronnen.
- Evalueer en implementeer LoRA-afgestemde modellen voor praktische toepassingen.
Fine-Tuning Multimodal Models
28 UrenDeze live training onder leiding van een instructeur in België (online of ter plaatse) is bedoeld voor professionals op gevorderd niveau die multimodale modelafstemming voor innovatieve AI-oplossingen onder de knie willen krijgen.
Aan het einde van deze training zijn de deelnemers in staat om:
- Begrijp de architectuur van multimodale modellen zoals CLIP en Flamingo.
- Multimodale datasets effectief voorbereiden en voorverwerken.
- Verfijn multimodale modellen voor specifieke taken.
- Optimaliseer modellen voor toepassingen en prestaties in de echte wereld.
Fine-Tuning for Natural Language Processing (NLP)
21 UrenDeze door een instructeur geleide, live training in België (online of ter plaatse) is gericht op professionals van gemiddeld niveau die hun NLP-projecten willen verbeteren door de effectieve afstemming van vooraf getrainde taalmodellen.
Aan het einde van deze training zijn de deelnemers in staat om:
- Begrijp de basisprincipes van fine-tuning voor NLP-taken.
- Verfijn vooraf getrainde modellen zoals GPT, BERT en T5 voor specifieke NLP-toepassingen.
- Optimaliseer hyperparameters voor verbeterde modelprestaties.
- Evalueer en implementeer nauwkeurig afgestemde modellen in real-world scenario's.
Fine-Tuning DeepSeek LLM for Custom AI Models
21 UrenDeze door een instructeur geleide, live training in België (online of onsite) is bedoeld voor AI-onderzoekers op gevorderd niveau, machine learning-engineers en ontwikkelaars die DeepSeek LLM-modellen willen afstemmen om gespecialiseerde AI-toepassingen te creëren die zijn afgestemd op specifieke bedrijfstakken, domeinen of zakelijke behoeften.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
- de architectuur en mogelijkheden van DeepSeek modellen te begrijpen, inclusief DeepSeek-R1 en DeepSeek-V3.
- gegevenssets voor te bereiden en gegevens voor te bereiden voor fine-tuning.
- DeepSeek LLM af te stemmen voor domeinspecifieke toepassingen.
- Fijn afgestemde modellen efficiënt te optimaliseren en in te zetten.
Fine-Tuning Large Language Models Using QLoRA
14 UrenDeze instructeurgeleide live training in België (online of op locatie) is gericht op machine learning engineers, AI-ontwikkelaars en datawetenschappers op intermiddelair tot geavanceerd niveau die willen leren hoe ze QLoRA kunnen gebruiken om grote modellen efficiënt af te stemmen op specifieke taken en aanpassingen.
Na voltooiing van deze training zullen de deelnemers in staat zijn om:
- De theorie achter QLoRA en kwantisatietechnieken voor LLMs te begrijpen.
- QLoRA te implementeren bij het afstemmen van grote taalmodellen voor domeinspecifieke toepassingen.
- De prestaties van het afstemmen te optimaliseren op beperkte computatiebronnen door middel van kwantisering.
- Afgestemde modellen efficiënt te implementeren en te evalueren in real-world toepassingen.
Fine-Tuning Open-Source LLMs (LLaMA, Mistral, Qwen, etc.)
14 UrenDeze door een instructeur geleide, live training in België (online of op locatie) is bedoeld voor ML-praktijkers en AI-ontwikkelaars op intermediair niveau die open-weight-modellen zoals LLaMA, Mistral, en Qwen willen afstemmen en implementeren voor specifieke bedrijfs- of interne toepassingen.
Na afloop van deze training zullen de deelnemers in staat zijn om:
- Het ecosysteem en de verschillen tussen open-source LLMs te begrijpen.
- Datasets en afstemmingsconfiguraties voor te bereiden voor modellen zoals LLaMA, Mistral, en Qwen.
- Afstemmingspipelines uit te voeren met behulp van Hugging Face Transformers en PEFT.
- Afgestemde modellen te evalueren, op te slaan en in veilige omgevingen te implementeren.
Fine-Tuning with Reinforcement Learning from Human Feedback (RLHF)
14 UrenDeze door een instructeur geleide, live training in België (online of ter plekke) is gericht op geavanceerde machine learning engineers en AI-onderzoekers die RLHF willen toepassen om grote AI-modellen te fijnstelen voor betere prestaties, veiligheid en overeenstemming.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
- De theoretische grondslagen van RLHF te begrijpen en waarom deze essentieel zijn in de moderne AI-ontwikkeling.
- Beloningmodellen op basis van menselijke feedback te implementeren om versterkingsleerprocessen te leiden.
- Grote taalmodellen te fijnstelen met behulp van RLHF-technieken om uitvoeren te laten overstemmen met menselijke voorkeuren.
- Best practices toe te passen voor het schalen van RLHF-workflows voor productie-klas AI-systemen.
Fine-Tuning Vision-Language Models (VLMs)
14 UrenThis instructor-led, live training in België (online or onsite) is aimed at advanced-level computer vision engineers and AI developers who wish to fine-tune VLMs such as CLIP and Flamingo to improve performance on industry-specific visual-text tasks.
By the end of this training, participants will be able to:
- Understand the architecture and pretraining methods of vision-language models.
- Fine-tune VLMs for classification, retrieval, captioning, or multimodal QA.
- Prepare datasets and apply PEFT strategies to reduce resource usage.
- Evaluate and deploy customized VLMs in production environments.
Optimizing Large Models for Cost-Effective Fine-Tuning
21 UrenDeze live training onder leiding van een instructeur in België (online of ter plaatse) is bedoeld voor professionals op gevorderd niveau die technieken willen beheersen voor het optimaliseren van grote modellen voor kosteneffectieve fijnafstemming in real-world scenario's.
Aan het einde van deze training zijn de deelnemers in staat om:
- Begrijp de uitdagingen van het verfijnen van grote modellen.
- Pas gedistribueerde trainingstechnieken toe op grote modellen.
- Maak gebruik van modelkwantisatie en snoeien voor efficiëntie.
- Optimaliseer het hardwaregebruik voor het verfijnen van taken.
- Implementeer nauwkeurig afgestemde modellen effectief in productieomgevingen.
Prompt Engineering and Few-Shot Fine-Tuning
14 UrenDeze live training onder leiding van een instructeur in België (online of ter plaatse) is bedoeld voor professionals van gemiddeld niveau die de kracht van snelle engineering en few-shot learning willen benutten om LLM-prestaties te optimaliseren voor real-world toepassingen.
Aan het einde van deze training zijn de deelnemers in staat om:
- Begrijp de principes van prompt engineering en few-shot learning.
- Ontwerp effectieve prompts voor verschillende NLP-taken.
- Maak gebruik van few-shot-technieken om LLM's aan te passen met minimale gegevens.
- Optimaliseer LLM-prestaties voor praktische toepassingen.
Parameter-Efficient Fine-Tuning (PEFT) Techniques for LLMs
14 UrenDeze door een instructeur geleide, live training in België (online of op locatie) is gericht op datawetenschappers en AI-ingenieurs op intermediair niveau die grote taalmodellen willen verfijnen op een betaalbaardere en efficiëntere manier met behulp van methoden zoals LoRA, Adapter Tuning en Prefix Tuning.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
- De theorie achter parameter-efficiënte verfijnde aanpassingsmethoden te begrijpen.
- LoRA, Adapter Tuning en Prefix Tuning te implementeren met behulp van Hugging Face PEFT.
- De prestaties en kostenoverwegingen van PEFT-methoden te vergelijken met volledige verfijnde aanpassingen.
- Verfijnde LLMs te implementeren en te schalen met verlaagde reken- en opslagvereisten.