Formation Parameter-Efficient Fine-Tuning (PEFT) Techniques for LLMs
Parameter-Efficient Fine-Tuning (PEFT) est une collection de techniques qui permettent d'adapter efficacement les grands modèles de langage (LLMs) en modifiant uniquement un petit sous-ensemble des paramètres.
Cette formation dirigée par un instructeur (en ligne ou sur site) s'adresse aux scientifiques des données et aux ingénieurs AI de niveau intermédiaire qui souhaitent affiner les grands modèles de langage de manière plus abordable et efficace en utilisant des méthodes comme LoRA, Adapter Tuning et Prefix Tuning.
À la fin de cette formation, les participants seront capables de :
- Comprendre la théorie sous-jacente aux approches d'affinement paramètre-économe.
- Mettre en œuvre LoRA, Adapter Tuning et Prefix Tuning à l'aide de Hugging Face PEFT.
- Comparer les performances et les compromis de coût des méthodes PEFT par rapport à l'affinement complet.
- Déployer et échelonner les LLMs affinés avec une réduction des besoins en calcul et en stockage.
Format du cours
- Cours interactif et discussion.
- De nombreux exercices et pratiques.
- Mise en œuvre pratique dans un environnement de laboratoire vivant.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Plan du cours
Introduction aux Méthodes d'Optimisation Paramétrique (PEFT)
- Motivation et limites de la réentraînement complet
- Aperçu des PEFT : objectifs et avantages
- Applications et cas d'utilisation dans l'industrie
LoRA (Adaptation de Rang Faible)
- Concept et intuition derrière LoRA
- Mise en œuvre de LoRA avec Hugging Face et PyTorch
- Pratique : Réentraînement d'un modèle avec LoRA
Tuning des Adapters
- Fonctionnement des modules adaptateurs
- Intégration avec les modèles basés sur les transformeurs
- Pratique : Application du Tuning des Adapters à un modèle de transformateur
Tuning par Préfixe
- Utilisation de prompts doux pour le réentraînement
- Avantages et limites comparés à LoRA et aux adaptateurs
- Pratique : Tuning par Préfixe sur une tâche LLM
Évaluation et Comparaison des Méthodes PEFT
- Métriques pour évaluer les performances et l'efficacité
- Compromis en termes de vitesse d'apprentissage, d'utilisation de la mémoire et de précision
- Expériences de benchmarking et interprétation des résultats
Déploiement des Modèles Réentraînés
- Sauvegarde et chargement des modèles réentraînés
- Considérations pour le déploiement des modèles basés sur PEFT
- Intégration dans les applications et pipelines
Bonnes Pratiques et Extensions
- Combinaison de PEFT avec la quantification et la distillation
- Utilisation dans des contextes à ressources limitées et multilingues
- Directions futures et domaines de recherche actifs
Récapitulatif et Étapes Suivantes
Pré requis
- Une compréhension des fondamentaux de l'apprentissage automatique
- Expérience de travail avec les grands modèles linguistiques (LLMs)
- Familiarité avec Python et PyTorch
Public cible
- Scientifiques des données
- Ingénieurs en IA
Les formations ouvertes requièrent plus de 3 participants.
Formation Parameter-Efficient Fine-Tuning (PEFT) Techniques for LLMs - Booking
Formation Parameter-Efficient Fine-Tuning (PEFT) Techniques for LLMs - Enquiry
Parameter-Efficient Fine-Tuning (PEFT) Techniques for LLMs - Demande d'informations consulting
Demande d'informations consulting
Cours à venir
Cours Similaires
Advanced Techniques in Transfer Learning
14 HeuresCette formation en direct avec instructeur en Belgique (en ligne ou sur site) est destinée aux professionnels de l'apprentissage automatique de niveau avancé qui souhaitent maîtriser les techniques de pointe de l'apprentissage par transfert et les appliquer à des problèmes complexes du monde réel.
A l'issue de cette formation, les participants seront capables de :
- Comprendre les concepts et méthodologies avancés de l'apprentissage par transfert.
- Mettre en œuvre des techniques d'adaptation spécifiques à un domaine pour les modèles pré-entraînés.
- Appliquer l'apprentissage continu pour gérer des tâches et des ensembles de données en constante évolution.
- Maîtriser le réglage fin multi-tâches pour améliorer les performances des modèles à travers les tâches.
AI Automation with n8n and LangChain
14 HeuresCette formation en direct avec instructeur en Belgique (en ligne ou sur site) s'adresse aux développeurs et aux professionnels de l'informatique de tous niveaux qui souhaitent automatiser des tâches et des processus à l'aide de l'IA sans avoir à rédiger un code exhaustif.
A l'issue de cette formation, les participants seront capables de :
- Concevoir et mettre en œuvre des flux de travail complexes en utilisant l'interface de programmation visuelle de n8n.
- Intégrer des capacités d'IA dans les flux de travail en utilisant LangChain.
- Construire des chatbots et des assistants virtuels personnalisés pour divers cas d'utilisation.
- Effectuer des analyses et des traitements de données avancés avec des agents d'IA.
Automating Workflows with LangChain and APIs
14 HeuresCette formation en direct avec instructeur à Belgique (en ligne ou sur site) est destinée aux analystes commerciaux et aux ingénieurs en automatisation de niveau débutant qui souhaitent comprendre comment utiliser LangChain et les API pour automatiser les tâches répétitives et les flux de travail.
A l'issue de cette formation, les participants seront capables de :
- Comprendre les bases de l'intégration API avec LangChain.
- Automatiser les flux de travail répétitifs en utilisant LangChain et Python.
- Utiliser LangChain pour connecter diverses API afin de mettre en place des processus commerciaux efficaces.
- Créer et automatiser des flux de travail personnalisés en utilisant les API et les capacités d'automatisation de LangChain.
Building Conversational Agents with LangChain
14 HeuresCette formation en direct avec instructeur en Belgique (en ligne ou sur site) est destinée aux professionnels de niveau intermédiaire qui souhaitent approfondir leur compréhension des agents conversationnels et appliquer LangChain à des cas d'utilisation du monde réel.
A l'issue de cette formation, les participants seront capables de :
- Comprendre les principes fondamentaux de LangChain et son application dans la construction d'agents conversationnels.
- Développer et déployer des agents conversationnels en utilisant LangChain.
- Intégrer des agents conversationnels avec des API et des services externes.
- Appliquer les techniques Natural Language Processing (NLP) pour améliorer la performance des agents conversationnels.
Building Private AI Workflows with Ollama
14 HeuresCette formation en direct avec instructeur dans Belgique (en ligne ou sur site) est destinée aux professionnels de niveau avancé qui souhaitent mettre en œuvre des flux de travail sécurisés et efficaces axés sur l'IA en utilisant Ollama.
À l'issue de cette formation, les participants seront en mesure de :
- Déployer et configurer Ollama pour le traitement privé de l'IA.
- Intégrer des modèles d'IA dans des flux de travail d'entreprise sécurisés.
- Optimiser les performances de l'IA tout en préservant la confidentialité des données.
- Automatiser les processus métier avec des capacités d'IA sur site.
- Assurer la conformité avec les politiques de sécurité et de gouvernance de l'entreprise.
Deploying Fine-Tuned Models in Production
21 HeuresCette formation en direct avec instructeur en Belgique (en ligne ou sur place) est destinée aux professionnels de niveau avancé qui souhaitent déployer des modèles affinés de manière fiable et efficace.
A l'issue de cette formation, les participants seront capables de :
- Comprendre les défis liés au déploiement de modèles finement ajustés en production.
- Conteneuriser et déployer des modèles en utilisant des outils comme Docker et Kubernetes.
- Mettre en œuvre la surveillance et la journalisation pour les modèles déployés.
- Optimiser les modèles pour la latence et l'extensibilité dans des scénarios réels.
Deploying and Optimizing LLMs with Ollama
14 HeuresCette formation en Belgique (en ligne ou sur site) est destinée aux professionnels de niveau intermédiaire qui souhaitent déployer, optimiser et intégrer des LLM en utilisant Ollama.
A l'issue de cette formation, les participants seront capables de :
- Mettre en place et déployer des LLMs en utilisant Ollama.
- Optimiser les modèles d'IA pour la performance et l'efficacité.
- Tirer parti de l'accélération GPU pour améliorer la vitesse d'inférence.
- Intégrer Ollama dans les flux de travail et les applications.
- Contrôler et maintenir les performances des modèles d'IA au fil du temps.
Ethical Considerations in AI Development with LangChain
21 HeuresCette formation en direct (en ligne ou sur place) s'adresse aux chercheurs en IA de niveau avancé et aux décideurs politiques qui souhaitent explorer les implications éthiques du développement de l'IA et apprendre à appliquer des lignes directrices éthiques lors de l'élaboration de solutions d'IA avec LangChain.
À l'issue de cette formation, les participants seront capables de :
- Identifier les questions éthiques clés dans le développement de l'IA avec LangChain.
- Comprendre l'impact de l'IA sur la société et les processus de prise de décision.
- Développer des stratégies pour construire des systèmes d'IA justes et transparents.
- Mettre en œuvre des lignes directrices éthiques en matière d'IA dans des projets basés sur LangChain.
Enhancing User Experience with LangChain in Web Apps
14 HeuresCette formation en direct avec instructeur en Belgique (en ligne ou sur site) s'adresse aux développeurs web de niveau intermédiaire et aux concepteurs UX qui souhaitent tirer parti de LangChain pour créer des applications web intuitives et conviviales.
A l'issue de cette formation, les participants seront en mesure de :
- Comprendre les concepts fondamentaux de LangChain et son rôle dans l'amélioration de l'expérience utilisateur sur le web.
- Implémenter LangChain dans les applications web pour créer des interfaces dynamiques et réactives.
- Intégrer les API dans les applications web pour améliorer l'interactivité et l'engagement des utilisateurs.
- Optimiser l'expérience utilisateur en utilisant les fonctions de personnalisation avancées de LangChain.
- Analyser les données relatives au comportement des utilisateurs afin d'affiner les performances et l'expérience des applications web.
Fine-Tuning and Customizing AI Models on Ollama
14 HeuresCette formation en direct avec instructeur à Belgique (en ligne ou sur place) est destinée aux professionnels de niveau avancé qui souhaitent affiner et personnaliser les modèles d'IA sur Ollama pour améliorer les performances et les applications spécifiques à un domaine.
A l'issue de cette formation, les participants seront capables de :
- Mettre en place un environnement efficace pour affiner les modèles d'IA sur Ollama.
- Préparer des ensembles de données pour le réglage fin supervisé et l'apprentissage par renforcement.
- Optimiser les modèles d'IA en termes de performance, de précision et d'efficacité.
- Déployer des modèles personnalisés dans des environnements de production.
- Évaluer les améliorations apportées aux modèles et s'assurer de leur robustesse.
LangChain: Building AI-Powered Applications
14 HeuresCette formation en Belgique (en ligne ou sur site) s'adresse aux développeurs et ingénieurs logiciels de niveau intermédiaire qui souhaitent créer des applications basées sur l'intelligence artificielle en utilisant le framework LangChain.
A l'issue de cette formation, les participants seront capables de :
- Comprendre les principes fondamentaux de LangChain et de ses composants.
- Intégrer LangChain avec de grands modèles de langage (LLM) comme GPT-4.
- Construire des applications modulaires d'IA en utilisant LangChain.
- Résoudre les problèmes courants dans les applications LangChain.
Integrating LangChain with Cloud Services
14 HeuresCette formation en direct avec instructeur en Belgique (en ligne ou sur site) s'adresse aux ingénieurs de données de niveau avancé et aux professionnels de DevOps qui souhaitent exploiter les capacités de LangChain en l'intégrant à divers services en nuage.
A l'issue de cette formation, les participants seront capables de :
- Intégrer LangChain avec les principales plateformes cloud telles que AWS, Azure et Google Cloud.
- Utiliser les API et les services basés sur le cloud pour améliorer les applications alimentées par LangChain.
- Mettre à l'échelle et déployer des agents conversationnels dans le nuage pour une interaction en temps réel.
- Mettre en œuvre les meilleures pratiques de surveillance et de sécurité dans les environnements en nuage.
LangChain for Data Analysis and Visualization
14 HeuresCette formation en direct dans Belgique (en ligne ou sur place) est destinée aux professionnels des données de niveau intermédiaire qui souhaitent utiliser LangChain pour améliorer leurs capacités d'analyse et de visualisation des données.
A l'issue de cette formation, les participants seront capables de :
- Automatiser l'extraction et le nettoyage des données en utilisant LangChain.
- Effectuer des analyses de données avancées en utilisant Python et LangChain.
- Créer des visualisations avec Matplotlib et d'autres bibliothèques Python intégrées à LangChain.
- Tirer parti de LangChain pour générer des informations en langage naturel à partir de l'analyse des données.
LangChain Fundamentals
14 HeuresCette formation en direct avec instructeur en Belgique (en ligne ou sur site) s'adresse aux développeurs et ingénieurs logiciels de niveau débutant à intermédiaire qui souhaitent apprendre les concepts et l'architecture de base de LangChain et acquérir les compétences pratiques pour créer des applications alimentées par l'IA.
A l'issue de cette formation, les participants seront capables de :
- Comprendre les principes fondamentaux de LangChain.
- Mettre en place et configurer l'environnement LangChain.
- Comprendre l'architecture et comment LangChain interagit avec les grands modèles de langage (LLM).
- Développer des applications simples en utilisant LangChain.
Getting Started with Ollama: Running Local AI Models
7 HeuresCette formation en direct avec instructeur en Belgique (en ligne ou sur site) est destinée aux professionnels débutants qui souhaitent installer, configurer et utiliser Ollama pour exécuter des modèles d'IA sur leurs machines locales.
A l'issue de cette formation, les participants seront capables de :
- Comprendre les principes fondamentaux de Ollama et ses capacités.
- Configurer Ollama pour exécuter des modèles d'IA locaux.
- Déployer et interagir avec les LLMs en utilisant Ollama.
- Optimiser les performances et l'utilisation des ressources pour les charges de travail d'IA.
- Explorer les cas d'utilisation pour le déploiement de l'IA locale dans diverses industries.