Merci d'avoir envoyé votre demande ! Un membre de notre équipe vous contactera sous peu.
Merci d'avoir envoyé votre réservation ! Un membre de notre équipe vous contactera sous peu.
Plan du cours
Introduction à Ollama
- Qu'est-ce que Ollama et comment fonctionne-t-il ?
- Avantages de l'exécution locale de modèles d'IA
- Aperçu des LLMs supportés (Llama, DeepSeek, Mistral, etc.)
Installation et configuration de Ollama
- Configuration requise et considérations matérielles
- Installation de Ollama sur différents systèmes d'exploitation
- Configuration des dépendances et de l'environnement
Exécution locale des modèles d'IA
- Téléchargement et chargement des modèles d'IA dans Ollama
- Interaction avec les modèles via la ligne de commande
- Ingénierie d'invite de base pour les tâches d'IA locales
Optimisation des performances et de l'utilisation des ressources
- Gestion des ressources matérielles pour une exécution efficace de l'IA
- Réduction de la latence et amélioration du temps de réponse des modèles
- Analyse comparative des performances de différents modèles
Use Cases pour le déploiement de l'IA locale
- Chatbots et assistants virtuels alimentés par l'IA
- Traitement des données et tâches d'automatisation
- Applications d'IA axées sur la protection de la vie privée
Résumé et prochaines étapes
Pré requis
- Compréhension de base des concepts de l'IA et de l'apprentissage automatique
- Familiarité avec les interfaces en ligne de commande
Public
- Développeurs exécutant des modèles d'IA sans dépendance au cloud
- Professionnels Business intéressés par la confidentialité de l'IA et un déploiement rentable
- Les passionnés d'IA qui explorent le déploiement de modèles locaux
7 Heures