Merci d'avoir envoyé votre demande ! Un membre de notre équipe vous contactera sous peu.        
        
        
            Merci d'avoir envoyé votre réservation ! Un membre de notre équipe vous contactera sous peu.        
    Plan du cours
1. Comprendre la classification à l'aide des voisins les plus proches
- L'algorithme kNN
 - Calculer la distance
 - Choisir un k approprié
 - Préparer les données pour l'utilisation de l'algorithme kNN
 - Pourquoi l'algorithme kNN est-il paresseux ?
 
2. Comprendre Bayes naïf
- Concepts de base des méthodes bayésiennes
 - Probabilité
 - Probabilité conjointe
 - Probabilité conditionnelle avec le théorème de Bayes
 - L'algorithme de Bayes naïf
 - La classification naïve de Bayes
 - L'estimateur de Laplace
 - Utilisation de caractéristiques numériques avec Bayes naïf
 
3. Comprendre les arbres de décision
- Diviser pour régner
 - L'algorithme d'arbre de décision C5.0
 - Choisir la meilleure division
 - Élaguer l'arbre de décision
 
4. Comprendre les règles de classification
- Séparer et conquérir
 - L'algorithme de la règle unique
 - L'algorithme RIPPER
 - Règles des arbres de décision
 
5. Comprendre la régression
- Régression linéaire simple
 - Estimation par les moindres carrés ordinaires
 - Corrélations
 - Régression linéaire multiple
 
6. Comprendre les arbres de régression et les arbres de modèle
- Ajouter la régression aux arbres
 
7. Comprendre les réseaux neuronaux
- Des neurones biologiques aux neurones artificiels
 - Fonctions d'activation
 - Topologie du réseau
 - Le nombre de couches
 - Le sens de circulation de l'information
 - Le nombre de nœuds dans chaque couche
 - Formation de réseaux neuronaux avec la rétropropagation
 
8. Comprendre les machines à vecteurs de support
- Classification avec des hyperplans
 - Recherche de la marge maximale
 - Le cas des données linéairement séparables
 - Le cas des données séparables non linéaires
 - Utilisation de noyaux pour les espaces non linéaires
 
9. Comprendre les règles d'association
- L'algorithme Apriori pour l'apprentissage des règles d'association
 - Mesurer l'intérêt des règles - soutien et confiance
 - Construire un ensemble de règles avec le principe d'Apriori
 
10. Comprendre le regroupement
- Le regroupement en tant que tâche d'apprentissage automatique
 - L'algorithme des k-moyennes pour le regroupement
 - Utiliser la distance pour affecter et mettre à jour les grappes
 - Choisir le nombre approprié de grappes
 
11. Mesurer les performances de la classification
- Travailler avec des données de prédiction de classification
 - Regarder de plus près les matrices de confusion
 - Utiliser les matrices de confusion pour mesurer les performances
 - Au-delà de la précision - d'autres mesures de performance
 - La statistique kappa
 - Sensibilité et spécificité
 - Précision et rappel
 - La mesure F
 - Visualisation des compromis de performance
 - Courbes ROC
 - Estimation des performances futures
 - La méthode d'attente
 - Validation croisée
 - Échantillonnage Bootstrap.
 
12. Ajuster les modèles de stocks pour une meilleure performance
- Utilisation de Caret pour l'ajustement automatisé des paramètres
 - Création d'un modèle simple
 - Personnaliser le processus de réglage
 - Améliorer la performance des modèles avec le méta-apprentissage
 - Comprendre les ensembles
 - Mise en sac
 - Boosting
 - Forêts aléatoires
 - Entraînement des forêts aléatoires
 - Évaluer les performances des forêts aléatoires
 
13. Deep Learning
- Trois classes de Deep Learning
 - Autoencodeurs profonds
 - Réseaux profonds Neural Networks pré-entraînés
 - Réseaux d'empilage profonds
 
14. Discussion sur les domaines d'application spécifiques
             21 Heures
        
        
Nos clients témoignent (1)
Very flexible.
Frank Ueltzhoffer
Formation - Artificial Neural Networks, Machine Learning and Deep Thinking
Traduction automatique