Plan du cours

1. Comprendre la classification à l'aide des voisins les plus proches

  • L'algorithme kNN
  • Calculer la distance
  • Choisir un k approprié
  • Préparer les données pour l'utilisation de l'algorithme kNN
  • Pourquoi l'algorithme kNN est-il paresseux ?

2. Comprendre Bayes naïf

  • Concepts de base des méthodes bayésiennes
  • Probabilité
  • Probabilité conjointe
  • Probabilité conditionnelle avec le théorème de Bayes
  • L'algorithme de Bayes naïf
  • La classification naïve de Bayes
  • L'estimateur de Laplace
  • Utilisation de caractéristiques numériques avec Bayes naïf

3. Comprendre les arbres de décision

  • Diviser pour régner
  • L'algorithme d'arbre de décision C5.0
  • Choisir la meilleure division
  • Élaguer l'arbre de décision

4. Comprendre les règles de classification

  • Séparer et conquérir
  • L'algorithme de la règle unique
  • L'algorithme RIPPER
  • Règles des arbres de décision

5. Comprendre la régression

  • Régression linéaire simple
  • Estimation par les moindres carrés ordinaires
  • Corrélations
  • Régression linéaire multiple

6. Comprendre les arbres de régression et les arbres de modèle

  • Ajouter la régression aux arbres

7. Comprendre les réseaux neuronaux

  • Des neurones biologiques aux neurones artificiels
  • Fonctions d'activation
  • Topologie du réseau
  • Le nombre de couches
  • Le sens de circulation de l'information
  • Le nombre de nœuds dans chaque couche
  • Formation de réseaux neuronaux avec la rétropropagation

8. Comprendre les machines à vecteurs de support

  • Classification avec des hyperplans
  • Recherche de la marge maximale
  • Le cas des données linéairement séparables
  • Le cas des données séparables non linéaires
  • Utilisation de noyaux pour les espaces non linéaires

9. Comprendre les règles d'association

  • L'algorithme Apriori pour l'apprentissage des règles d'association
  • Mesurer l'intérêt des règles - soutien et confiance
  • Construire un ensemble de règles avec le principe d'Apriori

10. Comprendre le regroupement

  • Le regroupement en tant que tâche d'apprentissage automatique
  • L'algorithme des k-moyennes pour le regroupement
  • Utiliser la distance pour affecter et mettre à jour les grappes
  • Choisir le nombre approprié de grappes

11. Mesurer les performances de la classification

  • Travailler avec des données de prédiction de classification
  • Regarder de plus près les matrices de confusion
  • Utiliser les matrices de confusion pour mesurer les performances
  • Au-delà de la précision - d'autres mesures de performance
  • La statistique kappa
  • Sensibilité et spécificité
  • Précision et rappel
  • La mesure F
  • Visualisation des compromis de performance
  • Courbes ROC
  • Estimation des performances futures
  • La méthode d'attente
  • Validation croisée
  • Échantillonnage Bootstrap.

12. Ajuster les modèles de stocks pour une meilleure performance

  • Utilisation de Caret pour l'ajustement automatisé des paramètres
  • Création d'un modèle simple
  • Personnaliser le processus de réglage
  • Améliorer la performance des modèles avec le méta-apprentissage
  • Comprendre les ensembles
  • Mise en sac
  • Boosting
  • Forêts aléatoires
  • Entraînement des forêts aléatoires
  • Évaluer les performances des forêts aléatoires

13. Deep Learning

  • Trois classes de Deep Learning
  • Autoencodeurs profonds
  • Réseaux profonds Neural Networks pré-entraînés
  • Réseaux d'empilage profonds

14. Discussion sur les domaines d'application spécifiques

 21 heures

Nombre de participants



Prix par participant

Nos Clients témoignent (1)

Cours Similaires

Torch for Machine and Deep Learning

21 heures

Catégories Similaires