Plan du cours

1. Comprendre la classification à l'aide des voisins les plus proches

  • L'algorithme kNN
  • Calculer la distance
  • Choisir un k approprié
  • Préparer les données pour l'utilisation de l'algorithme kNN
  • Pourquoi l'algorithme kNN est-il paresseux ?

2. Comprendre Bayes naïf

  • Concepts de base des méthodes bayésiennes
  • Probabilité
  • Probabilité conjointe
  • Probabilité conditionnelle avec le théorème de Bayes
  • L'algorithme de Bayes naïf
  • La classification naïve de Bayes
  • L'estimateur de Laplace
  • Utilisation de caractéristiques numériques avec Bayes naïf

3. Comprendre les arbres de décision

  • Diviser pour régner
  • L'algorithme d'arbre de décision C5.0
  • Choisir la meilleure division
  • Élaguer l'arbre de décision

4. Comprendre les règles de classification

  • Séparer et conquérir
  • L'algorithme de la règle unique
  • L'algorithme RIPPER
  • Règles des arbres de décision

5. Comprendre la régression

  • Régression linéaire simple
  • Estimation par les moindres carrés ordinaires
  • Corrélations
  • Régression linéaire multiple

6. Comprendre les arbres de régression et les arbres de modèle

  • Ajouter la régression aux arbres

7. Comprendre les réseaux neuronaux

  • Des neurones biologiques aux neurones artificiels
  • Fonctions d'activation
  • Topologie du réseau
  • Le nombre de couches
  • Le sens de circulation de l'information
  • Le nombre de nœuds dans chaque couche
  • Formation de réseaux neuronaux avec la rétropropagation

8. Comprendre les machines à vecteurs de support

  • Classification avec des hyperplans
  • Recherche de la marge maximale
  • Le cas des données linéairement séparables
  • Le cas des données séparables non linéaires
  • Utilisation de noyaux pour les espaces non linéaires

9. Comprendre les règles d'association

  • L'algorithme Apriori pour l'apprentissage des règles d'association
  • Mesurer l'intérêt des règles - soutien et confiance
  • Construire un ensemble de règles avec le principe d'Apriori

10. Comprendre le regroupement

  • Le regroupement en tant que tâche d'apprentissage automatique
  • L'algorithme des k-moyennes pour le regroupement
  • Utiliser la distance pour affecter et mettre à jour les grappes
  • Choisir le nombre approprié de grappes

11. Mesurer les performances de la classification

  • Travailler avec des données de prédiction de classification
  • Regarder de plus près les matrices de confusion
  • Utiliser les matrices de confusion pour mesurer les performances
  • Au-delà de la précision - d'autres mesures de performance
  • La statistique kappa
  • Sensibilité et spécificité
  • Précision et rappel
  • La mesure F
  • Visualisation des compromis de performance
  • Courbes ROC
  • Estimation des performances futures
  • La méthode d'attente
  • Validation croisée
  • Échantillonnage Bootstrap.

12. Ajuster les modèles de stocks pour une meilleure performance

  • Utilisation de Caret pour l'ajustement automatisé des paramètres
  • Création d'un modèle simple
  • Personnaliser le processus de réglage
  • Améliorer la performance des modèles avec le méta-apprentissage
  • Comprendre les ensembles
  • Mise en sac
  • Boosting
  • Forêts aléatoires
  • Entraînement des forêts aléatoires
  • Évaluer les performances des forêts aléatoires

13. Deep Learning

  • Trois classes de Deep Learning
  • Autoencodeurs profonds
  • Réseaux profonds Neural Networks pré-entraînés
  • Réseaux d'empilage profonds

14. Discussion sur les domaines d'application spécifiques

  21 heures
 

Nombre de participants


Début

Fin


Dates are subject to availability and take place between 09:30 and 16:30.
Les formations ouvertes requièrent plus de 3 participants.

Nos Clients témoignent (1)

Cours Similaires

Catégories Similaires