Plan du cours

Apprentissage automatique

Introduction à Machine Learning

    Applications de l'apprentissage automatique Apprentissage supervisé et apprentissage non supervisé Algorithmes d'apprentissage automatique Classification de régression Clustering Recommander Détection d'anomalies du système Reinforcement Learning

Régression

    Régression simple et multiple Méthode des moindres carrés Estimation des coefficients Évaluation de l'exactitude des estimations de coefficients Évaluation de l'exactitude du modèle Analyse post-estimation Autres considérations dans les modèles de régression Prédicteurs qualitatifs Extensions des modèles linéaires Problèmes potentiels Compromis biais-variance [sous-ajustement /over-fitting] pour les modèles de régression

Méthodes de rééchantillonnage

    Validation croisée L'approche de l'ensemble de validation Validation croisée Leave-One-Out Validation croisée k-Fold Compromis biais-variance pour k-Fold The Bootstrap

Sélection et régularisation du modèle

    Sélection de sous-ensemble [Meilleure sélection de sous-ensemble, sélection par étapes, choix du modèle optimal] Méthodes de retrait/régularisation [Régression de crête, Lasso et filet élastique] Sélection du paramètre de réglage Méthodes de réduction de dimension Régression des composantes principales Moindres carrés partiels

Classification

    Régression logistique La fonction de coût du modèle logistique Estimation des coefficients Faire des prédictions Odds Ratio Matrices d'évaluation des performances [Sensibilité/Spécificité/PPV/NPV, Précision, courbe ROC, etc.] Régression logistique multiple Régression logistique pour > 2 classes de réponse Régression logistique régularisée
Analyse discriminante linéaire utilisant le théorème de Bayes pour la classification
  • Analyse discriminante linéaire pour p=1
  • Analyse discriminante linéaire pour p >1
  • Analyse discriminante quadratique
  • K-Voisins les plus proches
  • Classification avec limites de décision non linéaires
  • Objectif d’optimisation des machines à vecteurs de support
  • Le classificateur de marge maximale
  • Graines
  • Classification un contre un
  • Classement un contre tous
  • Comparaison des méthodes de classification
  • Introduction à Deep Learning
  • Structure du ANN
  • Bioneurones logiques et neurones artificiels Modèle d'hypothèse non linéaire Exemples de représentation et intuitions Fonction de transfert/fonctions d'activation Classes typiques d'architectures de réseau
  • Feed forward ANN.

    Structures des réseaux à rétroaction multicouche Algorithme de rétro-propagation Rétro-propagation - formation et convergence approximation fonctionnelle avec rétro-propagation Problèmes pratiques et de conception de l'apprentissage de la rétro-propagation

      Deep Learning

    Intelligence artificielle et Deep Learning Softmax Regression Apprentissage autodidacte Démonstrations et applications de réseaux profonds

      Laboratoire:

    Premiers pas avec R

      Introduction aux commandes et bibliothèques de base R Manipulation des données Importation et exportation de données Résumés graphiques et numériques Fonctions d'écriture

    Régression

    Termes d'interaction de régression linéaire simple et multiple Transformations non linéaires Régression de variable factice Validation croisée et Bootstrap Méthodes de sélection de sous-ensembles Pénalisation [Ridge, Lasso, Elastic Net]

      Classification

    Régression logistique, LDA, QDA et KNN, prise en charge du rééchantillonnage et de la régularisation Rééchantillonnage et régularisation des machines vectorielles

      Note:

    Pour les algorithmes ML, des études de cas seront utilisées pour discuter de leur application, de leurs avantages et de leurs problèmes potentiels. L'analyse de différents ensembles de données sera effectuée à l'aide de R

    Pré requis

    Une connaissance de base des concepts statistiques est souhaitable.

      21 heures
     

    Nombre de participants


    Début

    Fin


    Dates are subject to availability and take place between 09:30 and 16:30.
    Les formations ouvertes requièrent plus de 3 participants.

    Nos Clients témoignent (4)

    Cours Similaires

    Catégories Similaires