Plan du cours

JOUR 1 - RÉSEAUX NEURONAUX ARTIFICIELS

Introduction et structure ANN.

    Bioneurones logiques et neurones artificiels. Modèle d'un ANN. Fonctions d'activation utilisées dans les ANN. Classes typiques d'architectures de réseau.

Mathematical Fondements et mécanismes d’apprentissage.

    Revisiter l'algèbre vectorielle et matricielle. Concepts d'espace d'état. Notions d'optimisation. Apprentissage par correction d'erreurs. Apprentissage basé sur la mémoire. Apprentissage hébbien. Apprentissage compétitif.

Perceptrons monocouche.

    Structure et apprentissage des perceptrons. Classificateur de modèles - introduction et classificateurs de Bayes. Perceptron comme classificateur de modèles. Convergence des perceptrons. Limites d'un perceptron.

ANN à réaction.

    Structures des réseaux à réaction multicouche. Algorithme de rétro-propagation. Rétro-propagation - formation et convergence. approximation fonctionnelle avec rétro-propagation. Problèmes pratiques et de conception de l'apprentissage de la rétro-propagation.

Réseaux de fonctions à base radiale.

    Séparabilité et interpolation des motifs. Théorie de la régularisation. Réseaux de régularisation et RBF. Conception et formation du réseau RBF. Propriétés d'approximation de RBF.

Apprentissage compétitif et auto-organisation ANN.

    Procédures générales de regroupement. Quantification vectorielle d'apprentissage (LVQ). Algorithmes et architectures d’apprentissage compétitif. Cartes de fonctionnalités auto-organisées. Propriétés des cartes de fonctionnalités.

Floue Neural Networks.

    Systèmes neuro-flou. Contexte d’ensembles flous et de logique. Conception de tiges floues. Conception d'ANN flous.

Applications

    Quelques exemples d'applications de réseaux neuronaux, leurs avantages et problèmes seront discutés.

JOUR -2 APPRENTISSAGE AUTOMATIQUE

    Le cadre d'apprentissage PAC Garanties pour un ensemble d'hypothèses finies – cas cohérent Garanties pour un ensemble d'hypothèses finies – cas incohérent Généralités Déterministe cv. Scénarios stochastiques Erreur de Bayes Bruit Erreurs d’estimation et d’approximation Sélection du modèle
Complexité Radmeacher et VC – DimensionBiais - Compromis de variance
  • Régularisation
  • Sur-ajustement
  • Validation
  • Machines à vecteurs de support
  • Krigeage (régression du processus gaussien)
  • PCA et PCA du noyau
  • Cartes d'auto-organisation (SOM)
  • Espace vectoriel induit par le noyau Mercer Kernels et Kernel - métriques de similarité induite
  • Reinforcement Learning
  • JOUR 3 - APPRENTISSAGE PROFONDE
  • Ceci sera enseigné en relation avec les sujets abordés le jour 1 et le jour 2.
  • Régression logistique et Softmax Auto-encodeurs clairsemés Vectorisation, PCA et blanchiment Apprentissage autodidacte Réseaux profonds Décodeurs linéaires Convolution et pooling Codage clairsemé Analyse de composants indépendants Analyse de corrélation canonique Démonstrations et applications
  • Pré requis

    Bonne compréhension des mathématiques.

    Goa compréhension des statistiques de base.

    Des compétences de base en programmation ne sont pas nécessaires mais recommandées.

      21 heures
     

    Nombre de participants


    Début

    Fin


    Dates are subject to availability and take place between 09:30 and 16:30.
    Les formations ouvertes requièrent plus de 3 participants.

    Nos Clients témoignent (2)

    Cours Similaires

    Catégories Similaires