Course Outline

DAG 1 - KUNSTMATIGE NEURALE NETWERKEN

Inleiding en ANN-structuur.

    Biologische neuronen en kunstmatige neuronen. Model van een ANN. Activeringsfuncties gebruikt in ANN's. Typische klassen van netwerkarchitecturen.

Mathematical Grondslagen en leermechanismen.

    Opnieuw bezoeken van vector- en matrixalgebra. Concepten van staatsruimte. Concepten van optimalisatie. Foutcorrectie leren. Op geheugen gebaseerd leren. Hebbisch leren. Competitief leren.

Perceptronen met één laag.

    Structuur en leren van perceptrons. Patroonclassificator - introductie en de classificatoren van Bayes. Perceptron als patroonclassificator. Perceptron-convergentie. Beperkingen van een perceptron.

Feedforward ANN.

    Structuren van meerlaagse feedforward-netwerken. Algoritme voor terugpropagatie. Rugvoortplanting - training en convergentie. Functionele benadering met achterwaartse voortplanting. Praktische en ontwerpkwesties van achterwaarts propagatieleren.

Radiale basisfunctienetwerken.

    Patroonscheidbaarheid en interpolatie. Regularisatietheorie. Regularisatie en RBF-netwerken. RBF netwerkontwerp en training. Benaderingseigenschappen van RBF.

Competitief leren en zelforganiserend ANN.

    Algemene clusteringprocedures. Vectorkwantisering (LVQ) leren. Competitieve leeralgoritmen en architecturen. Zelforganiserende functiekaarten. Eigenschappen van featurekaarten.

Wazig Neural Networks.

    Neuro-fuzzy systemen. Achtergrond van vage sets en logica. Ontwerp van pluizige stengels. Ontwerp van vage ANN's.

Toepassingen

    Een paar voorbeelden van Neural Network-toepassingen, hun voordelen en problemen zullen worden besproken.

DAG -2 MACHINELEREN

    Het PAC Learning Framework Garanties voor een eindige hypotheseset – consistent geval Garanties voor een eindige hypotheseset – inconsistent geval Algemeenheden Deterministisch cv. Stochastische scenario's Bayes-foutruis Schattings- en benaderingsfouten Modelselectie
Radmeacher Complexiteit en VC – DimensieBias - Variantie-afweging
  • Regularisatie
  • Overpassend
  • Geldigmaking
  • Ondersteuning van vectormachines
  • Kriging (Gaussiaanse procesregressie)
  • PCA en Kernel-PCA
  • Zelforganisatiekaarten (SOM)
  • Kernel-geïnduceerde vectorruimte Mercer Kernels en Kernel-geïnduceerde gelijkenismetrieken
  • Reinforcement Learning
  • DAG 3 - DIEP LEREN
  • Dit wordt onderwezen in relatie tot de onderwerpen die op dag 1 en dag 2 aan bod komen
  • Logistieke en Softmax-regressie Sparse auto-encoders Vectorisatie, PCA en whitening Autodidactisch leren Diepe netwerken Lineaire decoders Convolutie en pooling Sparse codering Onafhankelijke componentanalyse Canonieke correlatieanalyse Demo's en toepassingen
  • Requirements

    Goed inzicht in wiskunde.

    Gogoed begrip van basisstatistieken.

    Basis programmeervaardigheden zijn niet vereist, maar wel aanbevolen.

      21 Hours
     

    Number of participants


    Starts

    Ends


    Dates are subject to availability and take place between 09:30 and 16:30.
    Open Training Courses require 5+ participants.

    Getuigenissen (2)

    Related Courses

    Related Categories