Cursusaanbod

Invoering

In dit gedeelte vindt u een algemene introductie over wanneer u 'machine learning' moet gebruiken, waar u rekening mee moet houden en wat het allemaal betekent, inclusief de voor- en nadelen. Datatypen (gestructureerd/ongestructureerd/statisch/gestreamd), datavaliditeit/volume, datagestuurde vs. gebruikersgestuurde analyses, statistische modellen vs. machine learning-modellen/uitdagingen van onbewaakt leren, afweging van bias en variantie, iteratie/evaluatie, kruisvalidatiebenaderingen , onder toezicht/zonder toezicht/versterking.

BELANGRIJKE ONDERWERPEN

1. Naïeve Bayes begrijpen

  • Basisconcepten van Bayesian methoden
  • Waarschijnlijkheid
  • Gezamenlijke waarschijnlijkheid
  • Voorwaardelijke waarschijnlijkheid met de stelling van Bayes
  • Het algoritme van de naïeve Bayes
  • De classificatie van naïeve Bayes
  • De Laplace-schatter
  • Het gebruik van numerieke kenmerken met naïeve Bayes

2. Beslisbomen begrijpen

  • Verdelen en overwinnen
  • Het C5.0-beslissingsboomalgoritme
  • Het kiezen van de beste splitsing
  • Het snoeien van de beslissingsboom

3. Neurale netwerken begrijpen

  • Van biologische naar kunstmatige neuronen
  • Activeringsfuncties
  • Netwerktopologie
  • Aantal lagen
  • De richting van informatieverkeer
  • Aantal knopen in elke laag
  • Het trainen van neurale netwerken met backpropagation
  • Deep Learning

4. Ondersteuningsvectormachines begrijpen

  • Classificatie met hypervlakken
  • Het vinden van de maximale marge
  • Het geval van lineair scheidbare gegevens
  • Het geval van niet-lineair scheidbare gegevens
  • Het gebruik van kernen voor niet-lineaire ruimtes

5. Clustering begrijpen

  • Clusteranalyse als machine learning-taak
  • Het k-means-algoritme voor clusteranalyse
  • Het gebruik van afstand om clusters toe te wijzen en te updaten
  • Het kiezen van het juiste aantal clusters

6. Prestaties meten voor classificatie

  • Werken met classificatievoorspellingen
  • Een nauwkeuriger kijk op verwarringmatrices
  • Het gebruik van verwarringmatrices om prestaties te meten
  • Naar buiten de nauwkeurigheid – andere maatstaven voor prestaties
  • De kappa-statistiek
  • Sensitiviteit en specificiteit
  • Precisie en herroepbaarheid
  • De F-maat
  • Prestatietegoeden visualiseren
  • ROC-krommen
  • Het schatten van toekomstige prestaties
  • De holdout-methode
  • Kruisvalidatie
  • Bootstrap sampling

7. Standaardmodellen afstemmen voor betere prestaties

  • Het gebruik van caret voor geautomatiseerde parameterinstelling
  • Het maken van een eenvoudig afgestemd model
  • Het aanpassen van het afstemproces
  • Het verbeteren van modelprestaties met meta-learning
  • Ensembles begrijpen
  • Bagging
  • Boosting
  • Random forests
  • Het trainen van random forests
  • Het evalueren van random forest prestaties

KLEINE ONDERWERPEN

8. Classificatie begrijpen met behulp van de dichtstbijzijnde buren

  • Het kNN-algoritme
  • De afstand berekenen
  • Het kiezen van een geschikt k
  • Gegevens voorbereiden voor gebruik met kNN
  • Waarom is het kNN-algoritme lui?

9. Classificatieregels begrijpen

  • Scheiden en overwinnen
  • Het One Rule-algoritme
  • Het RIPPER-algoritme
  • Regels uit beslissingsbomen

10. Regressie begrijpen

  • Eenvoudige lineaire regressie
  • Gewone kleinste-kwadraten-schatting
  • Correlaties
  • Meervoudige lineaire regressie

11. Inzicht in regressiebomen en modelbomen

  • Regressie toevoegen aan bomen

12. Verenigingsregels begrijpen

  • Het Apriori-algoritme voor associatief regelgeving
  • Het meten van regelinteresse – ondersteuning en vertrouwen
  • Een set regels bouwen met het Apriori-principe

Extra's

  • Spark/PySpark/MLlib en Multi-armed bandits

Vereisten

Python Kennis

 21 Uren

Aantal deelnemers


Prijs Per Deelnemer

Testimonials (7)

Voorlopige Aankomende Cursussen

Gerelateerde categorieën