Plan du cours
Introduction
Cette section fournit une introduction générale sur l'utilisation de l'apprentissage automatique, sur ce qu'il faut prendre en compte et sur ce que cela signifie, y compris les avantages et les inconvénients. Types de données (structurées/non structurées/statiques/en continu), validité/volume des données, analyse axée sur les données ou sur l'utilisateur, modèles statistiques ou modèles d'apprentissage automatique, défis de l'apprentissage non supervisé, compromis biais-variance, itération/évaluation, approches de validation croisée, supervisé/non supervisé/renforcement.
THÈMES PRINCIPAUX.
1. Comprendre les Bayes naïfs
- Concepts de base des méthodes bayésiennes
- Probabilité
- Probabilité conjointe
- Probabilité conditionnelle avec le théorème de Bayes
- L'algorithme naïf de Bayes
- La classification naïve de Bayes
- L'estimateur de Laplace
- Utilisation de caractéristiques numériques avec Bayes naïf
2. Comprendre les arbres de décision
- Diviser pour mieux régner
- L'algorithme de l'arbre de décision C5.0
- Choisir la meilleure division
- Élaguer l'arbre de décision
3. Comprendre les réseaux neuronaux
- Des neurones biologiques aux neurones artificiels
- Fonctions d'activation
- Topologie du réseau
- Le nombre de couches
- Le sens de circulation de l'information
- Le nombre de nœuds dans chaque couche
- Formation de réseaux neuronaux avec la rétropropagation
- Deep Learning
4. Comprendre les machines à vecteurs de support
- Classification à l'aide d'hyperplans
- Recherche de la marge maximale
- Le cas des données linéairement séparables
- Le cas des données séparables non linéaires
- Utilisation de noyaux pour les espaces non linéaires
5. Comprendre le regroupement
- Le regroupement en tant que tâche d'apprentissage automatique
- L'algorithme des k-moyennes pour le regroupement
- Utilisation de la distance pour affecter et mettre à jour les grappes
- Choix du nombre approprié de grappes
6. Mesurer les performances de la classification
- Travailler avec des données de prédiction de classification
- Regarder de plus près les matrices de confusion
- Utiliser les matrices de confusion pour mesurer les performances
- Au-delà de la précision &ndash ; d'autres mesures de performance
- La statistique kappa
- Sensibilité et spécificité
- Précision et rappel
- La mesure F
- Visualisation des compromis de performance
- Courbes ROC
- Estimation des performances futures
- La méthode d'attente
- Validation croisée
- Échantillonnage Bootstrap
7. Mise au point des modèles de stock pour une meilleure performance
- Utilisation de Caret pour l'ajustement automatisé des paramètres
- Création d'un modèle simple
- Personnaliser le processus de réglage
- Améliorer les performances du modèle avec le méta-apprentissage
- Comprendre les ensembles
- Mise en sac
- Boosting
- Forêts aléatoires
- Entraînement des forêts aléatoires
- Évaluer les performances des forêts aléatoires
THÈMES MINEURS
8. Comprendre la classification à l'aide des voisins les plus proches
- L'algorithme kNN
- Calcul de la distance
- Choix d'un k approprié
- Préparer les données pour l'utilisation de l'algorithme kNN
- Pourquoi l'algorithme kNN est-il paresseux ?
9. Comprendre les règles de classification
- Séparer pour mieux régner
- L'algorithme de la règle unique
- L'algorithme RIPPER
- Règles issues d'arbres de décision
10. Comprendre la régression
- Régression linéaire simple
- Estimation par les moindres carrés ordinaires
- Corrélations
- Régression linéaire multiple
11. Comprendre les arbres de régression et les arbres de modèle
- Ajouter la régression aux arbres
12. Comprendre les règles d'association
- L'algorithme Apriori pour l'apprentissage des règles d'association
- Mesurer l'intérêt &ndash ; le soutien et la confiance des règles
- Construire un ensemble de règles avec le principe d'Apriori
Extras
- Spark/PySpark/MLlib et les bandits à plusieurs bras
Nos Clients témoignent (5)
Faire court et simple. Créer une intuition et des modèles visuels autour des concepts (arbre de décision, équations linéaires, calcul manuel de y_pred pour prouver le fonctionnement du modèle).
Nicolae - DB Global Technology
Formation - Machine Learning
Traduction automatique
Il m'a aidé à atteindre mon objectif de comprendre ML. J'ai beaucoup de respect pour Pablo pour avoir donné une introduction appropriée à ce sujet, car il devient évident après 3 jours de formation à quel point ce sujet est vaste. J'ai également beaucoup apprécié l'idée des machines virtuelles que vous avez fournies, qui avaient une très bonne latence ! Cela a permis à chaque participant de faire des expériences à son propre rythme.
Silviu - DB Global Technology
Formation - Machine Learning
Traduction automatique
The way practical part, seeing the theory materializing into something practical is great.
Lisa Fekade - Vodacom
Formation - Machine Learning
It's just great that all material including the exercises is on the same page and then it gets updated on the fly. The solution is revealed at the end. Cool! Also, I do appreciate that Krzysztof took extra effort to understand our problems and suggested us possible techniques.
Attila Nagy - L M ERICSSON LIMITED
Formation - Machine Learning
I liked the lab exercises.