Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Plan du cours
Répartition des sujets sur une base quotidienne : (Chaque session dure 2 heures)
Jour 1 : Session -1 : Business Aperçu du pourquoi Big Data Business Intelligence dans les télécommunications.
- Études de cas de T-Mobile, Verizon, etc.
- Big Data taux d'adaptation des sociétés de télécommunications nord-américaines et comment elles alignent leur futur modèle commercial et leurs opérations autour de Big Data BI
- Domaine d'application à grande échelle
- Gestion du réseau et des services
- Désabonnement des clients Management
- Data Integration & Visualisation du tableau de bord
- Gestion de la fraude
- Business Génération de règles
- Profilage des clients
- Diffusion d'annonces localisées
Jour-1 : Session-2 : Introduction de Big Data-1
- Principales caractéristiques de Big Data-volume, variété, vélocité et véracité. Architecture MPP pour le volume.
- Data Warehouses – schéma statique, ensemble de données évoluant lentement
- MPP Database comme Greenplum, Exadata, Teradata, Netezza, Vertica etc.
- Hadoop Solutions basées – aucune condition sur la structure de l’ensemble de données.
- Modèle typique : HDFS, MapReduce (crunch), récupération depuis HDFS
- Lot adapté aux applications analytiques/non interactives
- Volume : données en streaming CEP
- Choix typiques – produits CEP (par exemple Infostreams, Apama, MarkLogic, etc.)
- Moins prêt pour la production – Storm/S4
- NoSQL Databases – (colonne et valeur-clé) : Idéal comme complément analytique à l'entrepôt de données/base de données
Jour-1 : Session -3 : Introduction à Big Data-2
NoSQL solutions
- Magasin KV - Keyspace, Flare, SchemaFree, RAMCloud, Oracle NoSQL Database (OnDB)
- Magasin KV - Dynamo, Voldemort, Dynomite, SubRecord, Mo8onDb, DovetailDB
- Magasin KV (hiérarchique) - GT.m, Cache
- KV Store (commandé) - TokyoTyrant, Lightcloud, NMDB, Luxio, MemcacheDB, Actord
- Cache KV - Memcached, Repcached, Coherence, Infinispan, EXtremeScale, JBossCache, Velocity, Terracoqua
- Tuple Store - Gigaspaces, Coord, Apache River
- Objet Database - ZopeDB, DB40, Shoal
- Magasin de documents - CouchDB, Cloudant, Couchbase, MongoDB, Jackrabbit, XML-Databases, ThruDB, CloudKit, Prsevere, Riak-Basho, Scalaris
- Large magasin en colonnes - BigTable, HBase, Apache Cassandra, Hypertable, KAI, OpenNeptune, Qbase, KDI
Variétés de données : introduction au problème Data Cleaning dans Big Data
- SGBDR – structure/schéma statique, ne favorise pas un environnement agile et exploratoire.
- NoSQL – semi-structuré, suffisamment structuré pour stocker des données sans schéma exact avant de stocker les données
- Problèmes de nettoyage des données
Jour-1 : Session-4 : Big Data Introduction-3 : Hadoop
- Quand sélectionner Hadoop ?
- STRUCTURÉ – Les entrepôts de données/bases de données d'entreprise peuvent stocker des données massives (à un coût) mais imposer une structure (pas bon pour l'exploration active)
- Données SEMI-STRUCTURÉES – difficiles à réaliser avec des solutions traditionnelles (DW/DB)
- Données d'entreposage = effort ÉNORME et statique même après la mise en œuvre
- Pour la variété et le volume de données, basés sur du matériel standard – HADOOP
- Produits matériels et matériels nécessaires pour créer un Hadoop cluster
Introduction à Map Réduire /HDFS
- MapReduce – répartissez l'informatique sur plusieurs serveurs
- HDFS – rendre les données disponibles localement pour le processus informatique (avec redondance)
- Données – peuvent être non structurées/sans schéma (contrairement au SGBDR)
- Responsabilité du développeur de donner un sens aux données
- Programming MapReduce = travailler avec Java (avantages/inconvénients), chargement manuel des données dans HDFS
Jour 2 : Session-1.1 : Spark : Base de données distribuée en mémoire
- Qu’est-ce que le traitement « En mémoire » ?
- Étincelle SQL
- SDK Spark
- API Spark
- RDD
- Libération d'étincelles
- Hanna
- Comment migrer un système Hadoop existant vers Spark
Session Jour 2 -1.2 : Tempête -Traitement en temps réel dans Big Data
- Ruisseaux
- Choux
- Boulons
- Topologies
Jour 2 : Session 2 : Big Data Management Système
- Pièces mobiles, démarrage/échec des nœuds de calcul :ZooKeeper - Pour les services de configuration/coordination/naming
- Pipeline/workflow complexe : Oozie – gérer le workflow, les dépendances et la connexion en série
- Déployer, configurer, gestion de cluster, mise à niveau, etc. (administrateur système) :Ambari
- Dans le Cloud : Whirr
- Outils de plateforme évolutifs Big Data pour le suivi
- Problèmes d'application de la couche ETL
Jour-2 : Session-3 : Analyse prédictive dans Business Intelligence -1 : Techniques fondamentales et BI basée sur l'apprentissage automatique :
- Introduction à l'apprentissage automatique
- Apprentissage des techniques de classification
- Fichier de formation pour la préparation de la prédiction bayésienne
- Champ aléatoire de Markov
- Apprentissage supervisé et non supervisé
- Extraction de caractéristiques
- Machine à vecteurs de support
- Réseau neuronal
- Apprentissage par renforcement
- Big Data problème de grandes variables - Forêt aléatoire (RF)
- Apprentissage de la représentation
- L'apprentissage en profondeur
- Big Data Problème d’automatisation – RF d’ensemble multimodèle
- Automatisation via Soft10-M
- LDA et modélisation thématique
- Agile apprentissage
- Apprentissage basé sur les agents – Exemple tiré d'une opération de télécommunication
- Apprentissage distribué – Exemple tiré d'une opération de télécommunication
- Introduction aux outils Open source pour l'analyse prédictive : R, Rapidminer, Mahut
- Laboratoire d'analyseApache Hama, Spark et CMU Graph plus évolutif
Jour 2 : Session 4 Écosystème d'analyse prédictive-2 : Problèmes d'analyse prédictive courants dans Telecom
- Analyse d'informations
- Analyse de visualisation
- Analyse prédictive structurée
- Analyse prédictive non structurée
- Profilage des clients
- Moteur de recommandation
- Détection de modèles
- Découverte de règles/scénarios – échec, fraude, optimisation
- Découverte des causes profondes
- Analyse des sentiments
- Analyse CRM
- Analyse de réseau
- Analyse de texte
- Examen assisté par la technologie
- Analyse de fraude
- Analyse en temps réel
Jour 3 : Session-1 : Analyse de l'exploitation du réseau - analyse des causes profondes des pannes de réseau, interruption de service à partir des métadonnées, IPDR et CRM :
- L'utilisation du processeur
- Utilisation de la mémoire
- Utilisation de la file d'attente QoS
- Température de l'appareil
- Erreur d'interface
- Versions iOS
- Événements de routage
- Variations de latence
- Analyse Syslog
- Perte de paquets
- Simulation de charge
- Inférence de topologie
- Seuil de performances
- Pièges de périphérique
- Collecte et traitement IPDR (enregistrement détaillé IP)
- Utilisation des données IPDR pour la consommation de bande passante de l'abonné, l'utilisation de l'interface réseau, l'état du modem et le diagnostic
- Informations sur les HFC
Jour 3 : Session 2 : Outils d'analyse des défaillances des services réseau :
- Tableau de bord récapitulatif du réseau : surveillez les déploiements réseau globaux et suivez les indicateurs de performance clés de votre organisation
- Tableau de bord d'analyse des périodes de pointe : comprenez les tendances des applications et des abonnés qui génèrent les pics d'utilisation, avec une granularité spécifique à l'emplacement.
- Tableau de bord d'efficacité du routage : contrôlez les coûts du réseau et élaborez des analyses de rentabilisation pour les projets d'investissement avec une compréhension complète des relations d'interconnexion et de transit.
- Tableau de bord de divertissement en temps réel : accédez aux mesures importantes, notamment les vues vidéo, la durée et la qualité de l'expérience vidéo (QoE).
- Tableau de bord de transition IPv6 : étudiez l'adoption continue d'IPv6 sur votre réseau et obtenez un aperçu des applications et des appareils qui déterminent les tendances.
- Étude de cas 1 : mineur de données Alcatel-Lucent Big Network Analytics (BNA)
- Intelligence mobile multidimensionnelle (m.IQ6)
Jour 3 : Session 3 : Big Data BI pour Marketing/Sales – Comprendre les ventes/marketing à partir des données de ventes : (Tous seront présentés avec une démo d'analyse prédictive en direct)
- Pour identifier les clients les plus rapides
- Identifier les clients pour un produit donné
- Pour identifier le bon ensemble de produits pour un client (moteur de recommandation)
- Technique de segmentation du marché
- Technique de vente croisée et de vente incitative
- Technique de segmentation des clients
- Technique de prévision du chiffre d'affaires
Jour 3 : Séance 4 : BI nécessaire pour le bureau du directeur financier des télécommunications :
- Aperçu des Business travaux d'analyse nécessaires dans un bureau de directeur financier
- Analyse des risques sur les nouveaux investissements
- Prévisions de revenus, de bénéfices
- Prévision d’acquisition de nouveaux clients
- Prévision des pertes
- Analyse de fraude financière (détails prochaine session)
Jour 4 : Session 1 : BI sur la prévention de la fraude de Big Data dans l'analyse Telco-Fraud :
- Fuite de bande passante / Fraude à la bande passante
- Fraude des fournisseurs/facturation excessive des projets
- Fraudes aux remboursements/réclamations des clients
- Fraudes au remboursement des voyages
Jour 4 : Session 2 : De la prédiction du désabonnement à la prévention du désabonnement :
- 3 types de désabonnement : actif/délibéré, rotationnel/accessoire, passif involontaire
- 3 classifications des clients désabonnés : Total, Caché, Partiel
- Comprendre les variables CRM pour le taux de désabonnement
- Collecte de données sur le comportement des clients
- Collecte de données sur la perception des clients
- Collecte de données démographiques des clients
- Nettoyage des données CRM
- Données CRM non structurées (appel client, tickets, e-mails) et leur conversion en données structurées pour l'analyse du Churn
- Social Media CRM - nouvelle façon d'extraire l'indice de satisfaction client
- Étude de cas 1 : T-Mobile USA : réduction du taux de désabonnement de 50 %
Jour 4 : Session 3 : Comment utiliser l'analyse prédictive pour analyser les causes profondes de l'insatisfaction des clients :
- Étude de cas -1 : Lier l'insatisfaction aux problèmes – Comptabilité, défaillances techniques telles qu'une interruption de service, un service de bande passante médiocre
- Étude de cas-2 : Big Data Tableau de bord d'assurance qualité pour suivre l'indice de satisfaction client à partir de divers paramètres tels que les escalades d'appels, la criticité des problèmes, les événements d'interruption de service en attente, etc.
Jour-4 : Session-4 : Big Data Tableau de bord pour un accès rapide à diverses données et affichage :
- Intégration de la plateforme d'application existante avec Big Data Dashboard
- Big Data gestion
- Étude de cas de Big Data Tableau de bord : Tableau et Pentaho
- Utilisez l'application Big Data pour diffuser la publicité basée sur la localisation
- Système de suivi et gestion
Jour-5 : Session-1 : Comment justifier Big Data la mise en œuvre de la BI au sein d'une organisation :
- Définir le retour sur investissement pour la mise en œuvre de Big Data
- Études de cas permettant aux analystes de gagner du temps pour la collecte et la préparation des données – augmentation du gain de productivité
- Études de cas sur les gains de revenus liés au désabonnement des clients
- Gain de revenus grâce à la géolocalisation et à d'autres publicités ciblées
- Une approche intégrée de feuille de calcul pour calculer env. dépenses par rapport aux gains/économies de revenus résultant de la mise en œuvre de Big Data.
Jour 5 : Session 2 : Procédure étape par étape pour remplacer le système de données existant par le système Big Data :
- Comprendre la feuille de route pratique Big Data pour la migration
- Quelles sont les informations importantes nécessaires avant de concevoir une implémentation Big Data
- Quelles sont les différentes manières de calculer le volume, la vélocité, la variété et la véracité des données
- Comment estimer la croissance des données
- Études de cas dans 2 Telco
Jour 5 : Sessions 3 et 4 : Examen de Big Data fournisseurs et examen de leurs produits. Séance de questions/réponses :
- AccentureAlcatel-Lucent
- Amazone –A9
- APTEAN (anciennement CDC Software)
- Cisco Systèmes
- Cloudera
- Dell
- CEM
- GoodData Corporation
- Guavus
- Systèmes de données Hitachi
- Hortons
- Huawei
- HP
- IBM
- Informatique
- Intel
- Jaspersoft
- Microsoft
- MongoDB (anciennement 10Gen)
- MU Sigma
- Netapp
- Solutions Opéra
- Oracle
- Pentaho
- Plateforme
- Qliktech
- Quantum
- Espace rackable
- Analyse de la révolution
- Salesforce
- SAP
- SAS Institut
- Sisense
- Software AG/Terre cuite
- Automatisation Soft10
- Splunk
- Sqrl
- Supermicro
- Tableau Logiciel
- Teradata
- Voir grand
- Systèmes de marquage des marées
- VMware (partie d'EMC)
Pré requis
- Doit avoir une connaissance de base des opérations commerciales et des systèmes de données en Telecom dans son domaine .
- Doit avoir une compréhension de base de SQL/Oracle ou des bases de données relationnelles
- Compréhension de base des statistiques (au niveau d'Excel)
35 heures
Nos clients témoignent (3)
All the examples used and the lecturing style was on point even for a begginer i was able to understand and the training was so patient and always willing to go extra mile when in need of assistance.
Mathipa Chepape - Vodacom
Formation - Big Data Business Intelligence for Telecom and Communication Service Providers
All the examples used and the lecturing style was on point even for a begginer i was able to understand and the training was so patient and always willing to go extra mile when in need of assistance.
Mathipa Chepape - Vodacom
Formation - Big Data Business Intelligence for Telecom and Communication Service Providers
Understanding big data beter