Les formations Hadoop

Les formations Hadoop

Apache Hadoop est un framework libre et open source inspiré de deux noyeaux de la gestion BigData de Google: GFS (Google File System) and MapReduce. C'est un framework complet destiné à stocker et traiter de grosses quantités de données. Hadoop est utilisé par la plupart des fournisseurs de service dont Yahoo, Facebook ou LinkedIn.

Plans de cours Hadoop

Nom du Cours
Durée
Aperçu
Nom du Cours
Durée
Aperçu
21 heures
Python est un langage de programmation scalable, flexible et largement utilisé pour la science des données et l'apprentissage automatique. Spark est un moteur de traitement de données utilisé dans la recherche, l'analyse et la transformation de données grandes, tandis que Hadoop est un cadre de bibliothèque logicielle pour le stockage et le traitement de données à grande échelle. Cette formation guidée par les instructeurs (online ou on-site) est destinée aux développeurs qui souhaitent utiliser et intégrer Spark, Hadoop, et Python pour traiter, analyser et transformer de grands et complexes ensembles de données. À la fin de cette formation, les participants seront en mesure de :
    Créez l’environnement nécessaire pour commencer à traiter les grandes données avec Spark, Hadoop, et Python. Comprendre les caractéristiques, les composants de base et l'architecture de Spark et Hadoop. Apprenez à intégrer Spark, Hadoop, et Python pour le traitement de données grandes. Explorez les outils dans l'écosystème Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka, et Flume). Construisez des systèmes de recommandations de filtration collaboratives similaires à Netflix, YouTube, Amazon, Spotify et Google. Utilisez Apache Mahout pour échanger les algorithmes d’apprentissage automatique.
Le format du cours
    Lecture et discussion interactives. Beaucoup d’exercices et de pratiques. La mise en œuvre dans un environnement de laboratoire en direct.
Options de personnalisation de cours
    Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser.
7 heures
Ce cours explique comment utiliser le SQL Hive SQL (AKA: Hive HQL, SQL sur Hive , Hive QL) pour les personnes qui extraient des données à partir de Hive
14 heures
Datameer est une plateforme de business intelligence et d'analyse basée sur Hadoop Il permet aux utilisateurs finaux d'accéder, d'explorer et de mettre en corrélation des données à grande échelle, structurées, semi-structurées et non structurées de manière simple Dans cette formation en ligne, les participants apprendront à utiliser Datameer pour surmonter la courbe d'apprentissage abrupte d'Hadoop à mesure qu'ils progressent dans la configuration et l'analyse d'une série de sources de données volumineuses À la fin de cette formation, les participants seront en mesure de: Créer, organiser et explorer de manière interactive un lac de données d'entreprise Accéder aux entrepôts de données de Business Intelligence, aux bases de données transactionnelles et aux autres magasins analytiques Utiliser une interface utilisateur de feuille de calcul pour concevoir des pipelines de traitement de données endtoend Accéder à des fonctions prédéfinies pour explorer des relations de données complexes Utilisez les assistants draganddrop pour visualiser les données et créer des tableaux de bord Utiliser des tableaux, des graphiques, des graphiques et des cartes pour analyser les résultats de la requête Public Analystes de données Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
7 heures
Alluxio est un système de stockage distribué virtuel à source ouverte qui unifie des systèmes de stockage différents et permet aux applications d’interagir avec les données à vitesse de mémoire. Il est utilisé par des entreprises telles que Intel, Baidu et Alibaba. Dans cette formation guidée par l'instructeur, les participants apprendront comment utiliser Alluxio pour broyer différents cadres de calcul avec les systèmes de stockage et gérer efficacement les données d'échelle multi-pétabytes au fur et à mesure qu'ils traversent la création d'une application avec Alluxio. À la fin de cette formation, les participants seront en mesure de :
    Développer une application avec Alluxio Connectez les systèmes de données et les applications tout en conservant un seul espace de nom Extrait efficace de la valeur des grandes données dans n'importe quel format de stockage Améliorer la performance du travail Déployer et gérer Alluxio indépendamment ou cluster
Audience
    scientifique des données Développeur Système administrateur
Format du cours
    Lecture partielle, discussion partielle, exercices et pratiques lourdes
35 heures
Public: Le cours est destiné aux informaticiens à la recherche d'une solution pour stocker et traiter de grands ensembles de données dans un environnement système distribué. Go al: Connaissance approfondie de l'administration de cluster Hadoop .
21 heures

Ce cours est destiné aux développeurs, architectes, scientifiques de données ou à tout profil nécessitant un accès intensif ou régulier aux données. Le cours est axé sur la manipulation et la transformation des données. Parmi les outils de l'écosystème Hadoop , ce cours comprend l'utilisation de Pig et Hive deux outils très utilisés pour la transformation et la manipulation de données. Cette formation aborde également les métriques de performance et l'optimisation de la performance. Le cours est entièrement pratique et est ponctué de présentations des aspects théoriques.
21 heures
L'analyse de données volumineuses implique l'examen de grandes quantités d'ensembles de données variés afin de découvrir des corrélations, des modèles cachés et d'autres informations utiles. L'industrie de la santé dispose de quantités massives de données médicales et cliniques hétérogènes complexes. L'application de l'analyse de données volumineuses sur les données de santé présente un potentiel énorme pour la compréhension de l'amélioration de la prestation des soins de santé. Cependant, l'énormité de ces ensembles de données pose de grands défis pour les analyses et les applications pratiques dans un environnement clinique. Au cours de cette formation en direct animée par un instructeur (à distance), les participants apprendront à effectuer des analyses de données volumineuses dans le domaine de la santé tout en effectuant une série d'exercices pratiques en laboratoire. À la fin de cette formation, les participants seront en mesure de:
  • Installer et configurer des outils d'analyse de données volumineuses tels que Hadoop MapReduce et Spark
  • Comprendre les caractéristiques des données médicales
  • Appliquer des techniques Big Data pour traiter des données médicales
  • Etudiez les systèmes de données volumineuses et les algorithmes dans le contexte d'applications de santé
Public
  • Développeurs
  • Data Scientists
Format du cours
  • Partie lecture, partie discussion, exercices et exercices intensifs.
Remarque
  • Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
21 heures
Le cours est destiné aux informaticiens à la recherche d'une solution pour stocker et traiter de grands ensembles de données dans un environnement système distribué. Objectif du cours: Hadoop administration du cluster Hadoop
21 heures
Apache Hadoop est le framework le plus répandu pour le traitement de Big Data sur des clusters de serveurs. Dans ce cours de trois (facultatif, quatre jours), les participants découvriront les avantages commerciaux et les cas d'utilisation de Hadoop et de son écosystème, comment planifier le déploiement et la croissance d'un cluster, comment installer, gérer, surveiller, dépanner et optimiser Hadoop . Ils s'exerceront également au chargement en bloc de données en grappe, se familiariseront avec les différentes distributions Hadoop et s'exerceront à installer et à gérer les outils écosystémiques Hadoop . Le cours se termine par une discussion sur la sécurisation d'un cluster avec Kerberos. “… Les matériaux étaient très bien préparés et couverts à fond. Le laboratoire était très serviable et bien organisé ”
- Andrew Nguyen, ingénieur principal en intégration, Microsoft Online Advertising Public Administrateurs Hadoop Format Cours magistraux et ateliers pratiques, bilan approximatif: 60% cours magistraux, 40% laboratoires.
21 heures
Apache Hadoop est le framework le plus populaire pour le traitement du Big Data Hadoop fournit une capacité analytique riche et profonde, et fait des percées dans le monde analytique BI traditionnel Ce cours présentera un analyste aux composants de base du système écologique Hadoop et à ses analyses Public Analystes d'affaires Durée trois jours Format Conférences et mains sur les laboratoires .
28 heures
Apache Hadoop est le framework le plus répandu pour le traitement de Big Data sur des clusters de serveurs. Ce cours présentera aux développeurs divers composants (HDFS, MapReduce, Pig, Hive et HBase) de l’écosystème Hadoop .
    21 heures
    Apache Hadoop est l’un des frameworks les plus populaires pour le traitement du Big Data sur des clusters de serveurs. Ce cours aborde la gestion des données dans HDFS, Pig, Hive et HBase. Ces techniques de programmation avancées seront utiles aux développeurs expérimentés Hadoop . Public : développeurs Durée: trois jours Format: cours magistraux (50%) et travaux pratiques (50%).
    21 heures
    Hadoop est le framework de traitement Big Data le plus populaire .
    14 heures
    Alors que de plus en plus de logiciels et de projets informatiques migrent du traitement local et de la gestion de données vers le traitement distribué et le stockage de données volumineuses, les chefs de projet constatent la nécessité de mettre à niveau leurs connaissances et leurs compétences pour appréhender les concepts et les pratiques relatifs aux projets et aux opportunités Big Data . Ce cours présente aux chefs de projet le framework de traitement de Big Data les plus populaires: Hadoop . Au cours de cette formation dispensée par un instructeur, les participants apprendront les composants essentiels de l'écosystème Hadoop et comment utiliser ces technologies pour résoudre des problèmes à grande échelle. En apprenant ces bases, les participants amélioreront également leur capacité à communiquer avec les développeurs et les développeurs de ces systèmes, ainsi qu'avec les scientifiques et les analystes de données impliqués dans de nombreux projets informatiques. Public
    • Chefs de projet souhaitant implémenter Hadoop dans leur infrastructure de développement ou informatique existante
    • Les gestionnaires de projet doivent communiquer avec des équipes interfonctionnelles comprenant des ingénieurs Big Data, des scientifiques de données et des analystes métier.
    Format du cours
    • Partie de conférence, partie de discussion, exercices et exercices intensifs
    28 heures
    Public: Ce cours a pour but de démystifier la technologie Big Data / Hadoop et de montrer qu’elle n’est pas difficile à comprendre.
    28 heures
    Hadoop est un cadre de traitement populaire Big Data Python est un langage de programmation de haut niveau célèbre pour sa syntaxe claire et sa lecture de code. Dans cette formation guidée par l'instructeur, les participants apprendront comment travailler avec Hadoop, MapReduce, Pig, et Spark en utilisant Python alors qu'ils passent par plusieurs exemples et utilisent des cas. À la fin de cette formation, les participants seront en mesure de :
      Comprendre les concepts de base derrière Hadoop, MapReduce, Pig, et Spark Utiliser Python avec Hadoop Système de fichiers distribués (HDFS), MapReduce, Pig et Spark Utilisez Snakebite pour accéder programmatiquement à HDFS dans Python Utilisez mrjob pour écrire MapReduce emplois dans Python Écrire des programmes Spark avec Python Élargissez la fonctionnalité du porc en utilisant Python UDFs Gérer MapReduce des emplois et des scripts de porc en utilisant Luigi
    Audience
      Développeurs Les professionnels
    Format du cours
      Lecture partielle, discussion partielle, exercices et pratiques lourdes
    35 heures
    Apache Hadoop est un cadre de traitement de données populaire pour le traitement de grands ensembles de données sur de nombreux ordinateurs. Cette formation guidée par les instructeurs, en direct (online ou sur site) est destinée aux administrateurs de systèmes qui souhaitent apprendre à configurer, déployer et gérer Hadoop des clusters dans leur organisation. À la fin de cette formation, les participants seront en mesure de :
      Installer et configurer Apache Hadoop. Comprendre les quatre principaux composants de l'écosystème Hadoop : HDFS, MapReduce, YARN et Hadoop Common. Utilisez Hadoop Système de fichiers distribué (HDFS) pour échanger un cluster à des centaines ou des milliers de nœuds.   ; Configurez HDFS pour fonctionner en tant que moteur de stockage pour les déploiements Spark en prévision. Configurez Spark pour accéder à des solutions de stockage alternatives telles que les systèmes de base de données Amazon S3 et NoSQL telles que Redis, Elasticsearch, Couchbase, Aerospike, etc. Exécuter des tâches administratives telles que la fourniture, la gestion, le suivi et la sécurité d'un cluster Apache.
    Le format du cours
      Lecture et discussion interactives. Beaucoup d’exercices et de pratiques. La mise en œuvre dans un environnement de laboratoire en direct.
    Options de personnalisation de cours
      Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser.
    21 heures
    Ce cours présente HBase - un magasin No SQL au-dessus de Hadoop . Le cours est destiné aux développeurs qui utiliseront HBase pour développer des applications et aux administrateurs qui géreront les clusters HBase. Nous guiderons un développeur à travers l'architecture HBase, la modélisation de données et le développement d'applications sur HBase. Il discutera également de l’utilisation de MapReduce avec HBase et de quelques sujets d’administration liés à l’optimisation des performances. Le cours est très pratique avec de nombreux exercices de laboratoire.
    Durée : 3 jours Audience : Développeurs et Administrateurs
    14 heures
    audience
    • développeurs
    format du cours
    • conférences, pratique pratiques, petits tests le long du chemin pour évaluer la compréhension
    21 heures
    Apache NiFi (Hortonworks DataFlow) est une plate-forme simple de logistique des données et de traitement des événements intégrée permettant le déplacement, le suivi et l'automatisation des données entre systèmes. Il est écrit en utilisant la programmation basée sur les flux et fournit une interface utilisateur basée sur le Web pour gérer les flux de données en temps réel. Au cours de cette formation en direct animée par un instructeur (sur site ou à distance), les participants apprendront à déployer et à gérer Apache NiFi dans un environnement de laboratoire réel. À la fin de cette formation, les participants seront en mesure de:
    • Installez et configurez Apachi NiFi.
    • Créez, transformez et gérez des données à partir de sources de données disparates et distribuées, y compris des bases de données et des grands lacs de données.
    • Automatiser les flux de données.
    • Activer l'analyse en streaming.
    • Appliquez diverses approches pour l’ingestion de données.
    • Transformez le Big Data en un aperçu des affaires.
    Format du cours
    • Conférence interactive et discussion.
    • Beaucoup d'exercices et de pratique.
    • Mise en œuvre pratique dans un environnement de laboratoire réel.
    Options de personnalisation du cours
    • Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
    7 heures
    Apache NiFi (Hortonworks DataFlow) est une plate-forme simple de logistique des données et de traitement des événements intégrée permettant le déplacement, le suivi et l'automatisation des données entre systèmes. Il est écrit en utilisant la programmation basée sur les flux et fournit une interface utilisateur basée sur le Web pour gérer les flux de données en temps réel. Lors de cette formation en direct animée par un instructeur, les participants apprendront les bases de la programmation basée sur les flux tout en développant un certain nombre d'extensions, de composants et de processeurs de démonstration utilisant Apache NiFi . À la fin de cette formation, les participants seront en mesure de:
    • Comprendre l'architecture et les concepts de flux de données de NiFi.
    • Développez des extensions à l'aide d'API NiFi et tierces.
    • Personnaliser développer leur propre processeur Apache Nifi.
    • Acquérir et traiter des données en temps réel à partir de formats de fichiers et de sources de données disparates et peu communes.
    Format du cours
    • Conférence interactive et discussion.
    • Beaucoup d'exercices et de pratique.
    • Mise en œuvre pratique dans un environnement de laboratoire réel.
    Options de personnalisation du cours
    • Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
    14 heures
    Apache Samza est un framework de calcul asynchrone open source quasi-temps réel pour le traitement de flux. Il utilise Apache Kafka pour la messagerie et Apache Hadoop YARN pour la tolérance aux pannes, l'isolation du processeur, la sécurité et la gestion des ressources. Cette formation en direct, animée par un instructeur, présente les principes sous-jacents aux systèmes de messagerie et au traitement de flux distribué, tout en guidant les participants dans la création d'un exemple de projet et d'exécution de travaux basé sur Samza. À la fin de cette formation, les participants seront en mesure de:
    • Utilisez Samza pour simplifier le code nécessaire à la production et à la consommation de messages.
    • Découpler le traitement des messages d'une application.
    • Utilisez Samza pour implémenter un calcul asynchrone en temps quasi réel.
    • Utilisez le traitement de flux pour fournir un niveau d'abstraction plus élevé sur les systèmes de messagerie.
    Public
    • Développeurs
    Format du cours
    • Partie de conférence, partie de discussion, exercices et exercices intensifs
    14 heures
    Sqoop est un outil logiciel open source permettant de transférer des données entre Hadoop et des bases de données relationnelles ou des mainframes. Il peut être utilisé pour importer des données à partir d'un système de gestion de base de données relationnelle (SGBDR) tel que My SQL ou Oracle ou d'un ordinateur central dans le système de fichiers distribués Hadoop (HDFS). Ensuite, les données peuvent être transformées dans Hadoop MapReduce, puis réexportées dans un SGBDR. Au cours de cette formation en direct animée par un instructeur, les participants apprendront à utiliser Sqoop pour importer des données d'une base de données relationnelle traditionnelle vers un stockage Hadoop tel que HDFS ou Hive et inversement. À la fin de cette formation, les participants seront en mesure de:
    • Installer et configurer Sqoop
    • Importer des données de My SQL vers HDFS et Hive
    • Importer des données depuis HDFS et Hive vers My SQL
    Public
    • Administrateurs système
    • Ingénieurs de données
    Format du cours
    • Partie de conférence, partie de discussion, exercices et exercices intensifs
    Remarque
    • Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
    14 heures
    Tigon est un framework de traitement de flux opensource, temps réel, lowlatency, highthroughput, native natif, qui se trouve au-dessus de HDFS et de HBase pour la persistance Les applications Tigon traitent des cas d'utilisation tels que la détection et l'analyse des intrusions sur le réseau, l'analyse des marchés des médias sociaux, l'analyse de l'emplacement et les recommandations en temps réel aux utilisateurs Cette formation en ligne, introduite par un instructeur, présente l'approche de Tigon qui consiste à mélanger le traitement en temps réel et le traitement par lots tout en guidant les participants à travers la création d'un exemple d'application À la fin de cette formation, les participants seront en mesure de: Créez de puissantes applications de traitement de flux pour gérer de gros volumes de données Traiter des sources de flux telles que Twitter et Webserver Logs Utilisez Tigon pour joindre, filtrer et agréger rapidement des flux Public Développeurs Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
    21 heures
    Cloudera Impala est un moteur de requête open source à traitement massivement parallèle (MPP) SQL pour les clusters Apache Hadoop. Impala permet aux utilisateurs d'effectuer des requêtes à faible latence SQL sur des données stockées dans Hadoop Distributed File System et Apache Hbase sans nécessiter de déplacement ou de transformation des données. Audience Ce cours s'adresse aux analystes et data scientists effectuant des analyses sur des données stockées dans Hadoop via des outils de Business Intelligence ou SQL. À l'issue de cette formation, les participants seront en mesure de
      Extraire des informations significatives des clusters Hadoop avec Impala. Écrire des programmes spécifiques pour faciliter l'intelligence économique dans le dialecte Impala SQL. Dépanner Impala.
    21 heures
    Apache Ambari est une plate-forme de gestion open source pour le provisionnement, la gestion, la surveillance et la sécurisation des clusters Apache Hadoop . Dans cette formation en direct animée par un instructeur, les participants apprendront les outils et pratiques de gestion fournis par Ambari pour gérer avec succès les clusters Hadoop . À la fin de cette formation, les participants seront en mesure de:
    • Configurer un cluster Big Data en direct avec Ambari
    • Appliquer les fonctionnalités avancées d'Ambari à divers cas d'utilisation
    • Ajoutez et supprimez des nœuds de manière transparente, au besoin
    • Améliorez les performances d'un cluster Hadoop le biais de réglages et d'ajustements
    Public
    • DevOps
    • Administrateurs système
    • DBA
    • Professionnels de test Hadoop
    Format du cours
    • Partie de conférence, partie de discussion, exercices et exercices intensifs
    21 heures
    Hortonworks Data Platform (HDP) est une plateforme de support Apache Hadoop source ouverte qui fournit une base stable pour le développement de solutions Big Data sur l’écosystème Apache Hadoop . Cette formation en direct animée par un instructeur (sur site ou à distance) présente Hortonworks Data Platform (HDP) et guide les participants dans le déploiement de la solution Spark + Hadoop . À la fin de cette formation, les participants seront en mesure de:
    • Utilisez Hortonworks pour exécuter Hadoop de manière fiable à grande échelle.
    • Unifiez les capacités de sécurité, de gouvernance et d'exploitation de Hadoop avec les workflows d'analyse agiles de Spark.
    • Utilisez Hortonworks pour étudier, valider, certifier et soutenir chacun des composants d’un projet Spark.
    • Traitez différents types de données, y compris les données structurées, non structurées, en mouvement et au repos.
    Format du cours
    • Conférence interactive et discussion.
    • Beaucoup d'exercices et de pratique.
    • Mise en œuvre pratique dans un environnement de laboratoire réel.
    Options de personnalisation du cours
    • Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.

    Dernière mise à jour :

    Weekend Hadoop cours, Soir Apache Hadoop formation, Hadoop stage d’entraînement, Hadoop formateur à distance, Apache Hadoop formateur en ligne, Apache Hadoop formateur Online, Hadoop cours en ligne, Apache Hadoop cours à distance, Hadoop professeur à distance, Apache Hadoop visioconférence, Hadoop stage d’entraînement intensif, Hadoop formation accélérée, Hadoop formation intensive, Formation inter Hadoop, Formation intra Hadoop, Formation intra Enteprise Apache Hadoop, Formation inter Entreprise Hadoop, Weekend Apache Hadoop formation, Soir Apache Hadoop cours, Hadoop coaching, Hadoop entraînement, Apache Hadoop préparation, Apache Hadoop instructeur, Hadoop professeur, Hadoop formateur, Hadoop stage de formation, Apache Hadoop cours, Hadoop sur place, Hadoop formations privées, Hadoop formation privée, Hadoop cours particulier, Apache Hadoop cours particuliers

    Réduction spéciale

    No course discounts for now.

    Newsletter offres spéciales

    Nous respectons le caractère privé de votre adresse mail. Nous ne divulguerons ni ne vendrons votre adresse email à quiconque
    Vous pouvez toujours modifier vos préférences ou vous désinscrire complètement.

    Nos clients

    is growing fast!

    We are looking for a good mixture of IT and soft skills in Belgium!

    As a NobleProg Trainer you will be responsible for:

    • delivering training and consultancy Worldwide
    • preparing training materials
    • creating new courses outlines
    • delivering consultancy
    • quality management

    At the moment we are focusing on the following areas:

    • Statistic, Forecasting, Big Data Analysis, Data Mining, Evolution Alogrithm, Natural Language Processing, Machine Learning (recommender system, neural networks .etc...)
    • SOA, BPM, BPMN
    • Hibernate/Spring, Scala, Spark, jBPM, Drools
    • R, Python
    • Mobile Development (iOS, Android)
    • LAMP, Drupal, Mediawiki, Symfony, MEAN, jQuery
    • You need to have patience and ability to explain to non-technical people

    To apply, please create your trainer-profile by going to the link below:

    Apply now!

    Ce site dans d'autres pays/régions