Les formations Big Data

Les formations Big Data

Le terme BigData vise l'ensemble des solutions liées au stockage et au traitement d'un ensemble considérable de données. Les solutions BigData ont été initialement développées par Google, cependant, désormais, beaucoup d'implémentations open-source sont disponibles, dont Apache Hadoop, Cassandra ou Cloudera Impala. Selon des rapports de Gartner, BigData est la prochaine étape au niveau des technologies de l'information, aprés le Cloud Computing et sera la nouvelle tendance pour les prochaine années.

Nos Clients témoignent

★★★★★
★★★★★

Plans de cours Big Data

Title
Duration
Overview
Title
Duration
Overview
14 hours
Overview
Objectif:

Apprendre à travailler avec SPSS au niveau de l'indépendance

Les destinataires:

Les analystes, les chercheurs, les scientifiques, les étudiants et tous ceux qui souhaitent acquérir la capacité d’utiliser le progiciel SPSS et d’apprendre les techniques d’exploration de données les plus courantes.
14 hours
Overview
Apache SolrCloud est un moteur de traitement de données distribué qui facilite la recherche et l'indexation de fichiers sur un réseau distribué Dans cette formation en ligne, les participants apprendront comment configurer une instance SolrCloud sur Amazon AWS À la fin de cette formation, les participants seront en mesure de: Comprendre les fonctionnalités de SolCloud et comment elles se comparent à celles des clusters masterslave conventionnels Configurer un cluster centralisé SolCloud Automatisez les processus tels que la communication avec les partitions, l'ajout de documents aux partitions, etc Utilisez Zookeeper conjointement avec SolrCloud pour automatiser davantage les processus Utiliser l'interface pour gérer les rapports d'erreurs Équilibrer la charge d'une installation SolrCloud Configurer SolrCloud pour un traitement continu et un basculement Public Développeurs Solr Chefs de projet Administrateurs système Analystes de recherche Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
28 hours
Overview
MemSQL est un système de gestion de bases de données SQL distribué, inmémoire, pour le cloud et les applications C'est un entrepôt de données en temps réel qui fournit immédiatement des informations à partir de données en direct et historiques Dans cette formation en ligne, les participants apprendront l'essentiel de MemSQL pour le développement et l'administration À la fin de cette formation, les participants seront en mesure de: Comprendre les concepts clés et les caractéristiques de MemSQL Installer, concevoir, maintenir et utiliser MemSQL Optimiser les schémas dans MemSQL Améliorer les requêtes dans MemSQL Performances de référence dans MemSQL Construire des applications de données en temps réel en utilisant MemSQL Public Développeurs Administrateurs Ingénieurs d'opération Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
28 hours
Overview
Hadoop est un framework de traitement Big Data populaire Python est un langage de programmation de haut niveau connu pour sa syntaxe claire et sa lisibilité Dans cette formation en ligne, les participants apprendront à travailler avec Hadoop, MapReduce, Pig et Spark à l'aide de Python, tout en parcourant plusieurs exemples et cas d'utilisation À la fin de cette formation, les participants seront en mesure de: Comprendre les concepts de base de Hadoop, MapReduce, Pig et Spark Utilisez Python avec le système de fichiers distribués Hadoop (HDFS), MapReduce, Pig et Spark Utiliser Snakebite pour accéder par programme à HDFS dans Python Utilisez mrjob pour écrire des jobs MapReduce dans Python Écrire des programmes Spark avec Python Étendre les fonctionnalités de pig en utilisant les UDF Python Gérer les jobs MapReduce et les scripts Pig en utilisant Luigi Public Développeurs Professionnels de l'informatique Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
21 hours
Overview
Python est un langage de programmation de haut niveau connu pour sa syntaxe claire et sa lisibilité Spark est un moteur de traitement de données utilisé dans l'interrogation, l'analyse et la transformation de Big Data PySpark permet aux utilisateurs d'interfacer Spark avec Python Dans cette formation en ligne, les participants apprendront à utiliser Python et Spark ensemble pour analyser les données volumineuses lorsqu'ils travaillent sur des exercices handson À la fin de cette formation, les participants seront en mesure de: Apprenez à utiliser Spark avec Python pour analyser les données volumineuses Travailler sur des exercices qui imitent les circonstances du monde réel Utilisez différents outils et techniques pour l'analyse de données volumineuses à l'aide de PySpark Public Développeurs Professionnels de l'informatique Data Scientists Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
35 hours
Overview
Les progrès technologiques et la quantité croissante d'informations transforment la façon dont les organismes d'application de la loi sont menés Les défis que pose le Big Data sont presque aussi décourageants que la promesse de Big Data Stocker des données efficacement est l'un de ces défis; l'analyser efficacement en est une autre Dans cette formation en ligne, les participants apprendront la manière d'aborder les technologies Big Data, évalueront leur impact sur les processus et politiques existants et mettront en œuvre ces technologies dans le but d'identifier les activités criminelles et de prévenir le crime Des études de cas provenant d'organismes d'application de la loi du monde entier seront examinées afin de mieux comprendre leurs approches, défis et résultats en matière d'adoption À la fin de cette formation, les participants seront en mesure de: Combinez la technologie Big Data avec des processus de collecte de données traditionnels pour reconstituer une histoire au cours d'une enquête Mettre en œuvre des solutions industrielles de stockage et de traitement de Big Data pour l'analyse de données Préparer une proposition pour l'adoption des outils et des processus les plus adéquats pour permettre une approche de l'enquête criminelle axée sur les données Public Spécialistes de l'application de la loi avec un bagage technique Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
14 hours
Overview
Pour répondre à la conformité des régulateurs, les fournisseurs de services de communication (CSP) peuvent exploiter Big Data Analytics qui non seulement les aide à respecter la conformité, mais dans le cadre de la même projet, ils peuvent augmenter la satisfaction du client et ainsi réduire le taux de désabonnement En fait depuis la conformité est liée à la qualité de service liée à un contrat, toute initiative visant à conformité, améliorera «l'avantage concurrentiel» des DSP Par conséquent, il est important que Les régulateurs devraient être en mesure de conseiller / orienter un ensemble de pratiques analytiques Big Data pour les CSP qui seront être mutuellement bénéfique entre les régulateurs et les DSP 2 jours de cours: 8 modules, 2 heures chacun = 16 heures .
28 hours
Overview
Un grand nombre de problèmes du monde réel peuvent être décrits en termes de graphiques Par exemple, le graphique Web, le graphique du réseau social, le graphique du réseau ferroviaire et le graphique du langage Ces graphiques ont tendance à être extrêmement volumineux; Leur traitement nécessite un ensemble spécialisé d'outils et de processus Ces outils et processus peuvent être appelés Graph Computing (également appelé Graph Analytics) Dans cette formation en ligne, les participants apprendront sur les offres technologiques et les approches de mise en œuvre pour le traitement des données graphiques L'objectif est d'identifier les objets du monde réel, leurs caractéristiques et relations, puis de modéliser ces relations et de les traiter comme des données en utilisant une approche de calcul graphique Nous commençons par un large aperçu et nous nous concentrons sur des outils spécifiques au fur et à mesure que nous progressons dans une série d'études de cas, d'exercices pratiques et de déploiements en direct À la fin de cette formation, les participants seront en mesure de: Comprendre comment les données graphiques sont persistantes et traversées Sélectionnez le meilleur framework pour une tâche donnée (des bases de données graphiques aux frameworks de traitement par lots) Implémenter Hadoop, Spark, GraphX ​​et Pregel pour effectuer le calcul graphique sur plusieurs machines en parallèle Voir les problèmes de big data de realworld en termes de graphiques, de processus et de traversées Public Développeurs Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
21 hours
Overview
L'analyse prédictive est le processus d'utilisation de l'analyse de données pour faire des prédictions sur le futur Ce processus utilise des données ainsi que des techniques d'exploration de données, de statistiques et d'apprentissage automatique pour créer un modèle prédictif de prévision d'événements futurs Dans cette formation en ligne, les participants apprendront à utiliser Matlab pour créer des modèles prédictifs et les appliquer à de grands ensembles de données pour prédire les événements futurs en fonction des données À la fin de cette formation, les participants seront en mesure de: Créer des modèles prédictifs pour analyser les modèles dans les données historiques et transactionnelles Utiliser la modélisation prédictive pour identifier les risques et les opportunités Construire des modèles mathématiques qui capturent les tendances importantes Utiliser les données des appareils et des systèmes d'entreprise pour réduire le gaspillage, gagner du temps ou réduire les coûts Public Développeurs Ingénieurs Les experts du domaine Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
7 hours
Overview
Apache NiFi (Hortonworks DataFlow) est une plate-forme de traitement des données intégrée en temps réel et simple qui permet le déplacement, le suivi et l’automatisation des données entre les systèmes. Il est écrit en utilisant la programmation basée sur le flux et fournit une interface utilisateur basée sur le Web pour gérer les flux de données en temps réel.

dans cette formation en direct, dirigée par un instructeur, les participants apprendront les principes fondamentaux de la programmation basée sur les flux, car ils développent un certain nombre d’extensions de démo, de composants et de processeurs à l’aide d’Apache NiFi.

à la fin de cette formation, les participants pourront:

- comprendre les concepts d’architecture et de flux de données de NiFi & #39; s.
- développez des extensions à l’aide de NiFi et d’API tierces.
- Custom développent leur propre processeur Apache Nifi.
- ingest et traitez des données en temps réel à partir de formats de fichiers et de sources de données disparates et rares.

format du cours

- conférence interactive et discussion.
- beaucoup d’exercices et de la pratique.
implémentation de - Hands-on dans un environnement Live-Lab.

cours options de personnalisation

- pour demander une formation personnalisée pour ce cours, s’il vous plaît nous contacter pour organiser.
21 hours
Overview
Apache NiFi (Hortonworks DataFlow) est une plate-forme de traitement de données et de logistique de données intégrée en temps réel qui permet le déplacement, le suivi et l'automatisation des données entre les systèmes Il est écrit en utilisant la programmation basée sur les flux et fournit une interface utilisateur basée sur le Web pour gérer les flux de données en temps réel Dans cette formation en ligne, les participants apprendront comment déployer et gérer Apache NiFi dans un environnement de laboratoire en direct À la fin de cette formation, les participants seront en mesure de: Installez et configurez Apachi NiFi Source, transformer et gérer les données à partir de sources de données dispersées et disparates, y compris des bases de données et des lacs de données volumineuses Automatiser les flux de données Activer l'analyse en continu Appliquer différentes approches pour l'ingestion de données Transformez les Big Data et les informations sur les entreprises Public Administrateurs système Les ingénieurs de données Développeurs DevOps Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
28 hours
Overview
La modélisation du coffre-fort de données est une technique de modélisation de base de données qui fournit un stockage historique à long terme des données provenant de plusieurs sources Un coffre de données stocke une seule version des faits, ou "toutes les données, tout le temps" Sa conception flexible, évolutive, cohérente et adaptable englobe les meilleurs aspects de la 3ème forme normale (3NF) et du schéma en étoile Dans cette formation en ligne, les participants apprendront comment créer un coffre-fort de données À la fin de cette formation, les participants seront en mesure de: Comprendre les concepts d'architecture et de conception derrière Data Vault 20, et son interaction avec Big Data, NoSQL et AI Utiliser des techniques de stockage de données pour activer l'audit, le suivi et l'inspection des données historiques dans un entrepôt de données Développer un processus ETL (Extract, Transform, Load) cohérent et reproductible Construire et déployer des entrepôts hautement évolutifs et reproductibles Public Modélisateurs de données Spécialiste de l'entreposage de données Spécialistes de la Business Intelligence Les ingénieurs de données Administrateurs de base de données Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
21 hours
Overview
Apache Drill est un moteur de requête SQL en colonnes, distribué et inmémoire pour Hadoop, NoSQL et d'autres systèmes de stockage de nuages ​​et de fichiers La puissance d'Apache Drill réside dans sa capacité à joindre des données provenant de plusieurs banques de données en utilisant une seule requête Apache Drill prend en charge de nombreuses bases de données et systèmes de fichiers NoSQL, notamment HBase, MongoDB, MapRDB, HDFS, MapRFS, Amazon S3, Azure Blob Storage, Google Cloud Storage, Swift, NAS et les fichiers locaux Apache Drill est la version open source du système Dremel de Google, disponible en tant que service d'infrastructure appelé Google BigQuery Dans cette formation en ligne, les participants apprendront les principes de base d'Apache Drill, puis tireront parti de la puissance et de la commodité de SQL pour interroger interactivement les grandes données sur plusieurs sources de données, sans écrire de code Les participants apprendront également comment optimiser leurs requêtes Drill pour l'exécution SQL distribuée À la fin de cette formation, les participants seront en mesure de: Effectuer une exploration "selfservice" sur des données structurées et semi-structurées sur Hadoop Interrogation de données connues et inconnues à l'aide de requêtes SQL Comprendre comment Apache Drills reçoit et exécute des requêtes Écrivez des requêtes SQL pour analyser différents types de données, y compris des données structurées dans Hive, des données semi-structurées dans des tables HBase ou MapRDB, et des données enregistrées dans des fichiers tels que Parquet et JSON Utilisez Apache Drill pour effectuer la découverte de schéma onthefly, en évitant le besoin d'opérations ETL et de schémas complexes Intégrez Apache Drill à des outils BI (Business Intelligence) tels que Tableau, Qlikview, MicroStrategy et Excel Public Analystes de données Les scientifiques de données Programmeurs SQL Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
14 hours
Overview
Datameer est une plateforme de business intelligence et d'analyse basée sur Hadoop Il permet aux utilisateurs finaux d'accéder, d'explorer et de mettre en corrélation des données à grande échelle, structurées, semi-structurées et non structurées de manière simple Dans cette formation en ligne, les participants apprendront à utiliser Datameer pour surmonter la courbe d'apprentissage abrupte d'Hadoop à mesure qu'ils progressent dans la configuration et l'analyse d'une série de sources de données volumineuses À la fin de cette formation, les participants seront en mesure de: Créer, organiser et explorer de manière interactive un lac de données d'entreprise Accéder aux entrepôts de données de Business Intelligence, aux bases de données transactionnelles et aux autres magasins analytiques Utiliser une interface utilisateur de feuille de calcul pour concevoir des pipelines de traitement de données endtoend Accéder à des fonctions prédéfinies pour explorer des relations de données complexes Utilisez les assistants draganddrop pour visualiser les données et créer des tableaux de bord Utiliser des tableaux, des graphiques, des graphiques et des cartes pour analyser les résultats de la requête Public Analystes de données Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
14 hours
Overview
Tigon est un framework de traitement de flux opensource, temps réel, lowlatency, highthroughput, native natif, qui se trouve au-dessus de HDFS et de HBase pour la persistance Les applications Tigon traitent des cas d'utilisation tels que la détection et l'analyse des intrusions sur le réseau, l'analyse des marchés des médias sociaux, l'analyse de l'emplacement et les recommandations en temps réel aux utilisateurs Cette formation en ligne, introduite par un instructeur, présente l'approche de Tigon qui consiste à mélanger le traitement en temps réel et le traitement par lots tout en guidant les participants à travers la création d'un exemple d'application À la fin de cette formation, les participants seront en mesure de: Créez de puissantes applications de traitement de flux pour gérer de gros volumes de données Traiter des sources de flux telles que Twitter et Webserver Logs Utilisez Tigon pour joindre, filtrer et agréger rapidement des flux Public Développeurs Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
14 hours
Overview
Apache Ignite est une plate-forme informatique en mémoire qui se trouve entre l’application et la couche de données pour améliorer la vitesse, l’échelle et la disponibilité.

dans cette formation en direct, dirigée par un instructeur, les participants apprendront les principes derrière le stockage en mémoire persistant et pur à mesure qu’ils traversent la création d’un exemple de projet de calcul en mémoire.

à la fin de cette formation, les participants pourront:

- Utilisez Ignite pour la persistance en mémoire, sur le disque ainsi qu’une base de données en mémoire purement distribuée.
- atteindre la persistance sans synchroniser les données à une base de données relationnelle.
- Utilisez Ignite pour exécuter SQL et les jointures distribuées.
- améliorer les performances en déplaçant les données plus près de la CPU, en utilisant la RAM comme un stockage.
- Spread définit des ensembles de données sur un cluster pour obtenir une évolutivité horizontale.
- intégrez Ignite avec les processeurs RDBMS, NoSQL, Hadoop et machine learning.

format du cours

- conférence interactive et discussion.
- beaucoup d’exercices et de la pratique.
implémentation de - Hands-on dans un environnement Live-Lab.

cours options de personnalisation

- pour demander une formation personnalisée pour ce cours, s’il vous plaît nous contacter pour organiser.
14 hours
Overview
Vespa est un moteur de traitement de données et de traitement de données opensource créé par Yahoo Il est utilisé pour répondre aux requêtes des utilisateurs, faire des recommandations et fournir un contenu personnalisé et des publicités en temps réel Cette formation en ligne, instruite, introduit les défis de la diffusion de données à grande échelle et guide les participants à travers la création d'une application capable de calculer les réponses aux demandes des utilisateurs, sur de grands ensembles de données en temps réel À la fin de cette formation, les participants seront en mesure de: Utilisez Vespa pour calculer rapidement les données (stocker, rechercher, classer, organiser) au moment du service pendant qu'un utilisateur attend Implémenter Vespa dans des applications existantes impliquant la recherche de fonctionnalités, les recommandations et la personnalisation Intégrez et déployez Vespa avec les systèmes Big Data existants tels que Hadoop et Storm Public Développeurs Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
21 hours
Overview
Apache Apex est une plate-forme YARNnative qui unifie le traitement des flux et des lots Il traite les données importantes de manière évolutive, performante, tolérante, dynamique, distribuée et facilement exploitable Cette formation en ligne, en mode instructeur, présente l'architecture de traitement de flux unifié d'Apache Apex et guide les participants à travers la création d'une application distribuée utilisant Apex sur Hadoop À la fin de cette formation, les participants seront en mesure de: Comprendre les concepts de pipeline de traitement de données tels que les connecteurs pour les sources et les puits, les transformations de données communes, etc Construire, dimensionner et optimiser une application Apex Traiter les flux de données en temps réel de manière fiable et avec une latence minimale Utilisez Apex Core et la bibliothèque Apex Malhar pour accélérer le développement d'applications Utiliser l'API Apex pour écrire et réutiliser le code Java existant Intégrer Apex dans d'autres applications en tant que moteur de traitement Régler, tester et mettre à l'échelle les applications Apex Public Développeurs Architectes d'entreprise Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
7 hours
Overview
Alexio est un système de stockage distribué virtuel opensource qui unifie les systèmes de stockage disparates et permet aux applications d'interagir avec les données à la vitesse de la mémoire Il est utilisé par des sociétés telles que Intel, Baidu et Alibaba Dans cette formation en ligne, les participants apprendront à utiliser Alexio pour rapprocher différents cadres de calcul avec des systèmes de stockage et gérer efficacement des données à l'échelle de plusieurs octets au fur et à mesure de la création d'une application avec Alluxio À la fin de cette formation, les participants seront en mesure de: Développer une application avec Alluxio Connectez des systèmes et applications Big Data tout en préservant un espace de nom Extraction efficace de la valeur de Big Data dans n'importe quel format de stockage Améliorer les performances de la charge de travail Déployer et gérer Alluxio autonome ou en cluster Public Data scientist Développeur Administrateur du système Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
28 hours
Overview
Apache Flink est un Framework Open-source pour le traitement évolutif des flux et des données par lots.

cette formation en direct, dirigée par un instructeur, introduit les principes et les approches derrière le traitement distribué des flux et des données par lots, et promène les participants par la création d’une application de streaming de données en temps réel dans Apache Flink.

à la fin de cette formation, les participants pourront:

- mettre en place un environnement pour développer des applications d’analyse de données.
- package, exécutez et surveillez les applications de streaming de données basées sur Flink, tolérantes aux pannes.
- gérer diverses charges de charge.
- effectuer des analyses avancées à l’aide de Flink ML.
- configurer un cluster Flink à plusieurs nœuds.
- Mesurez et optimisez les performances.
- intégrez Flink avec différents systèmes Big Data.
- Comparez les fonctionnalités Flink avec celles d’autres frameworks de traitement de Big Data.

format du cours

- partie conférence, partie de discussion, des exercices et des pratiques lourdes pratique
14 hours
Overview
Apache Samza est une architecture computationnelle asynchrone, nearrealtime, opensource pour le traitement de flux Il utilise Apache Kafka pour la messagerie et Apache Hadoop YARN pour la tolérance aux pannes, l'isolation du processeur, la sécurité et la gestion des ressources Cette formation en direct instruite introduit les principes qui sous-tendent les systèmes de messagerie et le traitement des flux distribués, tout en guidant les participants à travers la création d'un exemple de projet Samzabased et d'exécution de tâches À la fin de cette formation, les participants seront en mesure de: Utilisez Samza pour simplifier le code nécessaire pour produire et consommer des messages Découpler la gestion des messages d'une application Utilisez Samza pour implémenter le calcul asynchrone nearrealtime Utilisez le traitement de flux pour fournir un plus haut niveau d'abstraction sur les systèmes de messagerie Public Développeurs Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
14 hours
Overview
Apache Zeppelin est un bloc-notes basé sur le Web pour la capture, l'exploration, la visualisation et le partage de données basées sur Hadoop et Spark Cette formation en ligne, introduite en classe, présente les concepts de l'analyse interactive des données et guide les participants à travers le déploiement et l'utilisation de Zeppelin dans un environnement à utilisateur unique ou multi-utilisateur À la fin de cette formation, les participants seront en mesure de: Installer et configurer Zeppelin Développer, organiser, exécuter et partager des données dans une interface basée sur un navigateur Visualisez les résultats sans faire référence à la ligne de commande ou aux détails du cluster Exécuter et collaborer sur de longs workflows Travailler avec un certain nombre de plugin language / dataprocessingbackends, tels que Scala (avec Apache Spark), Python (avec Apache Spark), SQL Spark, JDBC, Markdown et Shell Intégrez Zeppelin avec Spark, Flink et Map Reduce Instances multi-utilisateurs sécurisées de Zeppelin avec Apache Shiro Public Les ingénieurs de données Analystes de données Les scientifiques de données Les développeurs de logiciels Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
28 hours
Overview
MonetDB est une base de données opensource qui a été le pionnier de l'approche technologique columnstore Dans cette formation en ligne, les participants apprendront à utiliser MonetDB et à en tirer le meilleur parti À la fin de cette formation, les participants seront en mesure de: Comprendre MonetDB et ses fonctionnalités Installez et commencez avec MonetDB Explorer et exécuter différentes fonctions et tâches dans MonetDB Accélérer la livraison de leur projet en maximisant les capacités de MonetDB Public Développeurs Experts techniques Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
14 hours
Overview
AI est une collection de technologies pour construire des systèmes intelligents capables de comprendre les données et les activités entourant les données pour prendre des «décisions intelligentes» Pour les fournisseurs de télécommunications, le développement d'applications et de services utilisant l'IA pourrait ouvrir la voie à une amélioration des opérations et de l'entretien dans des domaines tels que la maintenance et l'optimisation du réseau Dans ce cours, nous examinons les différentes technologies qui composent l'IA et les compétences requises pour les utiliser Tout au long du cours, nous examinons les applications spécifiques d'AI dans l'industrie des télécommunications Public Ingénieurs réseau Personnel des opérations du réseau Directeurs techniques télécom Format du cours Partie conférence, discussion partielle, exercices pratiques .
21 hours
Overview
Hortonworks Data Platform est une plate-forme de support Apache Hadoop opensource qui fournit une base stable pour le développement de solutions Big Data sur l'écosystème Apache Hadoop Cette formation en direct instruit présente Hortonworks et les participants à la marche à travers le déploiement de la solution Spark + Hadoop À la fin de cette formation, les participants seront en mesure de: Utilisez Hortonworks pour exécuter Hadoop de manière fiable à grande échelle Unifiez les capacités de sécurité, de gouvernance et d'opérations de Hadoop grâce aux flux de travail analytiques agiles de Spark Utiliser Hortonworks pour étudier, valider, certifier et supporter chacun des composants d'un projet Spark Traitez différents types de données, notamment les données structurées, non structurées, inmotion et atrest Public Les administrateurs Hadoop Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
14 hours
Overview
Apache Beam est un modèle de programmation unifiée et open source permettant de définir et d'exécuter des pipelines de traitement de données parallèles Sa puissance réside dans sa capacité à exécuter à la fois des pipelines batch et de streaming, l'exécution étant effectuée par l'un des backends de traitement distribué pris en charge par Apache: Apache Apex, Apache Flink, Apache Spark et Google Cloud Dataflow Apache Beam est utile pour les tâches ETL (Extraction, Transformation et Chargement) telles que le déplacement de données entre différents supports de stockage et sources de données, la transformation des données dans un format plus souhaitable et le chargement de données sur un nouveau système Dans cette formation en ligne instruite, les participants apprendront comment implémenter les SDK Apache Beam dans une application Java ou Python qui définit un pipeline de traitement de données pour décomposer un gros ensemble de données en plus petits morceaux pour un traitement parallèle indépendant À la fin de cette formation, les participants seront en mesure de: Installez et configurez Apache Beam Utilisez un seul modèle de programmation pour effectuer à la fois le traitement par lots et le traitement de flux à partir de leur application Java ou Python Exécutez des pipelines dans plusieurs environnements Public Développeurs Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson Remarque Ce cours sera disponible Scala dans le futur S'il vous plaît contactez-nous pour organiser .
35 hours
Overview
KNIME is a free and open-source data analytics, reporting and integration platform. KNIME integrates various components for machine learning and data mining through its modular data pipelining concept. A graphical user interface and use of JDBC allows assembly of nodes blending different data sources, including preprocessing (ETL: Extraction, Transformation, Loading), for modeling, data analysis and visualization without, or with only minimal, programming. To some extent as advanced analytics tool KNIME can be considered as a SAS alternative.

Since 2006, KNIME has been used in pharmaceutical research, it also used in other areas like CRM customer data analysis, business intelligence and financial data analysis.
21 hours
Overview
Pivotal Greenplum is a Massively Parallel Processing (MPP) Data Warehouse platform based on PostgreSQL.

This instructor-led, live training (onsite or remote) is aimed at developers who wish to set up a multi-node Greenplum database.

By the end of this training, participants will be able to:

- Install and configure Pivotal Greenplum.
- Model data in accordance to current needs and future expansion plans.
- Carry out different techniques for distributing data across multiple nodes.
- Improve database performance through tuning.
- Monitor and troubleshoot a Greenplum database.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
14 hours
Overview
cette formation en direct (sur site ou à distance) dirigée par un instructeur est destinée aux ingénieurs qui souhaitent utiliser confluent (une distribution de Kafka) pour construire et gérer une plate-forme de traitement de données en temps réel pour leurs applications.

à la fin de cette formation, les participants pourront:

- installer et configurer confluent Platform.
- Utilisez les outils et services de gestion confluent & #39; s pour exécuter Kafka plus facilement.
- stocker et traiter les données de flux entrantes.
- optimiser et gérer les clusters Kafka.
flux de données - Secure.

format du cours

- interactive Conférence et discussion.
- beaucoup d'exercices et de pratique.
- Hands-on mise en œuvre dans un environnement Live-Lab.

options de personnalisation de cours

- ce cours est basé sur la version open source de confluent: confluent Open source.
- pour demander une formation personnalisée pour ce cours, s'il vous plaît contactez-nous pour organiser.
14 hours
Overview
cette formation dirigée par un instructeur, en direct (sur site ou à distance) s'adresse aux analystes de données et aux scientifiques de données qui souhaitent implémenter des techniques d'analyse de données plus avancées pour l'exploration de données à l'aide de Python.

à la fin de cette formation, les participants pourront:

- comprendre les domaines importants de l'exploration de données, y compris l'exploration des règles d'association, l'analyse du sentiment textuel, la synthèse automatique des textes et la détection des anomalies de données.
- comparez et implémentez diverses stratégies pour résoudre des problèmes réels d'exploration de données.
- comprendre et interpréter les résultats.

format du cours

- conférence interactive et discussion.
- beaucoup d'exercices et de la pratique.
implémentation de - Hands-on dans un environnement Live-Lab.

cours options de personnalisation

- pour demander une formation personnalisée pour ce cours, s'il vous plaît nous contacter pour organiser.

Prochains cours Big Data

Weekend Big Data cours, Soir Big Data formation, Big Data stage d’entraînement, Big Data formateur à distance, Big Data formateur en ligne, Big Data formateur Online, Big Data cours en ligne, Big Data cours à distance, Big Data professeur à distance, Big Data visioconférence, Big Data stage d’entraînement intensif, Big Data formation accélérée, Big Data formation intensive, Formation inter Big Data, Formation intra Big Data, Formation intra Enteprise Big Data, Formation inter Entreprise Big Data, Weekend Big Data formation, Soir Big Data cours, Big Data coaching, Big Data entraînement, Big Data préparation, Big Data instructeur, Big Data professeur, Big Data formateur, Big Data stage de formation, Big Data cours, Big Data sur place, Big Data formations privées, Big Data formation privée, Big Data cours particulier, Big Data cours particuliers

Réduction spéciale

Newsletter offres spéciales

Nous respectons le caractère privé de votre adresse mail. Nous ne divulguerons ni ne vendrons votre adresse email à quiconque
Vous pouvez toujours modifier vos préférences ou vous désinscrire complètement.

Nos clients

is growing fast!

We are looking to expand our presence in Belgium!

As a Business Development Manager you will:

  • expand business in Belgium
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!