Les cours de formation en direct sur le traitement de flux en ligne ou sur site, animés par un instructeur, démontrent, par le biais de discussions interactives et de pratiques pratiques, les principes fondamentaux et les sujets avancés du traitement de flux. La formation Stream Processing est disponible en tant que "formation en direct en ligne" ou "formation en direct sur site". La formation en direct en ligne (alias « formation en direct à distance ») est effectuée au moyen d'un ordinateur de bureau interactif à distance . La formation en direct sur site peut être effectuée localement dans les locaux du client en Louvain ou dans les centres de formation d'entreprise NobleProg en Louvain. NobleProg - Votre fournisseur de formation local
Louvain
Park Inn by Radisson Leuven, Martelarenlaan 36, Louvain, Belgique, 3010
Louvain
Louvain (en néerlandais Leuven, en allemand Löwen) est une ville néerlandophone de B...
Louvain
Louvain (en néerlandais Leuven, en allemand Löwen) est une ville néerlandophone de Belgique située en Région flamande, chef-lieu de la province du Brabant flamand et chef-lieu de l'arrondissement qui porte son nom. Elle est arrosée par la Dyle, affluent du Rupel. C'est une ville universitaire où siège la Katholieke Universiteit Leuven, branche néerlandophone née de la scission de la plus ancienne université de Belgique. Louvain est aussi connue pour abriter le siège de l'entreprise AB InBev, la plus grande brasserie du monde. Louvain est la capitale de la bière en Belgique.
Cette formation en direct, animée par un instructeur (sur site ou à distance), est destinée aux ingénieurs souhaitant utiliser Confluent (une distribution de Kafka) pour créer et gérer une plate-forme de traitement de données en temps réel pour leurs applications. À la fin de cette formation, les participants seront en mesure de:
Installez et configurez Confluent Platform.
Utilisez les outils et les services de gestion de Confluent pour exécuter Kafka plus facilement.
Stocker et traiter les données de flux entrants.
Optimiser et gérer les clusters Kafka.
Flux de données sécurisés.
Format du cours
Conférence interactive et discussion.
Beaucoup d'exercices et de pratique.
Mise en œuvre pratique dans un environnement de laboratoire réel.
Options de personnalisation du cours
Ce cours est basé sur la version open source de Confluent: Confluent Open Source.
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Dans cette formation dirigée par un instructeur en <loc> ; (sur site ou à distance), les participants apprendront comment configurer et intégrer différents Stream Processing frameworks avec des systèmes de stockage de big data existants et des applications logicielles et microservices connexes.
A l'issue de cette formation, les participants seront capables de :
Installer et configurer différents Stream Processing frameworks, tels que Spark Streaming et Kafka Streaming.
Comprendre et sélectionner le framework le plus approprié pour le travail à effectuer.
Traiter des données en continu, de manière concurrente et enregistrement par enregistrement.
Intégrer les solutions Stream Processing aux bases de données existantes, aux entrepôts de données, aux lacs de données, etc.
Intégrer la bibliothèque de traitement de flux la plus appropriée avec les applications d'entreprise et les microservices.
Cette formation en direct avec instructeur (en ligne ou sur site) s'adresse aux ingénieurs de données, aux scientifiques des données et aux programmeurs qui souhaitent utiliser les fonctionnalités d'Apache Kafka dans le cadre de la diffusion de données en continu Python.
À l'issue de cette formation, les participants seront en mesure d'utiliser Apache Kafka pour surveiller et gérer les conditions des flux de données continus en utilisant la programmation Python.
Kafka Streams est une bibliothèque côté client permettant de créer des applications et des microservices dont les données sont transmises depuis et vers un système de messagerie Kafka. Apache Kafka s’appuyait traditionnellement sur Apache Spark ou Apache Storm pour traiter les données entre les producteurs de messages et les consommateurs. En appelant l'API Kafka Streams depuis une application, les données peuvent être traitées directement dans Kafka, ce qui évite d'avoir à les envoyer à un cluster distinct. Au cours de cette formation en direct animée par un instructeur, les participants apprendront comment intégrer Kafka Streams à un ensemble d’exemples d’applications Java qui transmettent des données depuis et vers Apache Kafka pour le traitement de flux. À la fin de cette formation, les participants seront en mesure de:
Comprendre les fonctionnalités et les avantages de Kafka Streams par rapport aux autres infrastructures de traitement de flux
Traiter les données de flux directement dans un cluster Kafka
Écrire une application ou un microservice Java ou Scala intégrant Kafka et Kafka Streams
Écrivez un code concis qui transforme les sujets d’entrée de Kafka en sujets de sortie de Kafka
Construire, empaqueter et déployer l'application
Public
Développeurs
Format du cours
Partie de conférence, partie de discussion, exercices et exercices intensifs
Remarques
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser
Apache Samza est un framework de calcul asynchrone open source quasi-temps réel pour le traitement de flux. Il utilise Apache Kafka pour la messagerie et Apache Hadoop YARN pour la tolérance aux pannes, l'isolation du processeur, la sécurité et la gestion des ressources. Cette formation en direct, animée par un instructeur, présente les principes sous-jacents aux systèmes de messagerie et au traitement de flux distribué, tout en guidant les participants dans la création d'un exemple de projet et d'exécution de travaux basé sur Samza. À la fin de cette formation, les participants seront en mesure de:
Utilisez Samza pour simplifier le code nécessaire à la production et à la consommation de messages.
Découpler le traitement des messages d'une application.
Utilisez Samza pour implémenter un calcul asynchrone en temps quasi réel.
Utilisez le traitement de flux pour fournir un niveau d'abstraction plus élevé sur les systèmes de messagerie.
Public
Développeurs
Format du cours
Partie de conférence, partie de discussion, exercices et exercices intensifs
Cette formation en direct avec instructeur (en ligne ou sur site) présente les principes et les approches qui sous-tendent le traitement distribué des données en flux et par lots, et accompagne les participants dans la création d'une application de flux de données en temps réel dans Apache Flink.
A l'issue de cette formation, les participants seront capables de :
Mettre en place un environnement pour développer des applications d'analyse de données.
Comprendre le fonctionnement de la bibliothèque de traitement de graphes d'Apache Flink (Gelly).
Compiler, exécuter et surveiller des applications de streaming de données basées sur Flink et tolérantes aux pannes.
Gérer diverses charges de travail.
Effectuer des analyses avancées.
Mettre en place un cluster Flink à plusieurs nœuds.
Mesurer et optimiser les performances.
Intégrer Flink à différents systèmes Big Data.
Comparer les capacités de Flink avec celles d'autres frameworks de traitement des big data.
Dans cette formation dirigée par un instructeur (sur site ou à distance), les participants apprendront à déployer et à gérer Apache NiFi dans un environnement de laboratoire réel.
A l'issue de cette formation, les participants seront capables de :
Installer et configurer Apachi NiFi.
Sourcez, transformez et gérez des données provenant de sources de données disparates et distribuées, notamment des bases de données et des big data lakes.
Automatiser les flux de données.
Autoriser l'analyse en continu.
Appliquer diverses approches pour l'ingestion de données.
Transformer Big Data et en informations commerciales.
Dans cette formation en direct, dirigée par un instructeur, les participants apprendront les principes fondamentaux de la programmation basée sur le flux en développant un certain nombre d'extensions, de composants et de processeurs de démonstration à l'aide de Apache NiFi.
A l'issue de cette formation, les participants seront capables de :
Apache Storm est un moteur de calcul distribué en temps réel utilisé pour permettre l'intelligence d'affaires en temps réel. Il le fait en permettant aux applications de traiter de manière fiable les flux de données illimité (par exemple. Traitement de flux).
"Storm est pour le traitement en temps réel ce qui Hadoop est pour le traitement de pièces!"
Dans cette formation en direct guidée par l'instructeur, les participants apprendront comment installer et configurer Apache Storm, puis développer et déployer une Apache Storm application pour traiter de grands données en temps réel.
Certains des sujets inclus dans cette formation comprennent :
Apache Storm dans le contexte de Hadoop
Travailler avec des données illimitées
Comptabilité continue
Analyse en temps réel
Traitement distribué RPC et ETL
Demandez ce cours maintenant!
Audience
Développeurs de logiciels et ETL
Les professionnels de mainframe
Les scientifiques de données
Les grands analystes de données
[ 0 ] Les professionnels
Format du cours
Lecture partielle, discussion partielle, exercices et pratiques lourdes
Apache Apex est une plate-forme YARNnative qui unifie le traitement des flux et des lots Il traite les données importantes de manière évolutive, performante, tolérante, dynamique, distribuée et facilement exploitable Cette formation en ligne, en mode instructeur, présente l'architecture de traitement de flux unifié d'Apache Apex et guide les participants à travers la création d'une application distribuée utilisant Apex sur Hadoop À la fin de cette formation, les participants seront en mesure de: Comprendre les concepts de pipeline de traitement de données tels que les connecteurs pour les sources et les puits, les transformations de données communes, etc Construire, dimensionner et optimiser une application Apex Traiter les flux de données en temps réel de manière fiable et avec une latence minimale Utilisez Apex Core et la bibliothèque Apex Malhar pour accélérer le développement d'applications Utiliser l'API Apex pour écrire et réutiliser le code Java existant Intégrer Apex dans d'autres applications en tant que moteur de traitement Régler, tester et mettre à l'échelle les applications Apex Public Développeurs Architectes d'entreprise Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
Apache Beam est un modèle de programmation unifiée et open source permettant de définir et d'exécuter des pipelines de traitement de données parallèles Sa puissance réside dans sa capacité à exécuter à la fois des pipelines batch et de streaming, l'exécution étant effectuée par l'un des backends de traitement distribué pris en charge par Apache: Apache Apex, Apache Flink, Apache Spark et Google Cloud Dataflow Apache Beam est utile pour les tâches ETL (Extraction, Transformation et Chargement) telles que le déplacement de données entre différents supports de stockage et sources de données, la transformation des données dans un format plus souhaitable et le chargement de données sur un nouveau système Dans cette formation en ligne instruite, les participants apprendront comment implémenter les SDK Apache Beam dans une application Java ou Python qui définit un pipeline de traitement de données pour décomposer un gros ensemble de données en plus petits morceaux pour un traitement parallèle indépendant À la fin de cette formation, les participants seront en mesure de: Installez et configurez Apache Beam Utilisez un seul modèle de programmation pour effectuer à la fois le traitement par lots et le traitement de flux à partir de leur application Java ou Python Exécutez des pipelines dans plusieurs environnements Public Développeurs Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson Remarque Ce cours sera disponible Scala dans le futur S'il vous plaît contactez-nous pour organiser .
Cette formation en direct avec instructeur (en ligne ou sur site) s'adresse aux développeurs qui souhaitent apprendre les principes du stockage en mémoire pur et persistant, tout en créant un exemple de projet de calcul en mémoire.
A l'issue de cette formation, les participants seront capables de :
Utilisez Ignite pour la persistance en mémoire, sur disque, ainsi que pour une base de données en mémoire purement distribuée.
Réaliser la persistance sans synchroniser les données avec une base de données relationnelle.
Utilisez Ignite pour effectuer des jointures SQL et distribuées.
Améliorer les performances en rapprochant les données de l'unité centrale, en utilisant la mémoire vive comme stockage.
Répartir les ensembles de données sur un cluster pour obtenir une évolutivité horizontale.
Intégrer Ignite avec des SGBDR, NoSQL, Hadoop et des processeurs d'apprentissage automatique.
Cette formation en direct avec instructeur (en ligne ou sur site) s'adresse aux développeurs qui souhaitent mettre en œuvre le traitement des flux Apache Kafka sans écrire de code.
A l'issue de cette formation, les participants seront capables de :
Installer et configurer Confluent KSQL.
Mettre en place un pipeline de traitement de flux en utilisant uniquement des commandes SQL (pas de codage Java ou Python).
Exécuter le filtrage des données, les transformations, les agrégations, les jointures, le fenêtrage et la sessionnalisation entièrement en SQL.
Cette formation en <loc> ; (en ligne ou sur site) est destinée aux ingénieurs de données, aux scientifiques de données et aux programmeurs qui souhaitent utiliser les fonctionnalités Spark Streaming dans le traitement et l'analyse de données en temps réel.
À l'issue de cette formation, les participants seront en mesure d'utiliser Spark Streaming pour traiter des flux de données en direct destinés à être utilisés dans des bases de données, des systèmes de fichiers et des tableaux de bord en direct.
En savoir plus...
Last Updated:
Nos Clients témoignent (2)
J'ai aimé les environnements de machines virtuelles parce qu'il pouvait facilement passer d'une vue à l'autre et nous aider si nous avions des difficultés avec le matériel.
Pedro
Formation - Apache NiFi for Developers
Traduction automatique
Sufficient hands on, trainer is knowledgable
Chris Tan
Formation - A Practical Introduction to Stream Processing
Stream processing formation à Louvain, Weekend Stream processing cours à Louvain, Soir Stream processing formation à Louvain, Stream processing formateur en ligne à Louvain, Stream processing formation à Louvain, Stream processing cours du soir à Louvain, Stream processing formation Intra à Louvain, Stream processing formation Intra Entreprise à Louvain, Stream processing formation Inter à Louvain, Stream processing formation Inter Entreprise à Louvain, Stream processing formateur à Louvain, Stream processing instructeur à Louvain, Stream processing sur place à Louvain, Stream processing cours particuliers à Louvain, Stream processing coach à Louvain, Stream processing entraînement à Louvain, Stream processing stage de préparation à Louvain, Stream processing préparation à Louvain, Stream processing coaching à Louvain, Stream processing préparation aux examens à Louvain, Stream processing professeur à Louvain,Stream processing cours à Louvain, Stream processing cours privé à Louvain, Weekend Stream processing formation à Louvain, Soir Stream processing cours à Louvain