AI Inference and Deployment with CloudMatrix Training Cursus
CloudMatrix is Huawei’s unified AI development and deployment platform designed to support scalable, production-grade inference pipelines.
Deze door een instructeur geleide, live training (online of op locatie) is gericht op AI-professionals met een beginners- tot intermediair niveau die AI-modellen willen implementeren en monitoren met behulp van de CloudMatrix platform met CANN en MindSpore-integratie.
Aan het einde van deze training kunnen de deelnemers:
- CloudMatrix gebruiken voor het pakketteren, implementeren en leveren van modellen.
- Modellen converteren en optimaliseren voor Ascend-chipsets.
- Pipelines instellen voor real-time- en batch-inference-taken.
- Implementaties monitoren en prestaties afstellen in productieomgevingen.
Formaat van de cursus
- Interactieve lezing en discussie.
- Praktijkervaring met CloudMatrix in echte implementatiescenario's.
- Begeleide oefeningen gericht op conversie, optimalisatie en schaling.
Opties voor cursusaanpassing
- Om een aangepaste training voor deze cursus te verzoeken op basis van uw AI-infrastructuur of cloudomgeving, neem contact met ons op om dit te regelen.
Cursusaanbod
Inleiding tot Huawei CloudMatrix
- CloudMatrix ecosysteem en implementatieproces
- Ondersteunde modellen, formaten en implementatiemodi
- Typische gebruiksscenario's en ondersteunde chipsets
Modellen voorbereiden voor implementatie
- Model-export uit trainingshulpprogramma's (MindSpore, TensorFlow, PyTorch)
- Gebruik van ATC (Ascend Tensor Compiler) voor formaatconversie
- Statische vs dynamische vormmodellen
Implementeren op CloudMatrix
- Servicecreatie en modelregistratie
- Implementeren van inferentiediensten via UI of CLI
- Routing, authenticatie en toegang controle
Inferentieaanvragen verwerken
- Batch vs real-time inferentieproces
- Data-preprocessing en postprocessing-pipelines
- CloudMatrix diensten aanroepen vanuit externe apps
Monitoren en prestatie-optimalisatie
- Implementatielogboeken en aanvraagvolging
- Schalen van bronnen en belastingverdeling
- Latency-optimalisatie en doorvoersnelheidoptimalisatie
Integratie met ondernemingshulpprogramma's
- CloudMatrix verbinden met OBS en ModelArts
- Gebruik van workflows en modelversiebeheer
- CI/CD voor modelimplementatie en terugdraaien
Eind-aan-eind inferentiepipeline
- Implementeren van een volledige afbeeldingsclassificatiepipeline
- Benchmarking en valideren van nauwkeurigheid
- Simuleren van failover en systeemwaarschuwingen
Samenvatting en volgende stappen
Vereisten
- Een begrip van AI-model training workflows
- Ervaring met Python-gebaseerde ML frameworks
- Basisbekendheid met cloud-deploymentsconcepten
Doelgroep
- AI ops teams
- Machine learning engineers
- Cloud deployment specialists werkend met Huawei infrastructuur
Voor open trainingen is een minimum aantal van 5 deelnemers vereist
AI Inference and Deployment with CloudMatrix Training Cursus - Booking
AI Inference and Deployment with CloudMatrix Training Cursus - Enquiry
AI Inference and Deployment with CloudMatrix - Consultancyaanvraag
Consultancyaanvraag
Testimonials (1)
Stap voor stap training met veel oefeningen. Het was alsof het een workshop was en ik ben er heel blij mee.
Ireneusz - Inter Cars S.A.
Cursus - Intelligent Applications Fundamentals
Automatisch vertaald
Voorlopige Aankomende Cursussen
Gerelateerde cursussen
Developing AI Applications with Huawei Ascend and CANN
21 Uren- De CANN-ontwikkelomgeving installeren en configureren.
- AI-applicaties ontwikkelen met behulp van MindSpore en CloudMatrix-werkstromen.
- De prestaties optimaliseren op Ascend NPUs met behulp van aangepaste operators en tiling.
- Modellen implementeren in edge- of cloudomgevingen.
Opzet van de cursus
- Interactieve lezing en discussie.
- Pratische ervaring met Huawei Ascend en het CANN-toolkit in voorbeeldtoepassingen.
- Begeleide oefeningen met de nadruk op het bouwen, trainen en implementeren van modellen.
Opties voor cursusaanpassing
- Voor het aanvragen van een aangepaste training voor deze cursus op basis van uw infrastructuur of datasets, neem dan contact met ons op om dit te regelen.
Deploying AI Models with CANN and Ascend AI Processors
14 UrenCANN (Compute Architecture for Neural Networks) is Huawei’s AI compute stack for deploying and optimizing AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and engineers who wish to deploy trained AI models efficiently to Huawei Ascend hardware using the CANN toolkit and tools such as MindSpore, TensorFlow, or PyTorch.
By the end of this training, participants will be able to:
- Understand the CANN architecture and its role in the AI deployment pipeline.
- Convert and adapt models from popular frameworks to Ascend-compatible formats.
- Use tools like ATC, OM model conversion, and MindSpore for edge and cloud inference.
- Diagnose deployment issues and optimize performance on Ascend hardware.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work using CANN tools and Ascend simulators or devices.
- Practical deployment scenarios based on real-world AI models.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
AI Engineering Fundamentals
14 UrenDeze live training onder leiding van een instructeur in België (online of op locatie) is bedoeld voor AI-ingenieurs en softwareontwikkelaars van beginners tot gemiddeld niveau die een fundamenteel begrip willen krijgen van AI-engineeringprincipes en -praktijken.
Aan het einde van deze training zijn de deelnemers in staat om:
- Begrijp de kernconcepten en technologieën achter AI en machine learning.
- Implementeer basismodellen voor machine learning met behulp van TensorFlow en PyTorch.
- Pas AI-technieken toe om praktische problemen bij softwareontwikkeling op te lossen.
- Beheer en onderhoud AI-projecten met behulp van best practices op het gebied van AI-engineering.
- Erken de ethische implicaties en verantwoordelijkheden die gepaard gaan met het ontwikkelen van AI-systemen.
GPU Programming on Biren AI Accelerators
21 UrenBuilding Intelligent Applications with AI and ML
28 UrenDeze live training onder leiding van een instructeur in België (online of op locatie) is gericht op AI-professionals van gemiddeld tot gevorderd niveau en
softwareontwikkelaars die intelligente toepassingen willen bouwen met behulp van AI en ML.
Aan het einde van deze training zijn de deelnemers in staat om:
- Begrijp de geavanceerde concepten en technologieën achter AI en ML.
- Analyseer en visualiseer gegevens om de ontwikkeling van AI/ML-modellen te informeren.
- Bouw, train en implementeer AI/ML-modellen effectief.
- Creëer intelligente toepassingen die echte problemen kunnen oplossen.
- Evalueer de ethische implicaties van AI-toepassingen in verschillende industrieën.
Introduction to CANN for AI Framework Developers
7 UrenCANN (Compute Architecture for Neural Networks) is Huawei’s AI computing toolkit used to compile, optimize, and deploy AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at beginner-level AI developers who wish to understand how CANN fits into the model lifecycle from training to deployment, and how it works with frameworks like MindSpore, TensorFlow, and PyTorch.
By the end of this training, participants will be able to:
- Understand the purpose and architecture of the CANN toolkit.
- Set up a development environment with CANN and MindSpore.
- Convert and deploy a simple AI model to Ascend hardware.
- Gain foundational knowledge for future CANN optimization or integration projects.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with simple model deployment.
- Step-by-step walkthrough of the CANN toolchain and integration points.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN for Edge AI Deployment
14 UrenHuawei's Ascend CANN toolkit enables powerful AI inference on edge devices such as the Ascend 310. CANN provides essential tools for compiling, optimizing, and deploying models where compute and memory are constrained.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and integrators who wish to deploy and optimize models on Ascend edge devices using the CANN toolchain.
By the end of this training, participants will be able to:
- Prepare and convert AI models for Ascend 310 using CANN tools.
- Build lightweight inference pipelines using MindSpore Lite and AscendCL.
- Optimize model performance for limited compute and memory environments.
- Deploy and monitor AI applications in real-world edge use cases.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work with edge-specific models and scenarios.
- Live deployment examples on virtual or physical edge hardware.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Understanding Huawei’s AI Compute Stack: From CANN to MindSpore
14 UrenHuawei’s AI stack — from the low-level CANN SDK to the high-level MindSpore framework — offers a tightly integrated AI development and deployment environment optimized for Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at beginner-level to intermediate-level technical professionals who wish to understand how the CANN and MindSpore components work together to support AI lifecycle management and infrastructure decisions.
By the end of this training, participants will be able to:
- Understand the layered architecture of Huawei’s AI compute stack.
- Identify how CANN supports model optimization and hardware-level deployment.
- Evaluate the MindSpore framework and toolchain in relation to industry alternatives.
- Position Huawei's AI stack within enterprise or cloud/on-prem environments.
Format of the Course
- Interactive lecture and discussion.
- Live system demos and case-based walkthroughs.
- Optional guided labs on model flow from MindSpore to CANN.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Optimizing Neural Network Performance with CANN SDK
14 UrenCANN SDK (Compute Architecture for Neural Networks) is Huawei’s AI compute foundation that allows developers to fine-tune and optimize the performance of deployed neural networks on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at advanced-level AI developers and system engineers who wish to optimize inference performance using CANN’s advanced toolset, including the Graph Engine, TIK, and custom operator development.
By the end of this training, participants will be able to:
- Understand CANN's runtime architecture and performance lifecycle.
- Use profiling tools and Graph Engine for performance analysis and optimization.
- Create and optimize custom operators using TIK and TVM.
- Resolve memory bottlenecks and improve model throughput.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with real-time profiling and operator tuning.
- Optimization exercises using edge-case deployment examples.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN SDK for Computer Vision and NLP Pipelines
14 UrenThe CANN SDK (Compute Architecture for Neural Networks) provides powerful deployment and optimization tools for real-time AI applications in computer vision and NLP, especially on Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI practitioners who wish to build, deploy, and optimize vision and language models using the CANN SDK for production use cases.
By the end of this training, participants will be able to:
- Deploy and optimize CV and NLP models using CANN and AscendCL.
- Use CANN tools to convert models and integrate them into live pipelines.
- Optimize inference performance for tasks like detection, classification, and sentiment analysis.
- Build real-time CV/NLP pipelines for edge or cloud-based deployment scenarios.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab with model deployment and performance profiling.
- Live pipeline design using real CV and NLP use cases.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Building Custom AI Operators with CANN TIK and TVM
14 UrenCANN TIK (Tensor Instruction Kernel) and Apache TVM enable advanced optimization and customization of AI model operators for Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at advanced-level system developers who wish to build, deploy, and tune custom operators for AI models using CANN’s TIK programming model and TVM compiler integration.
By the end of this training, participants will be able to:
- Write and test custom AI operators using the TIK DSL for Ascend processors.
- Integrate custom ops into the CANN runtime and execution graph.
- Use TVM for operator scheduling, auto-tuning, and benchmarking.
- Debug and optimize instruction-level performance for custom computation patterns.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on coding of operators using TIK and TVM pipelines.
- Testing and tuning on Ascend hardware or simulators.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Migrating CUDA Applications to Chinese GPU Architectures
21 UrenChinese GPU-architecturen zoals Huawei Ascend, Biren en Cambricon MLU's bieden CUDA-alternatieven die zijn afgestemd op de lokale AI- en HPC-markten.
Deze door een instructeur geleide, live training (online of op locatie) is bedoeld voor geavanceerde GPU-programmeurs en infrastructurspecialisten die bestaande CUDA-toepassingen willen migreren en optimaliseren voor implementatie op Chinese hardwareplatforms.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
- De compatibiliteit van bestaande CUDA-werkbelastingen met Chinese chipalternatieven te evalueren.
- CUDA-codebases te porten naar Huawei CANN, Biren SDK en Cambricon BANGPy-omgevingen.
- De prestaties te vergelijken en optimalisatiepunten te identificeren op verschillende platforms.
- Praktische uitdagingen in het ondersteunen en implementeren van cross-architecture te aanpakken.
Formaat van de cursus
- Interactieve lezingen en discussies.
- Hands-on codevertalings- en prestatievergelingslabs.
- Geleide oefeningen met als focus multi-GPU-adaptatiestrategieën.
Cursusaangepaste opties
- Om een aangepaste training voor deze cursus aan te vragen op basis van uw platform of CUDA-project, neem dan contact met ons op om dit te regelen.
Intelligent Applications Fundamentals
14 UrenDeze live training onder leiding van een instructeur in België (online of op locatie) is bedoeld voor IT-professionals op beginnersniveau die een fundamenteel begrip willen krijgen van intelligente toepassingen en hoe deze in verschillende industrieën kunnen worden toegepast.
Aan het einde van deze training zijn de deelnemers in staat om:
- Begrijp de geschiedenis, principes en impact van kunstmatige intelligentie.
- Identificeer en pas verschillende machine learning-algoritmen toe.
- Beheer en analyseer gegevens effectief voor AI-toepassingen.
- Herken de praktische toepassingen en beperkingen van AI in verschillende sectoren.
- Bespreek de ethische overwegingen en maatschappelijke implicaties van AI-technologie.
Intelligent Applications Advanced
21 UrenDeze live training onder leiding van een instructeur in België (online of op locatie) is bedoeld voor datawetenschappers, ingenieurs en AI-beoefenaars van gemiddeld tot gevorderd niveau die de fijne kneepjes van intelligente toepassingen onder de knie willen krijgen en deze willen gebruiken om complexe, echte problemen op te lossen.
Aan het einde van deze training zijn de deelnemers in staat om:
- Implementeer en analyseer deep learning-architecturen.
- Pas machine learning op schaal toe in een gedistribueerde computeromgeving.
- Ontwerp en voer versterkende leermodellen uit voor besluitvorming.
- Ontwikkel geavanceerde NLP-systemen voor taalbegrip.
- Gebruik computer vision-technieken voor beeld- en video-analyse.
- Ethische overwegingen bij de ontwikkeling en uitrol van AI-systemen aanpakken.
Performance Optimization on Ascend, Biren, and Cambricon
21 UrenAscend, Biren en Cambricon zijn leidende AI-hardwareplatformen in China, elk biedend unieke versnellings- en profieltools voor productieschaal AI-werkbelastingen.
Deze door een docent geleide, live-training (online of op locatie) is gericht op geavanceerde AI-infrastructuur- en prestatie-engineers die modelinferentie- en trainingswerkstromen willen optimaliseren op meerdere Chinese AI-chipplatformen.
Na afloop van deze training kunnen de deelnemers:
- Modellen bencheren op Ascend, Biren en Cambricon-platformen.
- Systembottleneks en geheugen/verwerkingsinefficiënties identificeren.
- Optimisaties op grafiekniveau, kernelniveau en operatorkniveau toepassen.
- Implementatiepijplijnen afstellen om doorvoer en latentie te verbeteren.
Formaat van de cursus
- Interactieve lezing en discussie.
- Handen aan het werk met profiel- en optimalisatietools op elk platform.
- Geleide oefeningen gericht op praktische afstellingscenario's.
Opties voor cursusanpassing
- Voor een aangepaste training voor deze cursus op basis van uw prestatieomgeving of modeltype, neem dan contact met ons op om dit te regelen.