Lokale, door instructeurs geleide live GPU (Graphics Processing Unit) trainingscursussen demonstreren door middel van interactieve discussie en hands-on praktijk de grondbeginselen van GPU en hoe GPU's te programmeren. GPU-training is beschikbaar als 'live training op afstand' of 'live training op locatie'. Online live training (ook bekend als "live training op afstand") wordt uitgevoerd via een interactieve, externe desktop . Live training op locatie kan lokaal worden uitgevoerd op het terrein van de klant in Leuven of in NobleProg bedrijfstrainingscentra in Leuven. NobleProg -- Uw lokale trainingsaanbieder
Leuven
Park Inn by Radisson Leuven, Martelarenlaan 36, Louvain, België, 3010
Leuven
Leuven (in het Nederlands Leuven, in het Duits Löwen) is een Nederlandstalige stad in België gelegen in het Vlaamse Gewest, hoofdstad van de provincie Vlaams-Brabant en hoofdstad van het district dat zijn naam draagt. Het wordt bewaterd door de Dijle, een zijrivier van de Rupel. Het is een universiteitsstad waar de Katholieke Universiteit Leuven is gevestigd, een Nederlandstalige tak ontstaan uit de splitsing van de oudste universiteit van België. Leuven staat ook bekend om het hoofdkantoor van AB InBev, de grootste brouwerij ter wereld. Leuven is de bierhoofdstad van België.
De dichtstbijzijnde luchthaven bij het trainingscentrum
15 kilometer ten oosten van de luchthaven van Brussel.
Dichtstbijzijnde treinstation bij het trainingscentrum
station Leuven
De dichtstbijzijnde parkeerplaats bij het trainingscentrum
Huawei Ascend is een familie van AI-processoren ontworpen voor high-performance inference en training.Deze door een instructeur geleide, live training (online of op locatie) is gericht op AI-engineers en datawetenschappers op tussenniveau die neural network modellen willen ontwikkelen en optimaliseren met behulp van de Ascend-platform van Huawei en het CANN-toolkit.Na voltooiing van deze training kunnen de deelnemers:
De CANN-ontwikkelomgeving installeren en configureren.
AI-applicaties ontwikkelen met behulp van MindSpore en CloudMatrix-werkstromen.
De prestaties optimaliseren op Ascend NPUs met behulp van aangepaste operators en tiling.
Modellen implementeren in edge- of cloudomgevingen.
Opzet van de cursus
Interactieve lezing en discussie.
Pratische ervaring met Huawei Ascend en het CANN-toolkit in voorbeeldtoepassingen.
Begeleide oefeningen met de nadruk op het bouwen, trainen en implementeren van modellen.
Opties voor cursusaanpassing
Voor het aanvragen van een aangepaste training voor deze cursus op basis van uw infrastructuur of datasets, neem dan contact met ons op om dit te regelen.
Huawei’s AI stack — from the low-level CANN SDK to the high-level MindSpore framework — offers a tightly integrated AI development and deployment environment optimized for Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at beginner-level to intermediate-level technical professionals who wish to understand how the CANN and MindSpore components work together to support AI lifecycle management and infrastructure decisions.
By the end of this training, participants will be able to:
Understand the layered architecture of Huawei’s AI compute stack.
Identify how CANN supports model optimization and hardware-level deployment.
Evaluate the MindSpore framework and toolchain in relation to industry alternatives.
Position Huawei's AI stack within enterprise or cloud/on-prem environments.
Format of the Course
Interactive lecture and discussion.
Live system demos and case-based walkthroughs.
Optional guided labs on model flow from MindSpore to CANN.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
Deze live training onder leiding van een instructeur in Leuven (online of op locatie) is bedoeld voor ontwikkelaars van beginners tot gemiddeld niveau die OpenACC willen gebruiken om heterogene apparaten te programmeren en hun parallellisme te benutten.
Aan het einde van deze training zijn de deelnemers in staat om:
Stel een ontwikkelomgeving in met OpenACC SDK, een apparaat dat OpenACC ondersteunt, en Visual Studio Code.
Maak een eenvoudig OpenACC-programma dat vectoroptelling uitvoert op het apparaat en de resultaten ophaalt uit het geheugen van het apparaat.
Gebruik OpenACC-richtlijnen en -clausules om de code te annoteren en de parallelle regio's, gegevensverplaatsing en optimalisatieopties op te geven.
Gebruik de OpenACC-API om apparaatgegevens op te vragen, het apparaatnummer in te stellen, fouten af te handelen en gebeurtenissen te synchroniseren.
Gebruik OpenACC-bibliotheken en interoperabiliteitsfuncties om OpenACC te integreren met andere programmeermodellen, zoals CUDA, OpenMP en MPI.
Gebruik OpenACC-tools om OpenACC-programma's te profileren en fouten op te sporen en te identificeren en knelpunten en kansen op het gebied van prestaties te identificeren.
Optimaliseer OpenACC-programma's met behulp van technieken zoals datalokalisatie, lusfusie, kernelfusie en auto-tuning.
The CANN SDK (Compute Architecture for Neural Networks) provides powerful deployment and optimization tools for real-time AI applications in computer vision and NLP, especially on Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI practitioners who wish to build, deploy, and optimize vision and language models using the CANN SDK for production use cases.
By the end of this training, participants will be able to:
Deploy and optimize CV and NLP models using CANN and AscendCL.
Use CANN tools to convert models and integrate them into live pipelines.
Optimize inference performance for tasks like detection, classification, and sentiment analysis.
Build real-time CV/NLP pipelines for edge or cloud-based deployment scenarios.
Format of the Course
Interactive lecture and demonstration.
Hands-on lab with model deployment and performance profiling.
Live pipeline design using real CV and NLP use cases.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
Deze door een instructeur geleide, live training in Leuven (op locatie of op afstand) is gericht op ontwikkelaars op beginners- tot gemiddeld niveau die de basisprincipes van GPU programmeren willen leren en de belangrijkste raamwerken en hulpmiddelen voor het ontwikkelen van GPU applicaties. .
Aan het einde van deze training kunnen deelnemers: Begrijp het verschil tussen CPU en GPU computergebruik en de voordelen en uitdagingen van GPU programmeren.
Kies het juiste raamwerk en de juiste tool voor hun GPU toepassing.
Maak een basisprogramma GPU dat vectoroptelling uitvoert met behulp van een of meer van de raamwerken en hulpmiddelen.
Gebruik de respectievelijke API's, talen en bibliotheken om apparaatinformatie op te vragen, apparaatgeheugen toe te wijzen en de toewijzing daarvan ongedaan te maken, gegevens tussen host en apparaat te kopiëren, kernels te starten en threads te synchroniseren.
Gebruik de respectieve geheugenruimten, zoals globaal, lokaal, constant en privé, om gegevensoverdrachten en geheugentoegang te optimaliseren.
Gebruik de respectieve uitvoeringsmodellen, zoals werkitems, werkgroepen, threads, blokken en rasters, om de parallelliteit te controleren.
Debug en test GPU programma's met behulp van tools zoals CodeXL, CUDA-GDB, CUDA-MEMCHECK en NVIDIA Nsight.
Optimaliseer GPU programma's met behulp van technieken zoals coalescentie, caching, prefetching en profilering.
CANN TIK (Tensor Instruction Kernel) and Apache TVM enable advanced optimization and customization of AI model operators for Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at advanced-level system developers who wish to build, deploy, and tune custom operators for AI models using CANN’s TIK programming model and TVM compiler integration.
By the end of this training, participants will be able to:
Write and test custom AI operators using the TIK DSL for Ascend processors.
Integrate custom ops into the CANN runtime and execution graph.
Use TVM for operator scheduling, auto-tuning, and benchmarking.
Debug and optimize instruction-level performance for custom computation patterns.
Format of the Course
Interactive lecture and demonstration.
Hands-on coding of operators using TIK and TVM pipelines.
Testing and tuning on Ascend hardware or simulators.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
Deze door een instructeur geleide live-training (online of op locatie) is bedoeld voor beginners tot gemiddelde ontwikkelaars die verschillende frameworks willen gebruiken voor GPU programmeren en hun functies, prestaties en compatibiliteit willen vergelijken.
Aan het einde van deze training kunnen de deelnemers:
Een ontwikkelomgeving instellen die OpenCL SDK, CUDA Toolkit, ROCm Platform, een apparaat dat OpenCL, CUDA of ROCm ondersteunt en Visual Studio Code omvat.
Een basis-GPU programma maken dat vectoradditie uitvoert met behulp van OpenCL, CUDA en ROCm, en de syntaxis, structuur en uitvoering van elk framework vergelijken.
De respectieve APIs gebruiken om apparaatinformatie op te vragen, apparaatgeheugen toe te wijzen en vrij te geven, gegevens tussen host en apparaat te kopiëren, kernels te starten en threads te synchroniseren.
De respectieve talen gebruiken om kernels te schrijven die op het apparaat worden uitgevoerd en gegevens manipuleren.
De respectieve ingebouwde functies, variabelen en bibliotheken gebruiken om veelvoorkomende taken en bewerkingen uit te voeren.
De respectieve geheugenruimtes, zoals globaal, lokaal, constant en privé, gebruiken om gegevensoverdrachten en geheugentoegangen te optimaliseren.
De respectieve uitvoeringmodellen gebruiken om de threads, blokken en roosters te controleren die de parallelisme definiëren.
GPU programma's debuggen en testen met behulp van tools zoals CodeXL, CUDA-GDB, CUDA-MEMCHECK en NVIDIA Nsight.
GPU programma's optimaliseren met behulp van technieken zoals samenvoegen, cachen, vooraf laden en profielen.
CloudMatrix is Huawei’s unified AI development and deployment platform designed to support scalable, production-grade inference pipelines.
Deze door een instructeur geleide, live training (online of op locatie) is gericht op AI-professionals met een beginners- tot intermediair niveau die AI-modellen willen implementeren en monitoren met behulp van de CloudMatrix platform met CANN en MindSpore-integratie.
Aan het einde van deze training kunnen de deelnemers:
CloudMatrix gebruiken voor het pakketteren, implementeren en leveren van modellen.
Modellen converteren en optimaliseren voor Ascend-chipsets.
Pipelines instellen voor real-time- en batch-inference-taken.
Implementaties monitoren en prestaties afstellen in productieomgevingen.
Formaat van de cursus
Interactieve lezing en discussie.
Praktijkervaring met CloudMatrix in echte implementatiescenario's.
Begeleide oefeningen gericht op conversie, optimalisatie en schaling.
Opties voor cursusaanpassing
Om een aangepaste training voor deze cursus te verzoeken op basis van uw AI-infrastructuur of cloudomgeving, neem contact met ons op om dit te regelen.
Huawei's Ascend CANN toolkit enables powerful AI inference on edge devices such as the Ascend 310. CANN provides essential tools for compiling, optimizing, and deploying models where compute and memory are constrained.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and integrators who wish to deploy and optimize models on Ascend edge devices using the CANN toolchain.
By the end of this training, participants will be able to:
Prepare and convert AI models for Ascend 310 using CANN tools.
Build lightweight inference pipelines using MindSpore Lite and AscendCL.
Optimize model performance for limited compute and memory environments.
Deploy and monitor AI applications in real-world edge use cases.
Format of the Course
Interactive lecture and demonstration.
Hands-on lab work with edge-specific models and scenarios.
Live deployment examples on virtual or physical edge hardware.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
Deze door een instructeur geleide, live training (op locatie of op afstand) is gericht op ontwikkelaars op beginnersniveau tot op gemiddeld niveau die ROCm op Windows willen installeren en gebruiken om AMD GPU's te programmeren en hun parallellisme te exploiteren.
Aan het einde van deze training kunnen deelnemers:
Zet een ontwikkelomgeving op met ROCm Platform, een AMD GPU en Visual Studio Code op Windows.
Creëer een basis ROCm-programma dat vectoroptelling uitvoert op de GPU en de resultaten ophaalt uit het GPU-geheugen.
Gebruik de ROCm API om apparaatinformatie op te vragen, apparaatgeheugen toe te wijzen en de toewijzing ervan ongedaan te maken, gegevens tussen host en apparaat te kopiëren, kernels te starten en threads te synchroniseren.
Gebruik HIP-taal om kernels te schrijven die worden uitgevoerd op de GPU en gegevens manipuleren.
Gebruik de ingebouwde functies, variabelen en bibliotheken van HIP om algemene taken en bewerkingen uit te voeren.
Gebruik ROCm- en HIP-geheugenruimten, zoals globaal, gedeeld, constant en lokaal, om gegevensoverdracht en geheugentoegang te optimaliseren.
Gebruik ROCm- en HIP-uitvoeringsmodellen om de threads, blokken en rasters te besturen die het parallellisme definiëren.
Debug en test ROCm- en HIP-programma's met behulp van tools zoals ROCm Debugger en ROCm Profiler.
Optimaliseer ROCm- en HIP-programma's met behulp van technieken zoals coalescing, caching, prefetching en profilering.
Deze door een instructeur geleide, live training (op locatie of op afstand) is gericht op ontwikkelaars op beginnersniveau tot op gemiddeld niveau die ROCm en HIP willen gebruiken om AMD GPU's te programmeren en hun parallellisme te exploiteren.
Aan het einde van deze training kunnen deelnemers:
Zet een ontwikkelomgeving op met het ROCm-platform, een AMD GPU en Visual Studio code.
Creëer een basis ROCm-programma dat vectoroptelling uitvoert op de GPU en de resultaten ophaalt uit het GPU-geheugen.
Gebruik de ROCm API om apparaatinformatie op te vragen, apparaatgeheugen toe te wijzen en de toewijzing ervan ongedaan te maken, gegevens tussen host en apparaat te kopiëren, kernels te starten en threads te synchroniseren.
Gebruik HIP-taal om kernels te schrijven die worden uitgevoerd op de GPU en gegevens manipuleren.
Gebruik de ingebouwde functies, variabelen en bibliotheken van HIP om algemene taken en bewerkingen uit te voeren.
Gebruik ROCm- en HIP-geheugenruimten, zoals globaal, gedeeld, constant en lokaal, om gegevensoverdracht en geheugentoegang te optimaliseren.
Gebruik ROCm- en HIP-uitvoeringsmodellen om de threads, blokken en rasters te besturen die het parallellisme definiëren.
Debug en test ROCm- en HIP-programma's met behulp van tools zoals ROCm Debugger en ROCm Profiler.
Optimaliseer ROCm- en HIP-programma's met behulp van technieken zoals coalescing, caching, prefetching en profilering.
CANN (Compute Architecture for Neural Networks) is Huawei’s AI computing toolkit used to compile, optimize, and deploy AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at beginner-level AI developers who wish to understand how CANN fits into the model lifecycle from training to deployment, and how it works with frameworks like MindSpore, TensorFlow, and PyTorch.
By the end of this training, participants will be able to:
Understand the purpose and architecture of the CANN toolkit.
Set up a development environment with CANN and MindSpore.
Convert and deploy a simple AI model to Ascend hardware.
Gain foundational knowledge for future CANN optimization or integration projects.
Format of the Course
Interactive lecture and discussion.
Hands-on labs with simple model deployment.
Step-by-step walkthrough of the CANN toolchain and integration points.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
Ascend, Biren en Cambricon zijn leidende AI-hardwareplatformen in China, elk biedend unieke versnellings- en profieltools voor productieschaal AI-werkbelastingen.
Deze door een docent geleide, live-training (online of op locatie) is gericht op geavanceerde AI-infrastructuur- en prestatie-engineers die modelinferentie- en trainingswerkstromen willen optimaliseren op meerdere Chinese AI-chipplatformen.
Na afloop van deze training kunnen de deelnemers:
Modellen bencheren op Ascend, Biren en Cambricon-platformen.
Systembottleneks en geheugen/verwerkingsinefficiënties identificeren.
Optimisaties op grafiekniveau, kernelniveau en operatorkniveau toepassen.
Implementatiepijplijnen afstellen om doorvoer en latentie te verbeteren.
Formaat van de cursus
Interactieve lezing en discussie.
Handen aan het werk met profiel- en optimalisatietools op elk platform.
Geleide oefeningen gericht op praktische afstellingscenario's.
Opties voor cursusanpassing
Voor een aangepaste training voor deze cursus op basis van uw prestatieomgeving of modeltype, neem dan contact met ons op om dit te regelen.
CANN SDK (Compute Architecture for Neural Networks) is Huawei’s AI compute foundation that allows developers to fine-tune and optimize the performance of deployed neural networks on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at advanced-level AI developers and system engineers who wish to optimize inference performance using CANN’s advanced toolset, including the Graph Engine, TIK, and custom operator development.
By the end of this training, participants will be able to:
Understand CANN's runtime architecture and performance lifecycle.
Use profiling tools and Graph Engine for performance analysis and optimization.
Create and optimize custom operators using TIK and TVM.
Resolve memory bottlenecks and improve model throughput.
Format of the Course
Interactive lecture and discussion.
Hands-on labs with real-time profiling and operator tuning.
Optimization exercises using edge-case deployment examples.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
Chinese GPU-architecturen zoals Huawei Ascend, Biren en Cambricon MLU's bieden CUDA-alternatieven die zijn afgestemd op de lokale AI- en HPC-markten.
Deze door een instructeur geleide, live training (online of op locatie) is bedoeld voor geavanceerde GPU-programmeurs en infrastructurspecialisten die bestaande CUDA-toepassingen willen migreren en optimaliseren voor implementatie op Chinese hardwareplatforms.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
De compatibiliteit van bestaande CUDA-werkbelastingen met Chinese chipalternatieven te evalueren.
CUDA-codebases te porten naar Huawei CANN, Biren SDK en Cambricon BANGPy-omgevingen.
De prestaties te vergelijken en optimalisatiepunten te identificeren op verschillende platforms.
Praktische uitdagingen in het ondersteunen en implementeren van cross-architecture te aanpakken.
Formaat van de cursus
Interactieve lezingen en discussies.
Hands-on codevertalings- en prestatievergelingslabs.
Geleide oefeningen met als focus multi-GPU-adaptatiestrategieën.
Cursusaangepaste opties
Om een aangepaste training voor deze cursus aan te vragen op basis van uw platform of CUDA-project, neem dan contact met ons op om dit te regelen.
Deze live training onder leiding van een instructeur in Leuven (online of ter plaatse) is bedoeld voor ontwikkelaars van beginners tot gemiddeld niveau die CUDA willen gebruiken om NVIDIA GPUs te programmeren en hun parallellisme te benutten.
Aan het einde van deze training zijn de deelnemers in staat om:
Zet een ontwikkelomgeving op die CUDA Toolkit, een NVIDIA GPU en Visual Studio Code bevat.
Maak een eenvoudig CUDA-programma dat vectoroptelling uitvoert op de GPU en de resultaten uit het GPU-geheugen ophaalt.
Gebruik de CUDA API om apparaatinformatie op te vragen, apparaatgeheugen toe te wijzen en toe te wijzen, gegevens tussen host en apparaat te kopiëren, kernels te starten en threads te synchroniseren.
Gebruik de CUDA C/C++-taal om kernels te schrijven die op de GPU worden uitgevoerd en gegevens te manipuleren.
Gebruik de ingebouwde functies, variabelen en bibliotheken van CUDA om algemene taken en bewerkingen uit te voeren.
Gebruik CUDA-geheugenruimten, zoals globaal, gedeeld, constant en lokaal, om gegevensoverdracht en geheugentoegang te optimaliseren.
Gebruik het CUDA-uitvoeringsmodel om de threads, blokken en rasters te beheren die het parallellisme definiëren.
Fouten opsporen en testen van CUDA-programma's met behulp van hulpprogramma's zoals CUDA-GDB, CUDA-MEMCHECK en NVIDIA Nsight.
Optimaliseer CUDA-programma's met behulp van technieken zoals coalescing, caching, prefetching en profiling.
CANN (Compute Architecture for Neural Networks) is Huawei’s AI compute stack for deploying and optimizing AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and engineers who wish to deploy trained AI models efficiently to Huawei Ascend hardware using the CANN toolkit and tools such as MindSpore, TensorFlow, or PyTorch.
By the end of this training, participants will be able to:
Understand the CANN architecture and its role in the AI deployment pipeline.
Convert and adapt models from popular frameworks to Ascend-compatible formats.
Use tools like ATC, OM model conversion, and MindSpore for edge and cloud inference.
Diagnose deployment issues and optimize performance on Ascend hardware.
Format of the Course
Interactive lecture and demonstration.
Hands-on lab work using CANN tools and Ascend simulators or devices.
Practical deployment scenarios based on real-world AI models.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
Biren AI Accelerators zijn hoogpresterende GPUs ontworpen voor AI- en HPC-workloads met ondersteuning voor grootschalig training en inferentie.Deze door een instructeur geleide live training (online of op locatie) is bedoeld voor ontwikkelaars op intermediair tot geavanceerd niveau die applicaties willen programmeren en optimaliseren met behulp van de proprietaire GPU stack van Biren, met praktische vergelijkingen met CUDA-omgevingen.Na afloop van deze training kunnen de deelnemers:- De Biren GPU architectuur en geheugenhierarchie begrijpen.- De ontwikkelomgeving instellen en het programmeringsmodel van Biren gebruiken.- CUDA-stijlcodering vertalen en optimaliseren voor Biren-platforms.- Prestatie-optimalisatie- en debugtechnieken toepassen.Format van de Cursus- Interactieve colleges en discussies.- Handson gebruik van Biren SDK in voorbeeld GPU workloads.- Geleide oefeningen gericht op porting en prestatie-optimalisatie.Opties voor Cursusaanpassing- Om een aangepaste training voor deze cursus aan te vragen op basis van uw applicatiestack of integratiebehoeften, neem dan contact met ons op om dit te regelen.
Cambricon MLUs (Machine Learning Units) zijn gespecialiseerde AI-chips geoptimaliseerd voor inferentie en training in edge- en datacenterscenario's.
Deze door een instructeur geleide, live training (online of ter plaatse) is gericht op ontwikkelaars op intermediair niveau die AI-modellen willen bouwen en implementeren met behulp van het BANGPy-framework en de Neuware SDK op Cambricon MLU-hardware.
Na afloop van deze training zullen de deelnemers in staat zijn om:
De BANGPy- en Neuware-ontwikkelomgevingen te installeren en configureren.
Python- en C++-gebaseerde modellen te ontwikkelen en te optimaliseren voor Cambricon MLUs.
Modellen te implementeren op edge- en datacenterapparaten die de Neuware-runtime uitvoeren.
ML-workflows te integreren met MLU-specifieke versnellingseigenschappen.
Formaat van de cursus
Interactieve lezingen en discussies.
Handmatige gebruik van BANGPy en Neuware voor ontwikkeling en implementatie.
Geleide oefeningen gericht op optimalisatie, integratie en testen.
Opties voor cursusanpassing
Om een aangepaste training voor deze cursus aan te vragen op basis van uw Cambricon-apparaatmodel of gebruiksscenario, neem dan contact met ons op om dit te regelen.
Deze live training onder leiding van een instructeur in Leuven (online of op locatie) is bedoeld voor systeembeheerders en IT-professionals op beginnersniveau die CUDA-omgevingen willen installeren, configureren, beheren en problemen willen oplossen.
Aan het einde van deze training zijn de deelnemers in staat om:
Begrijp de architectuur, componenten en mogelijkheden van CUDA.
Installeer en configureer CUDA-omgevingen.
Beheer en optimaliseer CUDA-bronnen.
Veelvoorkomende CUDA-problemen opsporen en oplossen.
Deze door een instructeur geleide, live training (online of op locatie) is gericht op ontwikkelaars van beginnend tot gemiddeld niveau die OpenCL willen gebruiken om heterogene apparaten te programmeren en hun parallelisme te benutten.
Aan het einde van deze training zullen de deelnemers in staat zijn:
Een ontwikkelomgeving opzetten die de OpenCL SDK, een apparaat dat OpenCL ondersteunt en Visual Studio Code bevat.
Een basis-OpenCLprogramma maken dat vectoradditie op het apparaat uitvoert en de resultaten uit het apparaatgeheugen ophaalt.
De OpenCL API gebruiken om apparaatinformatie op te vragen, contexten, opdrachtwachtrijen, buffers, kernels en gebeurtenissen te creëren.
De OpenCL C-taal gebruiken om kernels te schrijven die op het apparaat worden uitgevoerd en gegevens manipuleren.
De ingebouwde functies, extensies en bibliotheken van OpenCL gebruiken om veelvoorkomende taken en operaties uit te voeren.
De host- en apparaatgeheugenmodellen van OpenCL gebruiken om gegevensoverdrachten en geheugentoegang te optimaliseren.
Het uitvoeringsmodel van OpenCL gebruiken om de werk-items, werkgroepen en ND-ranges te beheersen.
OpenCL-programma's debuggen en testen met behulp van hulpmiddelen zoals CodeXL, Intel VTune en NVIDIA Nsight.
OpenCL-programma's optimaliseren met behulp van technieken zoals vectorisatie, lus-ontwikkeling, lokale geheugen en profileren.
Dit door een instructeur geleide live training in Leuven (online of op locatie) is gericht op ontwikkelaars met middelmatige vaardigheden die CUDA willen gebruiken om Python toepassingen te bouwen die parallel op NVIDIA GPUs lopen.
Aan het einde van deze training kunnen deelnemers:
De Numba compiler gebruiken om Python applicaties die draaien op NVIDIA GPUs te versnellen.
Aangepaste CUDA kernels maken, compileren en lanceren.
Het geheugen van GPU beheren.
Een CPU-gebaseerde applicatie omzetten in een GPU-versnelde applicatie.
Deze door een instructeur geleide, live training cursus in Leuven behandelt hoe u GPUs programmeert voor parallel computergebruik, hoe u verschillende platforms gebruikt, hoe u met het CUDA-platform en zijn functies werkt, en hoe u verschillende optimalisatietechnieken uitvoert met behulp van CUDA . Enkele van de toepassingen omvatten deep learning, analyses, beeldverwerking en technische toepassingen.
Lees meer...
Laatst bijgewerkt:
Testimonials (2)
Zeer interactief met diverse voorbeelden, met een goede progressie in complexiteit tussen start en einde van de training.
Jenny - Andheo
Cursus - GPU Programming with CUDA and Python
Automatisch vertaald
Trainers, energie en humor.
Tadeusz Kaluba - Nokia Solutions and Networks Sp. z o.o.
GPU training cursus in Leuven, GPU (Graphics Processing Unit) opleiding cursus in Leuven, Weekend Graphics Processing Unit (GPU) cursus in Leuven, Avond Graphics Processing Unit (GPU) training in Leuven, Graphics Processing Unit (GPU) instructeur geleid Leuven, Graphics Processing Unit on-site in Leuven, Graphics Processing Unit een op een training in Leuven, Graphics Processing Unit (GPU) boot camp in Leuven, Graphics Processing Unit (GPU) instructeur in Leuven, GPU op locatie in Leuven, Avond Graphics Processing Unit cursus in Leuven, GPU coaching in Leuven, Weekend GPU (Graphics Processing Unit) training in Leuven, Graphics Processing Unit instructeur geleid in Leuven,Graphics Processing Unit lessen in Leuven, GPU trainer in Leuven, Graphics Processing Unit (GPU) privé cursus in Leuven, GPU een op een opleiding in Leuven