Lokale, door instructeurs geleide live GPU (Graphics Processing Unit) trainingscursussen demonstreren door middel van interactieve discussie en hands-on praktijk de grondbeginselen van GPU en hoe GPU's te programmeren. GPU-training is beschikbaar als 'live training op afstand' of 'live training op locatie'. Online live training (ook bekend als "live training op afstand") wordt uitgevoerd via een interactieve, externe desktop . Live training op locatie kan lokaal worden uitgevoerd op het terrein van de klant in Leuven of in NobleProg bedrijfstrainingscentra in Leuven. NobleProg -- Uw lokale trainingsaanbieder
Leuven
Park Inn by Radisson Leuven, Martelarenlaan 36, Louvain, België, 3010
Leuven
Leuven (in het Nederlands Leuven, in het Duits Löwen) is een Nederlandstalige stad in België gelegen in het Vlaamse Gewest, hoofdstad van de provincie Vlaams-Brabant en hoofdstad van het district dat zijn naam draagt. Het wordt bewaterd door de Dijle, een zijrivier van de Rupel. Het is een universiteitsstad waar de Katholieke Universiteit Leuven is gevestigd, een Nederlandstalige tak ontstaan uit de splitsing van de oudste universiteit van België. Leuven staat ook bekend om het hoofdkantoor van AB InBev, de grootste brouwerij ter wereld. Leuven is de bierhoofdstad van België.
De dichtstbijzijnde luchthaven bij het trainingscentrum
15 kilometer ten oosten van de luchthaven van Brussel.
Dichtstbijzijnde treinstation bij het trainingscentrum
station Leuven
De dichtstbijzijnde parkeerplaats bij het trainingscentrum
Huawei Ascend is een familie van AI-processors ontworpen voor hoogpresterende inferentie en training.
Dit door een instructeur geleide live training (online of op locatie) is bedoeld voor AI-engineers en datawetenschappers op intermiddelair niveau die neural networkmodellen willen ontwikkelen en optimaliseren met behulp van de Huawei Ascend-platform en het CANN toolkit.
Na afloop van deze training kunnen de deelnemers:
De CANN ontwikkelomgeving instellen en configureren.
AI-applicaties ontwikkelen met behulp van MindSpore en CloudMatrix workflows.
Prestatie optimaliseren op Ascend NPUs met behulp van aangepaste operators en tiling.
Modellen implementeren in rand- of cloudomgevingen.
Opzet van de cursus
Interactieve lezingen en discussies.
Praktijkervaring met Huawei Ascend en het CANN toolkit in voorbeeldapplicaties.
Geleid oefenen gericht op modelbouw, training en implementatie.
Aanpasbare opties voor de cursus
Om een aangepaste training voor deze cursus aan te vragen op basis van uw infrastructuur of datasets, neem dan contact met ons op om dit te regelen.
De AI-stack van Huawei — van de laaggeniveau CANN SDK tot het hooggeniveau MindSpore-framework — biedt een strak geïntegreerde AI-ontwikkel- en implementatieomgeving die is geoptimaliseerd voor Ascend-hardware.
Deze door een instructeur geleide live-training (online of ter plaatse) is bedoeld voor technische professionals op beginner- tot gemiddeld niveau die willen begrijpen hoe de CANN en MindSpore-componenten samenwerken om AI-lifecyclebeheer en infrastructuurbeslissingen te ondersteunen.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
Het gelaagde architectuur van de AI-rekenstack van Huawei te begrijpen.
Inzicht te krijgen in hoe CANN modeloptimalisatie en implementatie op hardware-niveau ondersteunt.
Het MindSpore-framework en de toolchain te evalueren in vergelijking met industrie-alternatieven.
De AI-stack van Huawei te positioneren binnen ondernemings- of cloud/ter-plaatse-omgevingen.
Formaat van de cursus
Interactieve lezing en discussie.
Live systeemdemonstraties en gevalsgebaseerde walkthroughs.
Optionele begeleide labs over modelstroom van MindSpore naar CANN.
Opties voor aanpassing van de cursus
Om een aangepaste training voor deze cursus aan te vragen, neem dan contact met ons op om dit te regelen.
Deze live training onder leiding van een instructeur in Leuven (online of op locatie) is bedoeld voor ontwikkelaars van beginners tot gemiddeld niveau die OpenACC willen gebruiken om heterogene apparaten te programmeren en hun parallellisme te benutten.
Aan het einde van deze training zijn de deelnemers in staat om:
Stel een ontwikkelomgeving in met OpenACC SDK, een apparaat dat OpenACC ondersteunt, en Visual Studio Code.
Maak een eenvoudig OpenACC-programma dat vectoroptelling uitvoert op het apparaat en de resultaten ophaalt uit het geheugen van het apparaat.
Gebruik OpenACC-richtlijnen en -clausules om de code te annoteren en de parallelle regio's, gegevensverplaatsing en optimalisatieopties op te geven.
Gebruik de OpenACC-API om apparaatgegevens op te vragen, het apparaatnummer in te stellen, fouten af te handelen en gebeurtenissen te synchroniseren.
Gebruik OpenACC-bibliotheken en interoperabiliteitsfuncties om OpenACC te integreren met andere programmeermodellen, zoals CUDA, OpenMP en MPI.
Gebruik OpenACC-tools om OpenACC-programma's te profileren en fouten op te sporen en te identificeren en knelpunten en kansen op het gebied van prestaties te identificeren.
Optimaliseer OpenACC-programma's met behulp van technieken zoals datalokalisatie, lusfusie, kernelfusie en auto-tuning.
Het CANN SDK (Compute Architecture for Neural Networks) biedt krachtige implementatie- en optimalisatiegereedschappen voor real-time AI-applicaties in computer vision en NLP, vooral op Huawei Ascend hardware.
Deze door een instructeur geleide live training (online of op locatie) is gericht op AI-practitioners op intermediair niveau die vision- en taalmodellen willen bouwen, implementeren en optimaliseren met behulp van het CANN SDK voor productiegebruiksscenario’s.
Aan het einde van deze training kunnen de deelnemers:
CV- en NLP-modellen implementeren en optimaliseren met CANN en AscendCL.
CANN gereedschappen gebruiken om modellen te converteren en te integreren in live-pijplijnen.
De inferentieprestaties optimaliseren voor taken zoals detectie, classificatie en sentimentanalyse.
Real-time CV/NLP-pijplijnen bouwen voor edge- of cloudgebaseerde implementatiescenario’s.
Opbouw van de cursus
Interactieve lezing en demonstratie.
Handson lab met modelimplementatie en prestatieprofiling.
Live-pijplijndesign met behulp van echte CV- en NLP-gebruiksscenario’s.
Opties voor cursusaanpassing
Voor een aangepaste training voor deze cursus, neem contact met ons op om dit te regelen.
Deze door een instructeur geleide, live training in Leuven (op locatie of op afstand) is gericht op ontwikkelaars op beginners- tot gemiddeld niveau die de basisprincipes van GPU programmeren willen leren en de belangrijkste raamwerken en hulpmiddelen voor het ontwikkelen van GPU applicaties. .
Aan het einde van deze training kunnen deelnemers: Begrijp het verschil tussen CPU en GPU computergebruik en de voordelen en uitdagingen van GPU programmeren.
Kies het juiste raamwerk en de juiste tool voor hun GPU toepassing.
Maak een basisprogramma GPU dat vectoroptelling uitvoert met behulp van een of meer van de raamwerken en hulpmiddelen.
Gebruik de respectievelijke API's, talen en bibliotheken om apparaatinformatie op te vragen, apparaatgeheugen toe te wijzen en de toewijzing daarvan ongedaan te maken, gegevens tussen host en apparaat te kopiëren, kernels te starten en threads te synchroniseren.
Gebruik de respectieve geheugenruimten, zoals globaal, lokaal, constant en privé, om gegevensoverdrachten en geheugentoegang te optimaliseren.
Gebruik de respectieve uitvoeringsmodellen, zoals werkitems, werkgroepen, threads, blokken en rasters, om de parallelliteit te controleren.
Debug en test GPU programma's met behulp van tools zoals CodeXL, CUDA-GDB, CUDA-MEMCHECK en NVIDIA Nsight.
Optimaliseer GPU programma's met behulp van technieken zoals coalescentie, caching, prefetching en profilering.
CANN TIK (Tensor Instruction Kernel) en Apache TVM bieden geavanceerde optimalisatie en aanpassing van AI-modeloperators voor Huawei Ascend hardware.
Deze instructeurgeleide live training (online of op locatie) is gericht op systeembouwers op geavanceerd niveau die custom operators willen bouwen, implementeren en afstellen voor AI-modellen met behulp van het TIK-programmeermodel van CANN en de TVM-compilerintegratie.
Aan het einde van deze training kunnen de deelnemers:
Custom AI-operators schrijven en testen met behulp van de TIK DSL voor Ascend-processoren.
Custom ops integreren in de CANN runtime en uitvoeringsgrafiek.
TVM gebruiken voor operatorplanning, auto-tuning en benchmarking.
Debuggen en optimaliseren van instructieniveauprestaties voor custom berekeningspatronen.
Formaat van de cursus
Interactieve lezing en demonstratie.
Hands-on codering van operators met behulp van TIK- en TVM-pipelines.
Testen en afstellen op Ascend-hardware of simulators.
Opties voor cursusaanpassing
Voor het aanvragen van een aangepaste training voor deze cursus, neem contact met ons op om dit te regelen.
Deze door een instructeur geleide live-training (online of op locatie) is bedoeld voor beginners tot gemiddelde ontwikkelaars die verschillende frameworks willen gebruiken voor GPU programmeren en hun functies, prestaties en compatibiliteit willen vergelijken.
Aan het einde van deze training kunnen de deelnemers:
Een ontwikkelomgeving instellen die OpenCL SDK, CUDA Toolkit, ROCm Platform, een apparaat dat OpenCL, CUDA of ROCm ondersteunt en Visual Studio Code omvat.
Een basis-GPU programma maken dat vectoradditie uitvoert met behulp van OpenCL, CUDA en ROCm, en de syntaxis, structuur en uitvoering van elk framework vergelijken.
De respectieve APIs gebruiken om apparaatinformatie op te vragen, apparaatgeheugen toe te wijzen en vrij te geven, gegevens tussen host en apparaat te kopiëren, kernels te starten en threads te synchroniseren.
De respectieve talen gebruiken om kernels te schrijven die op het apparaat worden uitgevoerd en gegevens manipuleren.
De respectieve ingebouwde functies, variabelen en bibliotheken gebruiken om veelvoorkomende taken en bewerkingen uit te voeren.
De respectieve geheugenruimtes, zoals globaal, lokaal, constant en privé, gebruiken om gegevensoverdrachten en geheugentoegangen te optimaliseren.
De respectieve uitvoeringmodellen gebruiken om de threads, blokken en roosters te controleren die de parallelisme definiëren.
GPU programma's debuggen en testen met behulp van tools zoals CodeXL, CUDA-GDB, CUDA-MEMCHECK en NVIDIA Nsight.
GPU programma's optimaliseren met behulp van technieken zoals samenvoegen, cachen, vooraf laden en profielen.
CloudMatrix is Huawei’s geünificeerde AI-ontwikkelings- en implementatieplatform dat is ontworpen om schaalbare, productie-gerichte inferentie-pipelines te ondersteunen.
Deze door een instructeur geleide live-training (online of op locatie) is bedoeld voor AI-professionals op beginnend tot intermediair niveau die AI-modellen willen implementeren en monitoren met behulp van de CloudMatrix platform met CANN en MindSpore integratie.
Aan het einde van deze training kunnen de deelnemers:
CloudMatrix gebruiken voor modelpakkaging, implementatie en servering.
Modellen converteren en optimaliseren voor Ascend-chipsets.
Pipelines instellen voor real-time en batch-inferentietaken.
Implementaties monitoren en de prestaties aanpassen in productieomgevingen.
Formaat van de cursus
Interactieve lezingen en discussies.
Handsongebruik van CloudMatrix met echte implementatiescenario's.
Geleide oefeningen gericht op conversie, optimalisatie en schaling.
Opties voor cursusaanpassing
Om een aangepaste training voor deze cursus aan te vragen op basis van uw AI-infrastructuur of cloudomgeving, neem dan contact met ons op om dit te regelen.
Het Huawei Ascend CANN toolkit maakt krachtige AI-inferentie mogelijk op randapparaten zoals de Ascend 310. CANN biedt essentiële hulpmiddelen voor het compileren, optimaliseren en implementeren van modellen waar berekenings- en geheugenbeperkingen bestaan.
Deze door een instructeur geleide live-training (online of op locatie) is gericht op AI-ontwikkelaars en integrators op intermiddelair niveau die modellen willen implementeren en optimaliseren op Ascend-randapparaten met behulp van de CANN toolchain.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
AI-modellen voorbereiden en converteren voor Ascend 310 met behulp van CANN hulpmiddelen.
Lichtgewicht inferentie-pijplijnen bouwen met MindSpore Lite en AscendCL.
De prestaties van modellen optimaliseren voor beperkte berekenings- en geheugenomgevingen.
AI-toepassingen implementeren en monitoren in echte randgebruiksgevallen.
Opzet van de cursus
Interactieve lezing en demonstratie.
Handen-aan-praktijkwerk met rand-specifieke modellen en scenario's.
Leefde implementatievoorbeelden op virtuele of fysieke randhardware.
Opties voor cursusaanpassing
Neem contact met ons op om een aangepaste training voor deze cursus aan te vragen.
Deze door een instructeur geleide, live training (op locatie of op afstand) is gericht op ontwikkelaars op beginnersniveau tot op gemiddeld niveau die ROCm op Windows willen installeren en gebruiken om AMD GPU's te programmeren en hun parallellisme te exploiteren.
Aan het einde van deze training kunnen deelnemers:
Zet een ontwikkelomgeving op met ROCm Platform, een AMD GPU en Visual Studio Code op Windows.
Creëer een basis ROCm-programma dat vectoroptelling uitvoert op de GPU en de resultaten ophaalt uit het GPU-geheugen.
Gebruik de ROCm API om apparaatinformatie op te vragen, apparaatgeheugen toe te wijzen en de toewijzing ervan ongedaan te maken, gegevens tussen host en apparaat te kopiëren, kernels te starten en threads te synchroniseren.
Gebruik HIP-taal om kernels te schrijven die worden uitgevoerd op de GPU en gegevens manipuleren.
Gebruik de ingebouwde functies, variabelen en bibliotheken van HIP om algemene taken en bewerkingen uit te voeren.
Gebruik ROCm- en HIP-geheugenruimten, zoals globaal, gedeeld, constant en lokaal, om gegevensoverdracht en geheugentoegang te optimaliseren.
Gebruik ROCm- en HIP-uitvoeringsmodellen om de threads, blokken en rasters te besturen die het parallellisme definiëren.
Debug en test ROCm- en HIP-programma's met behulp van tools zoals ROCm Debugger en ROCm Profiler.
Optimaliseer ROCm- en HIP-programma's met behulp van technieken zoals coalescing, caching, prefetching en profilering.
Deze door een instructeur geleide, live training (op locatie of op afstand) is gericht op ontwikkelaars op beginnersniveau tot op gemiddeld niveau die ROCm en HIP willen gebruiken om AMD GPU's te programmeren en hun parallellisme te exploiteren.
Aan het einde van deze training kunnen deelnemers:
Zet een ontwikkelomgeving op met het ROCm-platform, een AMD GPU en Visual Studio code.
Creëer een basis ROCm-programma dat vectoroptelling uitvoert op de GPU en de resultaten ophaalt uit het GPU-geheugen.
Gebruik de ROCm API om apparaatinformatie op te vragen, apparaatgeheugen toe te wijzen en de toewijzing ervan ongedaan te maken, gegevens tussen host en apparaat te kopiëren, kernels te starten en threads te synchroniseren.
Gebruik HIP-taal om kernels te schrijven die worden uitgevoerd op de GPU en gegevens manipuleren.
Gebruik de ingebouwde functies, variabelen en bibliotheken van HIP om algemene taken en bewerkingen uit te voeren.
Gebruik ROCm- en HIP-geheugenruimten, zoals globaal, gedeeld, constant en lokaal, om gegevensoverdracht en geheugentoegang te optimaliseren.
Gebruik ROCm- en HIP-uitvoeringsmodellen om de threads, blokken en rasters te besturen die het parallellisme definiëren.
Debug en test ROCm- en HIP-programma's met behulp van tools zoals ROCm Debugger en ROCm Profiler.
Optimaliseer ROCm- en HIP-programma's met behulp van technieken zoals coalescing, caching, prefetching en profilering.
CANN (Compute Architecture for Neural Networks) is Huawei’s AI computing toolkit gebruikt om AI-modellen te compileren, te optimaliseren en te implementeren op Ascend AI-processoren.
Dit door een instructeur geleide, live training (online of op locatie) is bedoeld voor beginnende AI-ontwikkelaars die willen begrijpen hoe CANN past in de modellevenscyclus van training tot implementatie en hoe het werkt met frameworks zoals MindSpore, TensorFlow en PyTorch.
Aan het einde van deze training kunnen deelnemers:
Het doel en de architectuur van de CANN toolkit begrijpen.
Een ontwikkelomgeving instellen met CANN en MindSpore.
Een eenvoudig AI-model converteren en implementeren op Ascend-hardware.
Fundamentele kennis opdoen voor toekomstige CANN optimalisatie- of integratieprojecten.
Indeling van de cursus
Interactieve lezingen en discussies.
Handson-labs met eenvoudige modelimplementatie.
Stapsgewijze begeleiding door de CANN toolchain en integratiepunten.
Opties voor cursusaanpassing
Neem contact met ons op om een aangepaste training voor deze cursus aan te vragen.
Ascend, Biren en Cambricon zijn leidende AI-hardwareplatformen in China, elk biedend unieke versnellings- en profieltools voor productieschaal AI-werkbelastingen.
Deze door een docent geleide, live-training (online of op locatie) is gericht op geavanceerde AI-infrastructuur- en prestatie-engineers die modelinferentie- en trainingswerkstromen willen optimaliseren op meerdere Chinese AI-chipplatformen.
Na afloop van deze training kunnen de deelnemers:
Modellen bencheren op Ascend, Biren en Cambricon-platformen.
Systembottleneks en geheugen/verwerkingsinefficiënties identificeren.
Optimisaties op grafiekniveau, kernelniveau en operatorkniveau toepassen.
Implementatiepijplijnen afstellen om doorvoer en latentie te verbeteren.
Formaat van de cursus
Interactieve lezing en discussie.
Handen aan het werk met profiel- en optimalisatietools op elk platform.
Geleide oefeningen gericht op praktische afstellingscenario's.
Opties voor cursusanpassing
Voor een aangepaste training voor deze cursus op basis van uw prestatieomgeving of modeltype, neem dan contact met ons op om dit te regelen.
CANN SDK (Compute Architecture for Neural Networks) is Huawei’s AI compute foundation dat ontwikkelaars in staat stelt om de prestaties van uitgevoerde neurale netwerken op Ascend AI-processoren te verfijnen en te optimaliseren.
Deze door instructeurs geleide live-training (online of op locatie) is bedoeld voor geavanceerde AI-ontwikkelaars en systeemingenieurs die de inferentieprestaties willen optimaliseren met behulp van het geavanceerde gereedschapspakket van CANN, waaronder de Graph Engine, TIK en de ontwikkeling van aangepaste operators.
Na afloop van deze training kunnen de deelnemers:
De runtime-architectuur en prestatiecyclus van CANN begrijpen.
Profileringsinstrumenten en de Graph Engine gebruiken voor prestatieanalyse en optimalisatie.
Aangepaste operators maken en optimaliseren met behulp van TIK en TVM.
Geheugenflessenhalsen oplossen en de modeldoorvoer verbeteren.
Formaat van de cursus
Interactieve lezing en discussie.
Praktijklaboratoria met realtime profileren en operatorafstelling.
Optimalisatieoefeningen met behulp van voorbeelden van randgevallen-implementatie.
Opties voor cursusaanpassing
Neem contact met ons op om een aangepaste training voor deze cursus aan te vragen.
Chinese GPU-architecturen zoals Huawei Ascend, Biren en Cambricon MLU's bieden CUDA-alternatieven die zijn afgestemd op de lokale AI- en HPC-markten.
Deze door een instructeur geleide, live training (online of op locatie) is bedoeld voor geavanceerde GPU-programmeurs en infrastructurspecialisten die bestaande CUDA-toepassingen willen migreren en optimaliseren voor implementatie op Chinese hardwareplatforms.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
De compatibiliteit van bestaande CUDA-werkbelastingen met Chinese chipalternatieven te evalueren.
CUDA-codebases te porten naar Huawei CANN, Biren SDK en Cambricon BANGPy-omgevingen.
De prestaties te vergelijken en optimalisatiepunten te identificeren op verschillende platforms.
Praktische uitdagingen in het ondersteunen en implementeren van cross-architecture te aanpakken.
Formaat van de cursus
Interactieve lezingen en discussies.
Hands-on codevertalings- en prestatievergelingslabs.
Geleide oefeningen met als focus multi-GPU-adaptatiestrategieën.
Cursusaangepaste opties
Om een aangepaste training voor deze cursus aan te vragen op basis van uw platform of CUDA-project, neem dan contact met ons op om dit te regelen.
Deze live training onder leiding van een instructeur in Leuven (online of ter plaatse) is bedoeld voor ontwikkelaars van beginners tot gemiddeld niveau die CUDA willen gebruiken om NVIDIA GPUs te programmeren en hun parallellisme te benutten.
Aan het einde van deze training zijn de deelnemers in staat om:
Zet een ontwikkelomgeving op die CUDA Toolkit, een NVIDIA GPU en Visual Studio Code bevat.
Maak een eenvoudig CUDA-programma dat vectoroptelling uitvoert op de GPU en de resultaten uit het GPU-geheugen ophaalt.
Gebruik de CUDA API om apparaatinformatie op te vragen, apparaatgeheugen toe te wijzen en toe te wijzen, gegevens tussen host en apparaat te kopiëren, kernels te starten en threads te synchroniseren.
Gebruik de CUDA C/C++-taal om kernels te schrijven die op de GPU worden uitgevoerd en gegevens te manipuleren.
Gebruik de ingebouwde functies, variabelen en bibliotheken van CUDA om algemene taken en bewerkingen uit te voeren.
Gebruik CUDA-geheugenruimten, zoals globaal, gedeeld, constant en lokaal, om gegevensoverdracht en geheugentoegang te optimaliseren.
Gebruik het CUDA-uitvoeringsmodel om de threads, blokken en rasters te beheren die het parallellisme definiëren.
Fouten opsporen en testen van CUDA-programma's met behulp van hulpprogramma's zoals CUDA-GDB, CUDA-MEMCHECK en NVIDIA Nsight.
Optimaliseer CUDA-programma's met behulp van technieken zoals coalescing, caching, prefetching en profiling.
CANN (Compute Architecture for Neural Networks) is Huawei’s AI-compute stack for deploying and optimizing AI models on Ascend AI processors.
Deze door een instructeur geleide live training (online of op locatie) is bedoeld voor AI-ontwikkelaars en ingenieurs op intermediëren niveau die getrainde AI-modellen efficiënt willen inzetten op Huawei Ascend hardware met behulp van de CANN toolkit en tools zoals MindSpore, TensorFlow, of PyTorch.
Aan het einde van deze training kunnen de deelnemers:
De CANN architectuur en zijn rol in de AI-inzetpijplijn begrijpen.
Modellen van populaire frameworks converteren en aanpassen aan Ascend-compatibele indelingen.
Gebruik maken van tools zoals ATC, OM-modelconversie en MindSpore voor edge- en cloudinferentie.
Inzetproblemen diagnosticeren en de prestaties op Ascend-hardware optimaliseren.
Opzet van de cursus
Interactieve les en demonstratie.
Praktische laboratoriumwerkzaamheden met CANN tools en Ascend-simulators of apparaten.
Praktische inzetscenario’s op basis van echte AI-modellen.
Opties voor cursusaanpassing
Om een aangepaste training voor deze cursus aan te vragen, neem contact met ons op om dit te regelen.
Biren AI Accelerators zijn hoogprestatieapparaten die zijn ontworpen voor AI- en HPC-workloads met ondersteuning voor grootschalig trainen en infereren.
Deze door een instructeur geleide live-training (online of ter plekke) is bedoeld voor ontwikkelaars met een tussen- tot geavanceerd niveau die wensen om applicaties te programmeren en te optimaliseren met behulp van de eigen Biren GPU stack, met praktische vergelijkingen met CUDA-omgevingen.
Aan het einde van deze training zullen deelnemers in staat zijn om:
De Biren GPU architectuur en geheugenhiërarchie te begrijpen.
De ontwikkelomgeving in te stellen en het Biren-programmeringsmodel te gebruiken.
CUDA-stijl code te vertalen en te optimaliseren voor Biren platforms.
Technieken voor prestatie optimalisatie en foutopsporing toe te passen.
Opzet van de cursus
Interactieve les en discussie.
Hands-on gebruik van de Biren SDK in voorbeeld-GPU workloads.
Begeleide oefeningen gericht op porting en prestatie optimalisatie.
Opties voor cursusaanpassing
Om een aangepaste training voor deze cursus aan te vragen op basis van uw applicatiestack of integratiebehoeften, neem dan contact met ons op om te regelen.
Cambricon MLUs (Machine Learning Units) zijn gespecialiseerde AI-chips geoptimaliseerd voor inferentie en training in edge- en datacenterscenario's.
Deze door een instructeur geleide, live training (online of ter plaatse) is gericht op ontwikkelaars op intermediair niveau die AI-modellen willen bouwen en implementeren met behulp van het BANGPy-framework en de Neuware SDK op Cambricon MLU-hardware.
Na afloop van deze training zullen de deelnemers in staat zijn om:
De BANGPy- en Neuware-ontwikkelomgevingen te installeren en configureren.
Python- en C++-gebaseerde modellen te ontwikkelen en te optimaliseren voor Cambricon MLUs.
Modellen te implementeren op edge- en datacenterapparaten die de Neuware-runtime uitvoeren.
ML-workflows te integreren met MLU-specifieke versnellingseigenschappen.
Formaat van de cursus
Interactieve lezingen en discussies.
Handmatige gebruik van BANGPy en Neuware voor ontwikkeling en implementatie.
Geleide oefeningen gericht op optimalisatie, integratie en testen.
Opties voor cursusanpassing
Om een aangepaste training voor deze cursus aan te vragen op basis van uw Cambricon-apparaatmodel of gebruiksscenario, neem dan contact met ons op om dit te regelen.
Deze live training onder leiding van een instructeur in Leuven (online of op locatie) is bedoeld voor systeembeheerders en IT-professionals op beginnersniveau die CUDA-omgevingen willen installeren, configureren, beheren en problemen willen oplossen.
Aan het einde van deze training zijn de deelnemers in staat om:
Begrijp de architectuur, componenten en mogelijkheden van CUDA.
Installeer en configureer CUDA-omgevingen.
Beheer en optimaliseer CUDA-bronnen.
Veelvoorkomende CUDA-problemen opsporen en oplossen.
Deze door een instructeur geleide, live training (online of op locatie) is gericht op ontwikkelaars van beginnend tot gemiddeld niveau die OpenCL willen gebruiken om heterogene apparaten te programmeren en hun parallelisme te benutten.
Aan het einde van deze training zullen de deelnemers in staat zijn:
Een ontwikkelomgeving opzetten die de OpenCL SDK, een apparaat dat OpenCL ondersteunt en Visual Studio Code bevat.
Een basis-OpenCLprogramma maken dat vectoradditie op het apparaat uitvoert en de resultaten uit het apparaatgeheugen ophaalt.
De OpenCL API gebruiken om apparaatinformatie op te vragen, contexten, opdrachtwachtrijen, buffers, kernels en gebeurtenissen te creëren.
De OpenCL C-taal gebruiken om kernels te schrijven die op het apparaat worden uitgevoerd en gegevens manipuleren.
De ingebouwde functies, extensies en bibliotheken van OpenCL gebruiken om veelvoorkomende taken en operaties uit te voeren.
De host- en apparaatgeheugenmodellen van OpenCL gebruiken om gegevensoverdrachten en geheugentoegang te optimaliseren.
Het uitvoeringsmodel van OpenCL gebruiken om de werk-items, werkgroepen en ND-ranges te beheersen.
OpenCL-programma's debuggen en testen met behulp van hulpmiddelen zoals CodeXL, Intel VTune en NVIDIA Nsight.
OpenCL-programma's optimaliseren met behulp van technieken zoals vectorisatie, lus-ontwikkeling, lokale geheugen en profileren.
Dit door een instructeur geleide live training in Leuven (online of op locatie) is gericht op ontwikkelaars met middelmatige vaardigheden die CUDA willen gebruiken om Python toepassingen te bouwen die parallel op NVIDIA GPUs lopen.
Aan het einde van deze training kunnen deelnemers:
De Numba compiler gebruiken om Python applicaties die draaien op NVIDIA GPUs te versnellen.
Aangepaste CUDA kernels maken, compileren en lanceren.
Het geheugen van GPU beheren.
Een CPU-gebaseerde applicatie omzetten in een GPU-versnelde applicatie.
Deze door een instructeur geleide, live training cursus in Leuven behandelt hoe u GPUs programmeert voor parallel computergebruik, hoe u verschillende platforms gebruikt, hoe u met het CUDA-platform en zijn functies werkt, en hoe u verschillende optimalisatietechnieken uitvoert met behulp van CUDA . Enkele van de toepassingen omvatten deep learning, analyses, beeldverwerking en technische toepassingen.
Lees meer...
Laatst bijgewerkt:
Getuigenissen (2)
Zeer interactief met diverse voorbeelden, met een goede progressie in complexiteit tussen start en einde van de training.
Jenny - Andheo
Cursus - GPU Programming with CUDA and Python
Automatisch vertaald
Trainers, energie en humor.
Tadeusz Kaluba - Nokia Solutions and Networks Sp. z o.o.
GPU training cursus in Leuven, GPU (Graphics Processing Unit) opleiding cursus in Leuven, Weekend Graphics Processing Unit (GPU) cursus in Leuven, Avond Graphics Processing Unit (GPU) training in Leuven, Graphics Processing Unit (GPU) instructeur geleid Leuven, Graphics Processing Unit on-site in Leuven, Graphics Processing Unit een op een training in Leuven, Graphics Processing Unit (GPU) boot camp in Leuven, Graphics Processing Unit (GPU) instructeur in Leuven, GPU op locatie in Leuven, Avond Graphics Processing Unit cursus in Leuven, GPU coaching in Leuven, Weekend GPU (Graphics Processing Unit) training in Leuven, Graphics Processing Unit instructeur geleid in Leuven,Graphics Processing Unit lessen in Leuven, GPU trainer in Leuven, Graphics Processing Unit (GPU) privé cursus in Leuven, GPU een op een opleiding in Leuven